SEO

Sitemap XML: perché è così importante per il SEO

Sitemap Hml Seo
Una Sitemap XML: perché è così importante per il SEO?. Una sitemap XML (sitemap.xml) è un file di testo in formato XML (Extensible Markup Language) che contiene un elenco di tutte le sottopagine di un sito web sotto forma di link. Come tale, può essere caricato nella Google Search Console o su Bing Webmaster Tools per notificare ai crawler dei motori di ricerca tutte le pagine disponibili e rilevanti, velocizzando e ottimizzando così il processo di indicizzazione.
“Nei progetti di marketing, costruiamo Tribù Digitali intorno all’azienda perché vogliamo sostenere legami sociali tra soggetti costruiti attorno all’offerta economica. In poche parole sviluppiamo relazioni fra impresa e consumatori individuando come in un sistema tribale, elementi e soggetti che possono interagire nello spazio e nel tempo disponibile.” – MASSI VIGILANTE – SEO SEOHULK

La Sitemap.xml dovrebbe essere scritta e aggiornata automaticamente dal CMS ogni qual volta un contenuto viene aggiornato o aggiunto ex-novo. Durante la sua compilazione bisogna rispettare alcuni limiti ed alcune regole, come ad esempio possono venire elencati fino ad un massimo di 50.000 URLs e la dimensione del file Sitemap.xml non compresso non deve superare i 50MB.

Per capire come mai una Sitemap XML è fondamentale per le strategie SEO, vediamo un esempio con due URLs:

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9″>
<url>
<loc>http://www.esempio.it/</loc>
<lastmod>2013-06-26</lastmod>
<changefreq>daily</changefreq>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.esempio.it/contatti/</loc>
<lastmod>2013-05-26</lastmod>
<changefreq>monthly</changefreq>
<priority>0.3</priority>
</url>
</urlset>

Come vediamo, all’interno del tag si trovano queste informazioni:
è l’indirizzo URL della pagina.
contiene data e ora dell’ultima modifica. Può indicare allo Spider che la pagina è stata recentemente riaggiornata e quindi deve essere nuovamente scansionata.
dà la frequenza approssimativa di aggiornamento. Può essere always, hourly, daily, weekly, monthly, yearly o never.
indica un valore da 0.0 a 1.0 che possiamo assegnare noi alla pagina per identificare la priorità che vogliamo dargli rispetto alle altre.

Il sito ufficiale che illustra lo standard per la sitemap XML è questo: https://www.sitemaps.org/protocol.html Grazie a Screaming Frog (o al tuo strumento preferito per il crawling) puoi effettuare un SEO Audit utilizzando direttamente il file della sitemap XML pubblicata sul sito web: questo approccio è utile per verificare la presenza di pagine orfane, che restituiscono errori di tipo 404 o espongono la direttiva noindex . Dopo aver configurato Screaming Frog in modalità Lista, seleziona la sitemap XML (o la sitemap index XML) e avvia la scansione. Confrontando il file di esportazione generato dal crawling del sito con quello generato dal crawling della sitemap XML, risulta davvero facile individuare le pagine che, per qualche motivo, non sono state aggiunge alla sitemap XML o che, viceversa, restituiscono errori di tipo 404 o erogano dei redirect verso altri URL. Per confrontare i due file esportati, il metodo più rapido è usare la funzione VLOOKUP (CERCAVERT, in italiano) di Microsoft Office Excel.

In definitiva, dunque, usare una Sitemap è un metodo per facilitare la vita dei crawler e per fornire una mappa dei contenuti del proprio sito a Googlebot. Pur non garantendo che gli elementi indicati siano poi effettivamente scansionati e indicizzati, si consiglia di usare sempre una Sitemap perché “nella maggior parte dei casi l’esistenza di una Sitemap costituisce comunque un vantaggio per il tuo sito e non verrai mai penalizzato per il fatto di averne una”, come dice Google.

Scroll Up