Dopo le sitemap e la sintassi del robots.txt, la scorsa settimana i tre principali motori di ricerca hanno siglato di comune accordo un ulteriore passo verso la standardizzazione del comportamento dei crawler introducendo il supporto ai Canonical link.
L'annuncio arriva in contemporanea sul blog dei tre motori di ricerca:
- Specify your canonical
- Partnering to help solve duplicate content issues
- Fighting Duplication: Adding more arrows to your quiver
Cerchiamo di capire meglio di cosa si tratta.
Come ben saprà chi di voi è abituato a lavorare con siti "dinamici" o a pianificare campagne, non è raro trovare più indirizzi in un sito corrispondere alla stessa pagina.
Ad esempio, la pagina del catalogo prodotti raggiungibile all'indirizzo
http://site.com/prodotti/23
potrebbe essere oggetto di campagne e quindi indicata anche come
http://site.com/prodotti/23 http://site.com/prodotti/23?affid=xyz http://site.com/prodotti/23?utm_source=google&utm_campaign=wertyu
Il vostro CMS ha una versione ottimizzata per la stampa? Il vostro URL potrebbe corrispondere a qualcosa tipo
http://site.com/prodotti/23/print
Fino ad oggi i crawler dei motori di ricerca si basavano su algoritmi personalizzati per tentare di individuare la radice di ogni pagina e canonizzare così la struttura delle URL.
Con l'introduzione del Canonical link il webmaster può specificare lui stesso quale sia la pagina base inserendo un tag link nelle intestazioni del documento HTML.
<link rel="canonical" href="http://site.com/prodotti/23" />
L'attributo href
accetta diversi tipi di indirizzi. Per approfondimenti vi consiglio la lettura dei tre post citati in precedenza.
I commenti non si sono fatti attendere e la reazione globale è decisamente positiva. Voi cosa ne pensate?