Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Google Penguin: cause, effetti e soluzioni

Come difendersi da Google Penguin e come verificare se il nostro sito è stato colpito dal nuovo aggiornamento dell'algoritmo di Google.
Come difendersi da Google Penguin e come verificare se il nostro sito è stato colpito dal nuovo aggiornamento dell'algoritmo di Google.
Link copiato negli appunti

A distanza di oltre un anno dal lancio di Google Panda, rilasciato poi in Italia ad Agosto 2011, e dopo averlo perfezionato in successivi update, il 24 aprile Google ha annunciato una nuova modifica al suo algoritmo subito ribattezzata Google Penguin. E Google Penguin è un altro potenziale inflitto a tutti i siti che ricorrono a sovra-ottimizzazioni delle pagine e che cercano di costruire in maniera innaturale la loro rete di link.

Google Panda premiava tutti i siti che puntano sui contenuti di qualità, scritti in maniera naturale e spontanea (non automatica), e che ricevono "attestati di stima" da altri siti sotto forma di link altrettanto spontanei. Google Penguin colpisce invece altre pratiche: vediamo nel dettaglio le caratteristiche di questo aggiornamento, come rilevare eventuali penalizzazioni e come porvi rimedio nel caso il nostro sito fosse stato colpito.

Cos'è Google Penguin

L'aggiornamento è stato annunciato il 24 Aprile 2012 sul blog di Google Webmaster Central. L'annuncio riguarda il rilascio di un nuovo algoritmo volto a contrastare il fenomeno del keyword stuffing (la sovra ottimizzazione di parole chiave) e del link building innaturale. L'obiettivo è quello di premiare ancora di più chi utilizza tecniche lecite facendo attenzione ai contenuti. A differenza di Panda, il cui rilascio è avvenuto in maniera graduale, il lancio di Penguin è avvenuto simultaneamente a livello mondiale, con una stima media di incidenza sul 3% delle ricerche.

Quali sono gli effetti di una penalizzazione subita da Penguin? Per un sito web si traduce in una perdita significativa di posizioni e la conseguente diminuzione di visite ricevute. Nel caso in cui una pagina fosse ritenuta non idonea, sarà infatti l'intero sito ad essere penalizzato e non solo la pagina in questione.

Come rilevare la penalizzazione

Accorgersi di una penalizzazione può essere facile: la prima cosa è consultare un servizio di statistiche del traffico ricevuto da Google a partire dal 24 Aprile in poi, per verificare un eventuale anomalo calo delle visite e delle impression. Tramite Google Analytics possiamo ricavare questo dato dal percorso "Sorgenti di traffico / Sorgenti / Tutto il traffico" e individuare la riga con il valore "google/organic"; possiamo anche far tracciare questa riga e metterla a confronto con le visite complessive

Figura 1: un sito con evidenti cali di visite da Google
(clic per ingrandire)

Figura 1: un sito con evidenti cali di visite da Google

Possiamo anche mettere a confronto il grafico delle nostre visite con il trend di ricerca indicato su Google Trends o su Google Insight per accertarci che determinati cali di visite possano magari dipendere da un calo di interesse generale verso uno specifico tema.

Anche lo Strumento per Webmaster di Google può aiutarci a vedere chiaro consultando il grafico con il numero di query degli utenti che hanno mostrato le nostre pagine nelle SERP (percorso "Traffico à Query di ricerca"): un calo drastico di questi numeri può indurci a pensare ad una penalizzazione in corso.

Accertata la penalizzazione, dobbiamo passare alla controffensiva. Vedremo come nella pagina successiva.

I Rimedi

Se si è stati colpiti da Google Penguin è inutile disperarsi e protestare: la cosa migliore da fare è rimboccarsi le maniche ed agire immediatamente eliminando le possibili cause che hanno determinato la penalizzazione.

Google stesso, oltre ad aver spiegato in maniera sintetica ma chiara gli obiettivi di Penguin, fornisce nella sua Guida per Webmaster e sul Google Help Center diverse indicazioni utili. Quali possono essere utili ai nostri scopi? Ecco una serie di fattori su cui intervenire:

  • Non utilizzare tecniche di sovra-ottimizzazione delle keyword , inserendo testo nascosto o link nascosti. La keyword density all'interno di una pagina dovrebbe essere mantenuta a livelli "naturali", senza eccedere; potrebbe convenire addirittura diminuire la presenza di keyword e scendere a percentuali intorno al 4-5% massimo, a favore di una maggiore fluidità e naturalezza dei testi.
  • Non utilizzare tecniche di cloacking né creare doorway pages con l'intento di ingannare l'utente posizionandosi per una certa keyword ma rindirizzando il visitatore verso altri lidi. Anche le più amichevoli welcome page, pagine ottimizzate per 1-2 keyword e che in pratica fungono da porte secondarie verso i contenuti veri e propri, potrebbero essere a rischio; la differenza potrebbero farla i contenuti, ma allora perché non considerare la welcome page come una pagina a tutti gli effetti se i contenuti sono validi e non solo a scopo SEO?
  • Evitare di creare reti di siti satellite, per simulare una naturale matrice di link a tema, se i siti in questione non presentano contenuto realmente utile ma servono solo per spingere una determinata keyword (e sono quindi pieni di testi duplicati o con contenuti generici e/o ripetitivi). Cercare per lo meno di distribuire per bene i siti satellite su diversi server ed intestarne i domini a persone diverse, per cercare di simulare una mancanza di "parentela" fra questi siti.
  • Cercare di costruire la propria link popularity in maniera uniforme e costante nel tempo, ma soprattutto evitare di ricorrere a servizi di submission automatiche che potrebbero far incrementare i link in entrata in poco tempo ed in maniera sospetta. Inoltre è bene evitare di ricevere link in entrata sempre con la stessa parola chiave.

In definitiva, riportando anche quanto consigliato dopo il rilascio di Google Panda, si deve cercare di scrivere per gli utenti e non per i motori; il consiglio sembra banale e ripetitivo, eppure i siti che stanno pian piano emergendo a scapito dei siti penalizzati sono quelli che hanno seguito le linee guida suggerite (scrittura naturale, testi originali e consistenti, formattazione corretta e corretto uso dei tag HTML, link spontanei da/verso risorse a tema, aggiornamento dei contenuti).

Google Penguin, del resto, ha suscitato anche qualche critica.

Le critiche

Qualche critica è stata mossa contro questa ricerca continua di perfezionamento, con dubbi avanzati sulla necessità di stravolgere un sistema di ricerca che è sicuramente tra i migliori (se non "il" migliore) ma che porta sempre grossi scombussolamenti nelle SERP; il motivo delle critiche? Favorire l'utilizzo di Adwords. Se un'azienda importante (e ricca) si trova di punto in bianco fuori dalle posizioni strategiche, pur di non rimanere tagliata fuori nell'immediato, potrebbe ricorrere ad Adwords con investimenti consistenti.

Questa osservazione, pur basandosi su un'ipotesi plausibile, dovrebbe tener conto di 2 fattori:

  1. Se l'azienda X usa sistemi poco ortodossi o comunque non graditi a Google, perderà posizioni e sarà magari costretta a ricorrere ad Adwords, ma a questo punto ci un'altra azienda Y che si ritroverà ai primi posti e di conseguenza potrebbe di contro diminuire l'investimento su Adwords stesso
  2. Si possono muovere diverse "accuse" a Google, non ultime la scarsa trasparenza e la posizione di predominanza che può contribuire a rendere la società "antipatica", ma la sua forza nel tempo è stata quella di considerare l'utente finale il centro del progetto e fornirgli la migliore user experience.

Grazie a questo tipo di approccio Google si è affermato come indiscusso leader nell'ambito della ricerca sul web, favorendo ora non solo l'utente, ma anche chi si dedica ad attività SEO in maniera trasparente.

Prendiamo ad esempio il proprietario di un sito web di medio-piccole dimensione e budget ridotto: si dedicherà all'ottimizzazione di fattori on-page, alla creazione di un blog parallelo per spingere alcune keyword e alla collezione di inbound link da siti a tema di media importanza.

Potrebbe trovarsi di fronte concorrenti (aziende) con maggiori disponibilità finanziarie, che hanno possibilità di acquisto di link (pratica che tutt'oggi viene ancora usata benchè vietata) a tema su siti ad alto Trust/PR, che hanno facoltà di mantenere un team di sviluppatori per creare una grossa rete di siti satellite, dislocati in diverse aree geografiche ed ottimizzati per poche keyword, nonché mantenere una redazione che faccia attività di copywriting e attività social. In questo modo il proprietario del piccolo sito sarà destinato a "rimanere indietro": competere in questo tipo di situazione equivarrebbe a sedersi ad un tavolo di poker con un petroliere.

Ora però si potranno ipotizzare scenari in cui la bontà e la qualità dei contenuti potrebbero fare la differenza, e pochi link spontanei e pertinenti potranno forse avere la meglio su matrici di link da siti con contenuti generati solo per piacere ai motori.

Ti consigliamo anche