Recentemente Mountain View ha pubblicato alcune nuove indicazioni dedicate ai gestori dei siti Web e incentrate sui comportamenti che permetteranno di evitare di compromettere il posizionamento delle proprie pagine; in particolare tali istruzioni introducono alcune norme sulla qualità in cui vengono indicate le pratiche illecite che potrebbero portare alla rimozione di un sito dall'indice di Google o ad un controllo antispam.
In parte si tratta di suggerimenti dettati dal semplice buonsenso, in parte vengono proposte delle regole con le quali vengono sostanzialmente confermate buone pratiche già descritte in passato, ma raccomandazioni come progettare pagine per gli utenti e non per i motori di ricerca, non cercare di ingannare gli utilizzatori o evitare trucchi per migliorare il posizionamento, rimangono tuttora valide.
Nello stesso modo sono sconsigliabili i contenuti generati automaticamente, le pagine nelle quali i contenuti originali sono copiati, scarsi o assenti, il cloaking (mostrare ai motori di ricerca contenuti diversi da quelli visualizzati dagli utenti), i testi e i link nascosti, le doorway, la duplicazione dei contenuti altrui, i redirect non consentiti dalle policy di Google, le pagine con parole chiave irrilevanti o l'invio automatico di query al motore di ricerca.
Ritornando al già citato buonsenso, per i Webmaster rimangono poi validi i suggerimenti di monitorare i siti Web per individuare contenuti compromessi, nonché rimuoverli appena identificati, e di operare una rimozione preventiva dei contributi generati dagli utenti quando questi sono classificabili come spam. Analogamente sarà possibile osservare delle regole che aiuteranno Google a posizionare le pagine che si intende promuovere:
- Fornire una Sitemap
- Realizzare una mappa del sito disponibile per gli utenti.
- Assicurarsi che il server supporti l'intestazione HTTP If-Modified-Since
- Assicurarsi che sia possibile accedere a tutte le pagine di un sito tramite link referente presente in un'altra pagina a sua volta accessibile.
- Utilizzare il robots.txt
- Progettare un sito Web ricco di informazioni utili con una gerarchia delle pagine chiara.
- Assicurarsi che i title ALT
- Verificare che il CMS
- Consentire ai bot di eseguire scansioni senza ID di sessione o parametri URL che ne controllino il percorso.
- Assicurarsi che l'advertising non incida sul posizionamento utilizzando, ad esempio, il robots.txt o rel="nofollow"
- Limitare quanto più possibile il numero di link per singola pagina.
- Consentire la scansione di tutte le risorse che incidono sulla visualizzazione delle pagine come, per esempio, file CSS e JavaScript che hanno un ruolo nella comprensione delle pagine.
Rimangono poi validi i consigli mirati ad elevare il livello di usabilità
- Utilizzare codice HTML valido.
- Assicurarsi che i link rimandino a pagine pubblicate.
- Ottimizzare i tempi di caricamento.
- Utilizzare testo e non immagini per nomi, contenuti o link.
- Utilizzare ALT
- Proteggere le connessioni con HTTPS
- Tenere conto del funzionamento degli screen reader accessibilità
- Progetta i siti Web in modo che siano adatti a dispositivi di diverse dimensioni e compatibili con i browser più diffusi.
Si tenga conto che le buone pratiche descritte non sono indirizzate specificatamente ai SEO