Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Posizionamento e architettura del network

Quali fattori considerare a livello di architettura del network per facilitare il posizioanamento sui motori
Quali fattori considerare a livello di architettura del network per facilitare il posizioanamento sui motori
Link copiato negli appunti

Troppo spesso ci si sofferma sull'ottimizzazione dei siti, sulla link popularity e sul PageRank, senza preoccuparsi degli aspetti sistemistici dell'impianto che rende possibile la pubblicazione delle pagine.

Sarà perché a volte questi aspetti sono meno conosciuti, sarà perché si ritengono ininfluenti, sarà perché spesso non si ha modo di far prove, assodato è che su forum e blog si tende a stendere un velo su tutto ciò. Vogliamo parlarne?

L'architettura influisce sul posizionamento?

Sì. Molto. Data la prima provocatoria ed a volte contestata risposta, vediamo quali sono i motivi che ci portano ad affermare che due server non sono uguali, se entrambi ci consentono di far vedere il sito. Senza diventare sistemisti di networking, è opportuno che chi di voi si accinge a diventare un SEO professionista, certe cose le conosca.

I componenti sotto esame

La struttura che consente la pubblicazione di un sito è formata da molti componenti, ovviamente non tutti coinvolti nel discorso che ci accingiamo fare. Quelli che analizzeremo sono:

  • server;
  • connessione ad Internet;
  • sezione di rete Internet d'interesse;
  • database (se impiegato).

Velocità del server

Lo spider legge le pagine e per farlo le scarica. Alcuni motori ne tengono poi una copia in cache, ad esempio Google, altri buttano via dopo aver indicizzato e tengono sola la URL ed un abstract.
Leggere significa:

  • accedere al server;
  • fare alcune richieste per stabilire la connessione ed identificarsi;
  • effettuare alcuni controlli;
  • chiedere la prima pagina;
  • ricevere la pagina;
  • esaminarla;
  • eventualmente chiederne altre.

Alcuni spider, invece, dopo essersi connessi, chiedono a raffica le pagine che gli interessano, senza alcun esame tra uno scaricamento e l'altro. Questi sistemi, cioè, dividono le fasi di scaricamento dalle fasi di analisi. Lo spider, in sostanza, ha una lista di cose da ottenere, scarica e passa il materiale al resto del software del motore.

In questa fase il server ha un ruolo fondamentale in quanto è lui a dover fornire le risorse chieste ed evadere i servizi relativi.
Un server lento farà attendere lo spider più a lungo.
Quanto tempo lo spider ha per quel sito?
Quante pagine riuscirà a scaricare in queste condizioni?
Penalizza il server per il fatto che è lento?
Nessuna di queste domande ha una risposta certa e, dove la risposta c'è, non è detto che sia vera per sempre.
Il solito buonsenso, però, dovrebbe farci ritenere che un motore che si trovi penalizzato dal dover aspettare troppo un server, non può esserne felice. Inoltre sa che allo stesso modo aspetterà l'utente e questo non può che essere ulteriormente negativo.

Qualcuno a volte pensa che in fondo un server, per quanto lento, sarà sempre più veloce di Internet. Questo, invece, è vero solo parzialmente. Infatti va tenuto presente che molti server fanno da web server per molti siti (vedi quelli degli hosting economici). Inoltre possono esservi molte applicazioni aperte e, peggio ancora, servizi di database in funzione.

Chiunque navighi molto si sarà accorto di come molti siti diano continui time-out. E lo spider? Sarà contento per questi time-out?

Banda disponibile

Stabilito che il server è veloce, con che linea è connesso ad Internet? Tutti noi pensiamo sempre alla banda che noi, come utenti, abbiamo verso Internet. Occorre anche pensare, però, che lo stesso problema lo hanno i server che forniscono le informazioni.

La banda non dipende solo dalla velocità della connessione, ma anche dagli altri servizi che la occupano. Un server web che faccia anche da server postale, usa la stessa linea per entrambi i servizi. Naturalmente la banda per ognuno dei due servizi non potrà che essere in qualche modo suddivisa. Inoltre, vi potrebbero essere ulteriori servizi come quelli di database (se vi sono connessioni dirette dall'esterno), ecc.

In caso di hosting, la banda è suddivisa tra i vari siti ospitati sulla stessa macchina. La situazione si complica ulteriormente. Se aumentano i server, non è detto che ognuno di questi sia collegato ad una sua linea. Ecco ulteriori frazionamenti, quindi.

Occorre anche pensare al numero di utenti connessi. Più pagine facciamo scaricare, più sono gli utenti, più è alto l'utilizzo della banda.

Per finire, va considerato che i sistemisti possono programmare router e firewall in modo da suddividere in modo fisso la banda tra i vari servizi e macchine. Quanta ne è stata riservata al sito in questione? Una delle differenze fondamentali tra un hosting economico ed uno professionale, è che quest'ultimo vi dichiara e garantisce la banda disponibile per il sito.

Per i motivi descritti nella parte relativa al server, è evidente che una continua carenza di banda non potrà essere considerata positivamente dallo spider.

Uptime

L'uptime è il parametro che indica per quanto tempo in percentuale si garantisce che il server sia attivo e rispondente a chi fa richieste. Pensate a DMOZ. C'è un editore umano che se trova il sito down, si mette in agenda un secondo controllo. Lo trova down ancora una volta o due, lo rimuove. Ed ecco, il sito è fuori da una delle directory più importanti del Web.

Pensando ad un sito down, però, non bisogna pensare solo al fatto che il server sia spento. Il time-out può arrivare anche solo per il fatto che una procedura di backup troppo gravosa o un programma non ben funzionate provocano eccessiva lentezza del server in certi momenti fissi della notte.

Vi ricordo che notte in Italia non significa notte nel pianeta. Gli spider sono in giro comunque (senza contare gli utenti di oltreoceano).

Un notissimo provider italiano, sino a qualche anno fa, faceva sistematicamente i backup di sabato pomeriggio, mandando in crisi metà dei siti ospitati. Il bello era che nessuno se ne accorgeva, per il semplice fatto che i webmaster solitamente non stanno 24 ore al giorno, 7 giorni alla settimana a controllare se il proprio sito è disponibile.

L'uptime, inoltre, è influenzato da tutto il network di chi vi fornisce i servizi Internet. Per risultare down, ad un server basta uno switch con qualche anomalia.
Il vostro ISP (Internet Service Provider) che uptime vi garantisce?

Locazione del server

Per fortuna la maggior parte dei motori più importanti ha ormai i datacenter in tutto il mondo. Ovunque sia situato il vostro server, dovrebbe essere comunque raggiungibile anche se una sezione di rete è down. Capita spesso, infatti, che da un capo della rete non si riesca ad accedere ad un altro, per problemi di routing dei pacchetti. Un ISP, in sostanza, ha gli impianti fermi, non necessariamente il vostro.

Vi sarà capitato di non riuscire a navigare gruppi di siti senza che fosse chiaro quale era il confine tra quelli navigabili e quelli visibili. Certo è che un sito destinato al mercato italiano, sarebbe preferibile che fosse su macchine collegate a sezioni italiane della rete. All'inverso, siti destinati al mercato americano, sarebbe meglio che fossero su macchine collegate alla sezione corrispondente della rete.

Spesso sento dire che i server americani sono più veloci. Già, però occorre tenere presente che chi si connette dall'Italia, lo fa con un provider italiano che quasi sempre limita fortemente la banda disponibile per la navigazione verso l'internazionale. Il sito su server americano velocissimo, quindi, potrà sembrare lento agli utenti italiani. Ovviamente è vero anche l'inverso.

In termini di posizionamento sui motori di ricerca, se possibile, sarebbe preferibile che il sito stesse su una macchina collegata alla stessa sezione corrispondente al mercato scelto, per limitare al massimo le possibilità di problemi legati al routing dei pacchetti IP.

Database impiegato

MySql, SQL Server, Access. Beh, sembrerebbero tutti uguali, se pensiamo ad Internet. La cosa dipende da quanti record abbiamo, dalla macchina impiegata, dall'uso che si fa del database, ecc. Chiaramente siti di commercio elettronico con alto numero di utenti connessi, alto numero di prodotti offerti, possibilità di configurazione online, sarebbe preferibile che scegliessero database con maggiori performance, con possibilità di log, con molti parametri di ottimizzazione.

Se nella maggior parte delle situazioni, il database influisce poco sul posizionamento, questo non è vero, come concetto. Lo è solo perché i numeri sono così bassi, per lo più, da renderlo tale.

Il fornitore dei servizi Internet

E per finire, vediamo il fornitore. Il nostro sito è in hosting? Su che macchina? La stessa macchina è dedicata o se condivisa? Con quanti è condivisa?
Il fornitore di che connessione dispone? Quanta ne riserva alla navigazione HTTP dei siti e del nostro in particolare? Troppo spesso mi capita di leggere che un fornitore usa linee a 10 GB, senza indicare, però, quanto della banda riserva alla navigazione e tra quanti siti è suddivisa. Quale uptime garantisce? Che reporting offre per il controllo dei valori? Ha una linea di backup nel caso la connessione principale cada?

Anche nel caso si sia in housing, tali valori sono importanti. Il disporre di un server veloce può essere vanificato da una infrastruttura lenta e carente. Nel caso di siti importanti, anche l'ISP è un fattore importante.

Conclusione

Scrivendo l'articolo, mi rendo conto che per molti webmaster di siti amatoriali questi parametri non siano fondamentali. Occorre però che ogni SEO ne abbia conoscenza, in modo da capire quando è opportuno considerare gli aspetti, in relazione all'importanza del sito che si sta progettando e che si dovrà posizionare.


Ti consigliamo anche