Gli Algoritmi di Google

gli algoritmi di google

Conoscere gli algoritmi di Google per posizionare il tuo sito

Google è un po’ come la Coca Cola: se ne conoscono gli ingredienti (le linee guida da applicare per posizionare un sito nella SERP), ma non il dosaggio ( l’influenza specifica di tutti i numerosi elementi che concorrono al calcolo del posizionamento).

Ad oggi i vari responsabili di Google hanno dichiarato che il loro motore di ricerca tiene in considerazione circa 200 fattori e che quasi tutti contengono circa 50 variabili cadauno!

Fatevi un rapido calcolo ed immaginate quanti sono i fattori che concorrono al buon posizionamento di un sito internet!!!

Per capire quale tipo di lavoro fare sul nostro sito, partiremo allora dal capire COSA FANNO gli algoritmi principali di Google. In questo modo riusciremo a tracciare delle linee guida da tenere in considerazione per ottenere una buona indicizzazione ed un buon posizionamento.

PARTIAMO!

IL CONCETTO PRINCIPALE: QUALITA’ E FRESCHEZZA DEI CONTENUTI

Alla fine di questo articolo capirete come tutto ruota attorno alla qualità e alla freschezza del contenuto delle vostre pagine, ed ogni singolo algoritmo analizzato ci porterà sempre a questa conclusione, fermo restando l’importanza di dover comunque implementare il codice del vostro sito con una buona “ottimizzazione on-page*” e di aver prima effettuato una attenta analisi e la selezione  delle keyword con cui vogliamo posizionarci.

*l’ottimizzazione on-page, detta anche on-site, sono tutte quelle azioni mirate ad implementare il codice sorgente di un sito per far si che possa essere facilmente indicizzato dai motori di ricerca.

Se non riuscirete a capire tutti i concetti non abbiate paura. La cosa più importante che dovete fare vostra, è la consapevolezza che attraverso un lavoro costante di pubblicazione di articoli di qualità il vostro sito pian piano salirà di posizioni.

Pronti? Partiamo!

PAGE RANK (PR)

Come funziona il Page Rank di GoogleRappresenta uno degli algoritmi che alla sua uscita più ha inciso sulla rivoluzione di Google, determinando di fatto un cambiamento epocale nel modo di fare SEO. Prima del Page Rank, si dava importanza solo all’ottimizzazione on-page. All’uscita del Page Rank, questo non bastava più.

Si tratta di una classificazione delle pagine ottenuta in base a quanti link si ricevono da altre fonti. Google assegna un punteggio ad ogni sito in base al numero di link che si ricevono da altri siti.

All’uscita di questo algoritmo i webmaster cercavano link da qualsiasi fonte per aumentare il PR del proprio sito. Nacquero così le “link farm” (siti che distribuivano migliaia di link), aziende che vendevano link a pagamento (ce ne sono ancora, così come ci sono ancora gli stupidi che se li comprano), siti di article marketing, siti “guest post” e via dicendo. Il risultato fu uno scombussolamento nella serp con siti che riuscirono a piazzarsi nelle prime posizioni con parole chiave che nulla avevano a che fare con l’argomento che trattavano.

A quel punto Google corse ai ripari, ridimensionando molto il valore che dava a questo algoritmo ai fini del posizionamento e affinando la metodologia di calcolo del PR.

Grazie a questa azione, attualmente non serve a nulla avere centinaia di link in entrata se non provengono da siti a tema con la nostra pagina. Ecco, questo è il punto: oggi il Page Rank ha ancora un valore e distribuisce un punteggio buono se il link al nostro articolo proviene da un sito che tratta il nostro argomento.

Se poi questo sito ha a sua volta un punteggio Page Rank alto (la scala va da 0 a 10), avrà ancora più valore perché un sito autorevole (un sito con page rank alto è considerato autorevole) che linka il nostro sito per un determinato argomento, ci identifica come un sito da cui proviene un contenuto di qualità. E Google premia la qualità!

Il meccanismo è lo stesso che avviene quando cerchiamo un bravo medico specialista ma non ne conosciamo. Sappiamo che in zona ad esempio ce ne sono 3. Uno di questi 3 però ce lo indica e raccomanda il primario di un ospedale prestigioso. A quel punto noi con fiducia andremo da quel medico.

Quindi, concludendo, per avere dei link al nostro sito ed aumentare il Page Rank, la soluzione giusta è produrre contenuti di qualità che possano essere apprezzati dai lettori e che spingano gli stessi a linkare il nostro contenuto su altri siti identificandoci come fonte autorevole.

TRUST RANK

come funziona il trust rank di googleIl brevetto del Trust Rank è stato depositato da Yahoo!. Google lo ha acquistato ed ha applicato il suo concetto abbinandolo al Page Rank. In pratica questo algoritmo esamina le pagine dei siti internet per controllare se siano fonti di spam. Nel caso non gli fosse possibile definire se siano effettivamente pagine spam o meno, le segnala. Gli esperti di Google (persone fisiche) le esaminano e poi il risultato viene ridato in pasto all’algoritmo che a questo punto gli da la giusta classificazione all’interno della SERP (può anche bannare il sito e farlo scomparire dai risultati).

L’intento è quello di eliminare tutte quelle pagine spazzatura che non abbiano alcuna utilità per i navigatori.

Ancora una volta torniamo al concetto base che, per non essere penalizzati e per aumentare la propria posizione sulla serp, servono pagine con contenuti di qualità e utili all’utente che li legge.

HILL TOP

hill-top-googleHill Top è un algoritmo che premia la tematicità delle pagine dando rilevanza a tutti quei link  in entrata “a tema”.

Spiegato con un esempio si può dire così: poniamo che oggi tu sia arrivato sul mio sito dopo aver cliccato su un link presente in una pagina di un altro sito che tratta la SEO.  Molto probabilmente ti aspettavi di finire su una pagina che parla di SEO. E questo è avvenuto. Ma quanto saresti stato deluso se fossi finito su un e-commerce che vende rossetti? Nello stesso modo ragiona Hill Top.

Hill Top premia in maniera incisiva le pagine più autorevoli, i documenti più rilevanti per un determinato tema e concorre ad incrementare il punteggio di page rank attraverso il passaggio di link a tema.

Da qui la necessità da parte del proprietario di un sito di proporre sempre argomenti con contenuti di qualità (per guadagnare autorevolezza nel campo) ed attinenti al tema che tratta (informatica, viaggi, cucina, ecc…) ed infine di controllare che i propri back-link provengano da pagine che parlino di quello specifico tema.

CAFFEINE

Come funziona Google CaffeineL’algoritmo Caffeine è uno dei pilastri su cui si fonda Google per migliorare la propria risposta alle query dell’utente. Partendo dal fatto che tra siti, blog e social network il volume di informazioni che ogni giorno vengono immesse nel web è immensa, il maggiore motore di ricerca del mondo ha messo a punto un algoritmo che gli permette di archiviare queste informazioni velocemente e di essere ancora più veloce nel catalogarle e dare le risposte giuste all’utente.

Per questo è diventato sempre più importante la propria presenza costante in rete, rilasciando contenuti sempre nuovi e favorendo la facilità di condivisione attraverso i social.

Un altro fattore da prendere in considerazione per ben figurare ogni volta che caffeine esaminerà il nostro sito è la presenza sui cosiddetti “motori di ricerca verticali” (Google Local, Blog, Immagini, video, discussioni, ecc…). Insomma, siate come il prezzemolo…ma solo dove il prezzemolo sta bene!

PENGUIN

Google Penguin è stato creato per combattere il fenomeno del “keyword stuffing” ovvero riempire la pagina delle stesse parole chiave scrivendole ripetutamente all’interno del testo (e non solo…) e la costruzione innaturale di schemi di link.

come funziona google penguinCon questo algoritmo Google va a leggere gli anchor text (i testi dei link) che puntano un determinato sito ed in base alla risultanza della sua analisi, decide se i link sono costruiti artificialmente al fine di migliorare la popolarità di una determinata pagina web. In questo caso non importa se i link provengono da siti a tema. Importa capire se i link sono stati costruiti ad hoc o se sono il frutto spontaneo dell’interesse che la pagina linkata ha suscitato tra gli utenti del web.

Un esempio per far capire cosa si intende: immaginiamo un’agenzia di Roma che realizzi siti internet. Una costruzione naturale di link  al sito aziendale, fatta da utenti reali che apprezzino il modo di lavorare dell’agenzia,  prevede la variazione dell’ anchor text a seconda dell’esperienza e del modo di esprimersi dell’utente. E così potremmo vedere anchor text del tipo (tra virgolette l’anchor text):

  • su questo sito “nome dominio” fanno bei lavori
  • il mio sito l’ha fatto “nome agenzia”
  • il mio sito lo hanno realizzato “loro”
  • “clicca qui” per andare sul sito dell’agenzia
  • “agenzia di siti internet”
  • “siti web”
  • ecc….

Se invece l’anchor text è sempre lo stesso (per esempio “realizzazione siti internet”), vuol dire che qualcosa non va. E’ impossibile che su 100 link provenienti da 100 siti diversi, 99 utenti utilizzino l’identico anchor text. E’ allora evidente che lo schema di link sia stato costruito artificialmente solo per migliorare il posizionamento di una certa pagina per la parola chiave “realizzazione siti internet”. Penguin prima o poi se ne accorge e penalizza il sito destinatario di tutti questi link. Anzi più precisamente penalizza la pagina a cui sono destinati questi link.

Ho messo il neretto sulle parole “penalizza la pagina” perché, a differenza di Google Panda (altro algoritmo di Google) che quando penalizza lo fa colpendo l’intero sito, Penguin penalizza solo la pagina “incriminata” e le pagine ad essa collegate.

Se si incorre in una penalizzazione di Penguin (capita anche di essere penalizzati senza aver fatto nulla per contravvenire alle indicazioni di Google e ai dettami di questo algoritmo), l’unica cosa da fare è cercare di rimuovere quei back-link che hanno causato la penalizzazione e successivamente fare una richiesta di riconsiderazione a Big G.

Anche per questo algoritmo è fondamentale che i contenuti del sito siano di qualità per far si che il nostro schema di link si crei e si incrementi naturalmente (grazie al rilascio spontaneo di link da parte degli utenti) e per beneficiare delle penalizzazioni degli altri siti scavalcandoli sui risultati di ricerca.

PANDA e HUMMINGBIRD

Di Google Panda e Google Hummingbird ho parlato già su questo blog. Potete vedere sulle seguenti pagine Come funziona Google Panda” e “Come funziona Google Hummingbird“, di cui vi consiglio la rilettura.

In breve Panda cerca di individuare quei siti che non abbiano nessuna correlazione tra le key con cui sono indicizzati e i loro contenuti, rileva se vi sono contenuti copiati da altre fonti, se i contenuti sono assenti e le pagine sono solo piene di keywords inserite in frasi senza senso e tanti altri controlli tesi ad analizzare sempre la stessa cosa: la qualità dei contenuti.

Hummingbird è invece il primo algoritmo progettato per dare agli utenti delle risposte a delle precise domande. Sei a Milano e cerchi un ristorante? Domandalo a Google e lui ti risponde con tutti i ristoranti più vicine alla zona in cui ti trovi.

E ultimamente, se hai segnalato il ristorante su “Google My Business” (incorporato in Google Plus) e hai implementato  i microdati sul codice del sito, ti dice anche il telefono, il percorso da seguire per raggiungerlo, le recensioni di chi c’è stato, le foto e addirittura il menù con i relativi prezzi!!!  Non più keyword dunque, non più artifizi per far apparire un sito non coerente con la query digitata, ma testi di qualità scritti correttamente, microdati e Google Plus!

CONCLUSIONI

Eccoci dunque alla fine di questo lungo articolo.

Oggi, posizionare un sito su Google, è un lavoro lungo e impegnativo, fatto di tante accortezze da attuare nel rispetto delle linee guida di Google e del modo di valutare i nostri siti tramite i suoi algoritmi.

Non dovete inoltre fare l’errore di pensare a questi algoritmi come entità separate tra loro. Tutti concorrono insieme allo stesso obiettivo che è quello di migliorare i risultati che Google restituisce quando cerchiamo qualcosa.

Concludo con le parole di Matt Cutts, responsabile del team antispam di Google:

Matt Cutts di googleGoogle non ha posizioni nelle SERP riservate o dedicate ai risultati di un algoritmo più specifico: non c’è una posizione specifica per il contenuto più autorevole e un’altra per il contenuto più aggiornato. I contenuti che pubblichi non possono essere semplicemente notizie, ma devono trattare argomenti in modo sufficientemente approfondito, tale da guadagnare citazioni e un profilo di backlinks acquisiti solo in modo naturale . Matt Cutts

In poche parole qualità dei contenuti. E ad inizio articolo ve l’avevo già detto. 😉

 

About the author

Flavio

Mi trovo nel campo del web dal 2006. Nel tempo mi sono specializzato soprattutto nell'indicizzazione,  nel posizionamento di siti internet e nell'utilizzo dei social media principali a fini di marketing.