Home Academy Technical SEO Google Update: cos ...

Google Update: cos’è cambiato nel tempo per la SEO

Camilla Varrella

Google, per fornire agli utenti della rete risposte pertinenti alle loro richieste, utilizza un sofisticato algoritmo, ovverosia una formula matematica complessa che determina quanto un contenuto risponda a una serie di criteri precisi. Quest’ultimi possono variare sulla scorta degli aggiornamenti stabiliti da Google o dell’auto apprendimento dell’intelligenza artificiale su cui si basa l’algoritmo stesso. 

Il Machine Learning impara in autonomia come migliorare la sua capacità di analizzare i domini. Gli aggiornamenti dell’algoritmo, invece, sono frutto di analisi costanti da parte del team di sviluppatori del motore di ricerca. 

 

Google Update

Google Update dal 2003 al 2022

 

Gli update che hanno influito maggiormente sulla SEO sono:

  • Panda
  • Penguin
  • Hummingbird
  • Pigeon
  • Rank Brain
  • Mobilegeddon
  • Fred
  • Bert

Google Panda

L’obiettivo di Google Panda Update è di rintracciare contenuti duplicati o di scarsa qualità per poi declassarli dai risultati di ricerca. Così da poter garantire agli utenti solo informazioni rilevanti e utili. 

Per contenuti duplicati si intende l’attività di “scraping” che fanno alcuni siti, cioè copiare dati provenienti da altri indirizzi web al fine di riprodurli sul proprio. Questi contenuti di bassa qualità mirano principalmente ad attuare una strategia di link building e non a fornire informazioni significative ai fruitori. 

Per capire se un contenuto rischia di essere penalizzato da Google Panda bisogna valutare diversi elementi come: leggibilità, originalità, qualità della pagina e bounce rate (frequenza di rimbalzo). Se questi fattori non sono adeguati è bene intervenire ed è possibile farlo in diversi modi:

  • Utilizzando la funzione “noindex”, in modo che Google non indicizzi i contenuti scadenti
  • Adoperando lo status code 404, affinchè la pagina in questione non venga trovata
  • Ricorrendo al redirect 301, per unire contenuti simili  

Google Penguin

L’aggiornamento Google Penguin, come visto in un articolo precedente, riguarda principalmente i backlink artificiali. Lo scopo è penalizzare siti che comprano o scambiano link per posizionarsi meglio nelle SERP. Questa tipologia di backlink solitamente rimanda a siti poco pertinenti rispetto all’argomento del testo in cui vengono inseriti, perciò lo Spider di Google riesce a riconoscerli e a penalizzare l’intero contenuto.

Nel maggio 2013 è stata rilasciata una nuova versione di Penguin che è in grado di individuare siti web ottimizzati con tecniche SEO Black Hat, ossia pratiche che puntano a manipolare gli algoritmi di Google per migliorare il posizionamento di un sito nei risultati di ricerca. Tra le tattiche SEO che violano le Istruzioni per i Webmaster di Google si possono rintracciare: 

  • Keyword Stuffing: prevede la scrittura di un contenuto ricco di parole chiave non attinenti all’argomento della pagina, così da far indicizzare il testo su diversi temi e scalare molte posizioni nelle SERP
  • Contenuto generato automaticamente o duplicato: ad esempio, testi tradotti da uno strumento automatico senza essere revisionati oppure scritti ottenuti grazie a una combinazione di contenuti provenienti da altri siti web senza aggiungere alcun valore
  • Testo e link nascosti: è possibile nascondere un testo o un link utilizzando il colore bianco su sfondo bianco, inserendolo dietro a un’immagine, applicando 0 come dimensione del carattere o ricorrendo al CSS per posizionarlo fuori dallo schermo
  • Pagine doorway: vale a dire pagine simili tra loro, rispondenti a query specifiche nei risultati di ricerca, che reindirizzano l’utente alla stessa destinazione
  • Cloaking: pratica che consiste nel mostrare agli utenti contenuti o URL diversi da quelli presentati ai motori di ricerca
  • Link a pagamento: ossia acquistati per influenzare il PageRank. I link a pagamento possono esistere se viene specificato che sono stati comprati per scopi pubblicitari, aggiungendo un attributo rel=”nofollow” o rel=”sponsored” al tag <a> oppure reindirizzando i link a una pagina intermedia con accesso bloccato ai motori di ricerca mediante un file robots.txt
  • Creare pagine con comportamenti dannosi: per comportamenti dannosi si intende tutto ciò che manipola i contenuti della pagina in modo inaspettato o che scarica ed esegue file sul computer di un utente senza il suo consenso o ancora che non rispetta le norme relative al software indesiderato

 

Queste sono solo alcune SEO Black Hat. È possibile saperne di più leggendo le Linee Guida presenti sul sito Google Search Central

Nel 2014 è stata rilasciata un’ulteriore versione di Penguin che, però, non ha apportato particolari cambiamenti rispetto a quella precedente. 

Google Hummingbird

Il Colibrì (Hummingbird) di Google ha rivoluzionato completamente la ricerca perché, analizzando il significato di parole e frasi, riesce a comprendere il loro reale significato restituendo risultati appropriati agli utenti della rete. Ciò è possibile grazie all’aiuto dell’elaborazione del linguaggio naturale (NLP) che si basa sull’indagine semantica latente, termini correlati e sinonimi ricorrenti. Pertanto, con Hummingbird una pagina può posizionarsi anche per quelle keyword che, seppur non sono presenti al suo interno, a livello semantico sono collegate all’argomento del testo proposto. 

Affinché un sito risulti ottimizzato per Hummingbird è necessario: utilizzare le code lunghe (parole chiave specifiche e complesse); introdurre un blog o un forum; aggiungere un sezione per i commenti da parte degli utenti; aumentare il numero delle FAQ. 

Google Pigeon

Con Google Pigeon fare delle ricerche locali è diventato molto più semplice. Prima della sua comparsa per cercare un ristorante nelle vicinanze era necessario specificare nella query il luogo dove si volesse pranzare. Oggi, invece, grazie a Pigeon è possibile geolocalizzare la città in cui ci troviamo, così da ottenere risultati di nostro interesse senza specificare ogni volta dove siamo. Di conseguenza, Google non solo riesce a capire la posizione di un’attività commerciale, di un’azienda e così via, ma dà molta più rilevanza nelle SERP a quei siti che offrono servizi di qualità a livello locale, merito anche alle recensioni positive che hanno ottenuto, e che hanno utilizzato al meglio le tecniche SEO. 

Rank Brain

Rank Brain è un sistema di machine learning impiegato per analizzare miliardi di domini con l’intento di restituire, come risultati di ricerca, quelli più rilevanti. Tale sistema fa parte di Hummingbird, che è l’algoritmo di ricerca generale, e cerca di identificare pattern tra query apparentemente non collegate tra loro, in modo da essere sempre più preciso nel scegliere poi i risultati. Dunque, con Rank Brain, Google aggiunge alla ricerca semantica un sistema di intelligenza artificiale che impara autonomamente e ricorre alle sue conoscenze per connettere ricerche e risultati. Cosa cambia dal punto di vista SEO? L’approccio alle strategie per l’analisi delle keyword. In pratica, una pagina web ottiene una buona posizione non più per uno specifico termine ma per l’intero contenuto testuale.

Mobilegeddon

Con l’introduzione di Mobilegeddon l’ottimizzazione per i dispositivi mobili diventa un fattore di posizionamento. Ciò significa che Google è in grado di capire se un sito sia mobile friendly, considerando in modo particolare la velocità di navigazione e l’usabilità,  e di premiarlo per questo. 

Google Fred

Google Fred è un update che impatta sulla qualità dei contenuti, quindi molto vicino a Panda. I suoi obiettivi sono contrastare le fake news e penalizzare quei siti generalisti che cercano di attrarre traffico per monetizzare. Per evitare di essere colpiti da Fred bisogna:

  • verificare sempre le fonti delle notizie che si vogliono pubblicare
  • limitare gli spazi pubblicitari
  • scegliere un numero di argomenti da trattare non troppo elevato, meglio la qualità che la quantità

Google Bert

Bert è l’acronimo di Bidirectional Encoder Representations from Transformers e si occupa di calare nel contesto ogni parola analizzata di un sito. Questo implica metterla in relazione con le parole che la precedono e quelle che la seguono; il fine è sempre quello di fornire risultati accurati nelle SERP. Ragion per cui, Bert va ad affiancarsi a Rank Brain.

A livello SEO, l’update comporta la scrittura di contenuti che non diano priorità alle keyword ma  agli utenti. Quindi, tali contenuti devono utilizzare un linguaggio semplice e chiaro per veicolare informazioni di reale interesse.

Differenza tra update e data refresh

Dopo aver compreso quali sono gli update più importanti per la SEO è necessario fare una differenza tra update, appunto, e data refresh. Si parla di aggiornamento quando l’algoritmo viene modificato prendendo  in causa alcuni segnali di ranking. Il data refresh, invece, prevede un aggiornamento del database considerando solo uno specifico update dell’algoritmo. Perciò, il primo ha sicuramente un impatto maggiore sulla classificazione dei domini rispetto al secondo che riguarda indicatori minimi e molto spesso non viene neppure notato.