Perché il mio sito sta perdendo traffico?

by francesco 1.812 views5

Dall’inizio di quest’anno Google sembra essere entrato in una fase di cambiamenti epocali che stanno via via producendo pagine di risposta molto diverse da quelle che siamo abituati a vedere. Cosa ha causato tali cambiamenti? E quali sono le caratteristiche dei siti web che stanno perdendo posizioni?

Perché il mio sito perde posizioni su Google
Perché il mio sito perde posizioni su Google?

Google diventa più intelligente. Non da febbraio, ma da sempre a piccoli passi. Credo che i mutamenti degli ultimi mesi dipendano da un lato dall’integrazione di Penguin nel core di Google Search e dall’altro dall’aumento nella potenza di calcolo dei data center di Google di cui si parla già da novembre 2016. Allo stato Google è molto più rapido di prima nel fare le sue valutazioni che sono sempre più complesse, perché tengono conto di tantissimi fattori tutti insieme.

 

Su cosa rifletto

Tra le persone che mi contattano c’è chi mi dice che i siti facenti riferimento a brand forti stanno migliorando, ma c’è anche chi mi racconta di essere stato superato da siti web neonati e anonimi. Già qualche anno fa si diceva che Google “facesse prove”, vale a dire spostasse risultati di ricerca in alto e in basso per periodi di tempo definiti allo scopo di valutarne la qualità: se gli utenti non cliccano su di un risultato visibile  – o se ci cliccano, ma mostrano poco interesse verso il contenuto –  allora lo stesso non merita un buon posizionamento, almeno per il momento. Questo fenomeno, chiamato volgarmente Google dance appare sempre più evidente, al punto che oggi più che un motore di ricerca certe volte sembra una discoteca. Da qui mi sono fatto l’idea che devono aver accresciuto a dismisura la potenza di calcolo, perché non è pensabile che queste prove siano gestite da esseri umani… e in effetti gli esseri umani è meglio tenerli fuori in questa fase.

Non passano due giorni senza che qualcuno non scriva in giro che sulle serp seguite ci sono fluttuazioni importanti che stanno recando danno a diversi progetti web pur curati benissimo. A cadere sono foodblog, ma anche portali medici e in generale siti web con tantissimi contenuti, mentre ad andar bene pare siano i siti web più “scarni”, spesso più recenti.

 

Risorse, questione di risorse

A peggiorare sono i siti web che crescono molto velocemente nei contenuti, quelli che ne hanno troppi rispetto a quanti ne occorrono e quelli banalmente ridondanti. Immagina di mettere online il tuo super mega progetto di richieste preventivi in tutt’Italia (isole comprese) da 900.000 pagine scansionabili. Google indicizzerà le prime 10/20.000 pagine, dopodiché starà un momento lì a vedere che succede: se gli utenti mostreranno gradimento, aprirà i rubinetti e offrirà altre risorse di scansione, altrimenti smetterà di indicizzare altre pagine fino a nuovo segnale. Se a questa situazione aggiungi anche testi molto brevi e spesso duplicati, l’effetto “chiusura dei rubinetti” sarà più evidente. Se infine molti contenuti saranno pienamente sovrapponibili rispetto al titolo oltre che brevi nel contenuto, Google finirà in stallo, togliendo visibilità anche ai contenuti buoni.

Un grosso problema e dunque da ricercare nelle dimensioni eccessive di un progetto e nella ridondanza: se hai organizzato una festa per 1.000 bambini maschi e l’hai resa visibile solo in un pese in cui abitano 100 bambini di cui solo la metà sono maschi, non aspettarti più di 50 avventori. Ecco perché spesso chi sviluppa grandi progetti ha le spalle abbastanza larghe da lanciare campagne pubblicitarie in televisione.

Attenzione però, la TV non basta da sola, perché se hai un sito web difficile da usare o se i contenuti sono molto simili, il traffico diretto non sarà un segnale sufficientemente forte per Google, che continuerà a elargirti poche risorse di scansione e poco ranking.

 

Come verificare la situazione

Di solito utilizzo Screaming frog, Google Analytics e Search Console. Uso Screaming frog per contare il numero dei contenuti (html) scansionabili attraverso la struttura link del sito web e lo metto in match con quello risultante alla voce “stato dell’indicizzazione” sulla Search Console. Se quest’ultima mostra un numero di pagine molto superiore rispetto a Screaming frog, significa che il sito web presenta molte pagine indicizzate non raggiungibili seguendo la struttura dei link interni. questo può essere positivo se ragioni sugli argomenti di cui parlo nell’articolo sul flusso del page rank, ma può rappresentare un problema perché hai tante pagine indicizzate che se ne stanno lì a utilizzare risorse di scansione senza essere raggiungibili dal sito. Se al contrario il numero di pagine su Screaming frog è più alto rispetto a quello sulla Search Console, significa che Google indicizza meno pagine di quante ce ne siano in realtà. Questa situazione denota un problema serio perché:

 

– Google ritiene che i tuoi contenuti siano troppi rispetto all’interesse degli utenti per il tuo sito

– Google ritiene che hai troppi contenuti simili e quindi ha smesso di indicizzarli

– Google ritiene che tu abbia contenuti di qualità troppo bassa

 

A questo punto apri Google Analytics e lancia un filtro avanzato per tutte le pagine d’atterraggio che ricevono visite dalla sorgente Google / Organic. Il filtro ti restituirà il numero delle pagine del tuo sito web che ricevono traffico da Google. Se Screaming frog dice 10.000, la search Console dice 5.000 e Analytics dice 1.000, siediti e rilassati, dopodiché prendi una falce e comincia a tagliare, magari con intelligenza.

 

Conclusioni

Se il tuo sito web sta perdendo traffico questa è un’analisi che può far emergere i motivi reali per i quali Google sembra avercela con te. Molto spesso i grossi siti web sono “costretti” per loro natura a pubblicare tanti articoli su di un certo argomento, con tutti i rischi che ne conseguono. Un caso preoccupante riguarda i siti web UGC, (user generated content) in cui gli utenti pongono domande agli esperti. Una cattiva gestione di queste aree editoriali può letteralmente devastare l’indicizzazione di un progetto web. A volte devi sapere quando tagliare le foglie (e quali foglie tagliare) prima che la pianta muoia.

 

  • Interessante! Anche io ho notato un forte (fortissimo) calo su alcuni siti grossi (a livello di quantità di pagine/contenuti/offerta merceologica). Non avevo mai pensato potesse essere un limite…. grazie per lo spunto!
    Solo un dubbio… quando dici “…o se ci cliccano, ma mostrano poco interesse verso il contenuto…” – leggendo in giro sembra che Google non abbia accesso a freq.rimbalzo e in generale ai dati di GA… quindi mi chiedo in base a cosa capisce il poco interesse verso il contenuto a seguito di un clic da SERP a sito?

    • Ciao Carlo, ti confermo che Google non accede ai dati comportamentali da Analytics, ma ti ricordo che dispone di un browser (chrome) e di un sistema operativo mobile (Android) che possono vedere tutto quello che facciamo. Tieni conto che ogni volta che accetti l’utilizzo dei cookie stai fornendo il consenso all’analisi del tuo comportamento di navigazione. Molti colleghi (me compreso) pensano che per lo meno su campioni di pagine web, Google faccia esami di questo tipo.

      • Grazie per la risposta. Non fa una piega, mi inserisco nella schiera di chi la pensa così anche io. Benvenuto a me 😀

  • E dire che alcuni mi hanno detto che quanto hai scritto sopra non è vero. Be ora ho un articolo di un professionista da portare come prova.

    • Fabio, quello che ho scritto qui vale in alcuni casi ma non sempre. Se hai un grosso sito web che perde traffico, qui c’è un’analisi che può aiutarti a fare luce sui motivi, ma essendo generica, non può valere come risposta in ogni caso.