Checklist Analisi SEO

checklist analisi seo

Una guida che puoi consultare ogni volta che devi affrontare i lavori di pulizia e assetto del tuo sito web lato SEO. 

Ogni sito web è un caso a sé.

Quando vengo contattato per una SEO Audit trascorro parecchio tempo a osservare prima di mettere mano alla compilazione del report.

Alcune “regole” valgono sempre, altre no.  

Quella che segue è una checklist generica che puoi prendere come spunto per fare un’analisi SEO del tuo progetto web o anche per mettere uno sviluppatore nella condizione di farla. Io stesso parto spesso da qui per dare fiato alle trombe (figura retorica che Google non capirà, però è simpatica).

Verifica site: con e senza WWW

I siti web vengono fatti indicizzare con o senza il WWW. Ricorda sempre di reindirizzare la versione che non hai scelto verso quella che hai scelto, altrimenti dal sito vengono fuori i demoni imprecanti a dirti il rosario in dialetti oscuri al pentagono. Come reindirizzare da www a non www e viceversa. I casi più infelici si verificano quando tipo con WWW il sito web si vede, senza NO. Ricorda per i siti web con protocollo https di verificare che sia stato effettuato il reindirizzamento da tutti i contenuti con http.

Controllo degli errori di scansione e server

Guarda il cielo. La luce delle stelle impiega 2 milioni di anni per arrivare fino a noi. Il cielo è come il quadro di un passato che potrebbe non esistere più. Ecco, la Search Console è la stessa cosa, perché riporta gli errori di scansione con una discreta “latenza”. Accertati in ogni caso che non ci siano troppi errori 404 (normali o soft) e visto che ti trovi, dai un’occhio alle statistiche di scansione per accertarti che il tuo server non sia troppo sotto sforzo. Non sarebbe male dare un’occhiata alla velocità complessiva di apertura delle pagine mediante Page speed insights, che fornisce indicazioni su cosa eventualmente migliorare a livello codice e compressione immagini. Ricorda che spesso i contenuti per i quali Google riporta uno status code 404 vanno gestiti anche quando non ricevono link da altri contenuti. In casi come questi può aiutare definire per tali pagine un codice di stato 410 (contenuto non più disponibile).

Robots.txt

Intanto già accertarne l’esistenza sarebbe una buona cosa. Molto spesso questo file, che dovrebbe trovarsi nella root principale di ogni sito web, viene spesso lasciato con le impostazioni di default del CMS nonostante l’intero sito web venga ad esempio reso raggiungibile da una sottocartella. Talvolta c’è necessità di bloccare la scansione per le pagine risultanti dai filtri di ricerca interna che a certe condizioni possono indicizzarsi e pesare enormemente sul crawling budget. Per gli e-commerce suggerisco di bloccare fin dall’inizio la scansione dei percorsi di tipo login / account / whishlist etc.

Definizione degli obiettivi di visibilità e Keyword research

La SEO non si può sviluppare in assenza di obiettivi di visibilità. Sembra banale, ma tanti progetti web non sono visibili perché si danno per scontate troppe cose, ad esempio che gli utenti sappiano già come trovarli anche in mancanza di pagine business ottimizzate. Un blog aziendale ad esempio può essere una buona risorsa, ma non sprecarla limitandoti a curarne il piano editoriale, piuttosto cerca di capire come verticalizzare gli articoli sulle pagine obiettivo del tuo sito web (ad averne).

Percorsi di scansione

Fare SEO significa essenzialmente creare percorsi di scansione ordinati ed economici, tali da indirizzare utenti e bot verso i contenuti business consumando la minor quantità di risorse di scansione. Di base i contenuti di approfondimento linkano verso i contenuti business. Cerca di evitare la scansione delle pagine inutili come talvolta lo sono le paginazioni di categoria, ad esempio nei siti web che pubblicano enormi quantità di notizie in tempi strettissimi. Mettile in meta robots noindex e successivamente bloccane la scansione attraverso il filerobots.txt. Questa pratica che non è necessaria nella maggior parte dei casi, può alleggerire molto la scansione e liberare crawling budget. Il senso è escludere i link verso articoli vecchissimi e inutili (quando ce ne sono), senza rimuovere gli articoli. Ne parlo rispetto alla SEO per i siti web di news sportive.

Struttura URL

Gli URL sef (search engine friendly) non sono un fattore SEO fortissimo, tuttavia per gli utenti è molto meglio poter capire fin dall’URL di cosa parla una pagina web. Insomma, un URL “parlante” può miglorare il CTR dalla serp e solo per questo creerei reindirizzamenti dagli URL con parametri a quelle con termini, a patto però che i reindirizzamenti ci siano! Mi è capitato talvolta di vedere siti web che per ciascuna pagina indicizzavano sia l’URL sef che quella parametrata… ché qua non ci si fa mancare niente.

Broken links

link rotti rappresentano per te un brutto spreco delle risorse di scansione, mentre per i tuoi concorrenti possono essere un’opportunità di fare broken link building, a patto di trovarne che puntano verso un dominio scaduto da acquistare. Se usi wordpress non scordare di fare un passaggio con il plugin broken link checker, altrimenti armati di sana pazienza e parti dagli errori 404 per come ti vengono riportati nella Search Console oppure utilizza Screaming Frog per avere un rapporto dettagliato di tutti i collegamenti rotti sul tuo sito web.

Internal linking e correlazione

Le pagine business di cui sopra devono beneficiare della maggior parte dei link interni pertinenti e contestuali provenienti da altre pagine come contenuti di approfondimento. Quando dico “contestuali” mi riferisco a link inseriti nel testo dei contenuti, non nei menu di navigazione sitewide. 

Ne approfitto per ricordare che un link ripetuto in tutte le pagine sempre nella stessa posizione è quasi come se non ci fosse. La pertinenza del link è importantissima. Ogni link in pagina ha un costo (che paghi in termini di crawling budget), per questo motivo la presenza di ogni link va giustificata. Non scherziamo su queste cose, perché i link interni sono LA SEO.

Livello di profondità del sito web rispetto ai concorrenti

Quando parlo di livello di profondità mi riferisco a due cose, la prima è il numero di clic  che servono per arrivare ai contenuti business o comunque a quelli oggetto della campagna SEO, la seconda è il numero di click in generale necessari per arrivare all’ultimo livello di profondità del sito web. È chiaro che al crescere del volume di contenuti anche il livello di profondità tende ad aumentare, ma ciò che andrebbe evitato è creare un sito web (caso limite) con 10 pagine e 9 livelli di profondità, vale a dire che a partire dalla homepage devi “sfogliare” il sto web come fosse un libro, ma la logica del web non è sequenziale, bensì ipertestuale. Dimenticarlo può trasformare un sito web in una caccia al tesoro, cosa legittima (anche per una strategia di marketing mirata), non auspicabile lato SEO.

Assetto tassonomie e cannibalizzazione

Controlla che gli archivi del sito web siano organizzati secondo principi di usabilità. Qui i problemi sono spesso legati alla sovrabbondanza di archivi di un certo genere (spesso quelli per tag). Due archivi non dovrebbero mai contenere esattamente gli stessi contenuti, così come due archivi diversi (una categoria e un tag) non dovrebbero essere ottimizzati per la stessa keyword. Qui il problema di base è che due anchor textuguali non dovrebbero mai contenere un link a due risorse diverse. Rifletti sul fatto che un archivio dev’essere funzionale a far navigare meglio il sito web, non al posizionamento su Google.

Controllo degli scraped content

Cerca gli Scraped content, cioè i contenuti presi altrove e duplicati senza ritegno. Molto spesso gli e-commerce ne sono pieni, soprattutto quelli che dall’oggi al domani vanno online con decine di migliaia di articoli perché così “aggrediscono il mercato”. I titolari di questi siti e-commerce dovrebbero capire che non vince chi ce l’ha più grosso, ma chi lo sa usare meglio (il sito), vale a dire chi riesce a creare il contenitore più originale e specificamente rivolto ad un pubblico di riferimento con caratteristiche precise.

Competitor research

L’analisi della concorrenza è per me una parte importante della consulenza SEO. È infatti guardando i concorrenti con Semrush che riesco a intercettare i progetti da sviluppare sul sito web e a dare i focus giusti a tutto il lavoro. Allo stesso tempo i link builder sanno bene che una delle prime cose da fare quando si lavora all’ottenimento di segnali forti è studiare il profilo dei link in ingresso dei concorrenti. Tutto legato all’analisi della concorrenza sul web.

Dati strutturati

È vero che se utilizzi wordpress o Joomla ci sono i plugin che fanno un gran bel lavoro rispetto alla strutturazione del codice, ma spesso i plugin non sono precisi nei singoli casi rispetto alla definizione di entità con i loro attributi e per altro un plugin può appesantire il CMS. I SEO migliori che conosco suggeriscono di implementare manualmente il codice prendendolo da schema.org. Per altro facendo questo lavoro manualmente lo si fa una volta sola. Verifica subito quali dati vengono letti correttamente e quali no, mediante lo strumento test per i dati strutturati.

Controllo dei contenuti

L’ultima cosa che faccio è dare un’occhiata ai testi del sito web, perché tutto sommato sarebbe un peccato avere una struttura ottimizzata e mettere online testi sgrammaticati o privi di valore. Del resto lo sai che tutto il mio contributo alla SEO è incentrato su questo punto. Per me i testi sono parte attiva nel progetto SEO… e sai che non parlo del pallino verde di Yoast.

Contattami per domande nel merito:

    Nome e Cognome (richiesto)

    La tua email (richiesto)

    Oggetto

    Il tuo messaggio