Intervista SEO: Martino Mosna

by francesco 2.5K views0

martino mosna
martino mosna

Martino Mosna è oggi un libero professionista, dopo aver lavorato per anni nella divisione advertising di un importante società editoriale italiana. Oggi è un SEO molto esperto nell’analisi dei dati e in quella dei comportamenti legati al concetto di “intenzione di ricerca”. Bando alle ciancie, vi lascio con la bellissima intervista che Martino mi ha rilasciato. 

 

 

1) In che anno hai cominciato e soprattutto perché? (puoi ancora smettere)

Ho iniziato nel 2006, pochi mesi dopo essere uscito dall’università (Scienze della Comunicazione Merendine a Bologna). Ho mandato il CV ad un’agenzia a Trento che cercava qualcuno che sapesse l’HTML. Mi son ritrovato a fare la gavetta compilando title e meta description per decine di siti al mese (l’agenzia gestiva in outsourcing un servizio di quelli industriali a bassissimo budget).

Un lavoro che nemmeno avevo idea che potesse esistere…

Ne avrò visti centinaia nei primi due anni, tanto che ogni tanto mi capita di imbattermi ancora in alcuni dei siti su cui avevo lavorato allora. La parte buffa è che tanti sono ancora là, identici, con la mia ottimizzazione.

Per fortuna poi la cosa si è evoluta rapidamente ed ho avuto modo di fare esperienza di progetti più complessi. Se dovessi smettere di fare SEO mi butterei a pesce sulla Web Analytics.

2) Come hai imparato a fare SEO?

In agenzia mi insegnarono le basi, assieme ad un metodo di lavoro molto strutturato. Posso però dire di aver imparato davvero a fare SEO solo negli ultimi anni di lavoro in agenzia e molto di più ancora dopo che ho avviato la mia attività in proprio.

Nei primi anni della mia esperienza il mio lavoro come SEO si riduceva essenzialmente alla compilazione dei metatag (quando andava bene), acquisto di link testuali (quando andava male) e listoni di report sul posizionamento.

Cose come analisi del pubblico, ridefinizione dell’architettura del contenuto, ottimizzazione del crawling, diagnostica degli errori (40x, 50x), gestione dei contenuti duplicati… erano cose che non venivano neanche proposte perché sono poco industrializzabili. Eppure sono spesso le attività che consegnano il miglior valore aggiunto su un progetto SEO.

Il lavoro in agenzia mi ha aiutato ad avere le basi, ma mi ha anche portato spesso a considerare come importanti cose che erano invece del tutto marginali.

Un esempio su tutti? Il report del posizionamento fatto tramite lo scraping dei risultati di Google. Era un must, pareva che senza di quello non si potesse fare un report al cliente.

E invece i dati di posizione media e CTR per cluster di parole chiave raccolti tramite Google Webmaster Tools sono un dato superiore per diversi ordini di grandezza, sia come praticità di reperimento che come informazioni contenute.

3) Cosa faresti a Matt Cutts se vi trovaste di notte da soli in un vicolo buio e senza telecamere?

Gli passerei sottobanco un paio di siti da far penalizzare, come nei peggiori film di gangster. Dopodiché sarà come non ci fossimo mai incontrati.

4) Quali SEO italiani ti hanno ispirato? In base a cosa li giudichi?

Durante il mio periodo di lavoro in azienda non ho interagito molto con la comunità italiana dei SEO. Lurkavo ed eseguivo. Non cercavo persone, cercavo trucchi che mi permettessero di sfangare la giornata.

Negli ultimi due-tre anni ho invece avuto modo di conoscere diversi professionisti con cui ho intrattenuto molte discussioni su Google Plus. Posso certamente citare Enrico Altavilla e Giacomo Pelagatti. Confrontarmi con loro mi ha permesso di capire sia cose tecniche come il reale funzionamento di filtri antispam come Panda o Penguin, ma anche cose più impalpabili tipo come lavora e come pensa un SEO freelance e in generale quali fonti utilizzare per capire e studiare i motori di ricerca e saperne abbastanza da migliorare il proprio mestiere. 

E se vi state chiedendo quali sono queste fonti segretissime, vi lascio un indizio: [site:support.google.com/webmasters/ inurl:hl=it].

Mi viene da citare anche Maurizio Ceravolo che, anche se non si occupa di SEO in senso stretto, è sempre stato mitico compagno di chiacchierate di cazzeggio pseudo tecnico, quelle che poi sono diventate gli Hangout pubblici di SEO Sarcazzo.

5) Quali sono le condizioni di lavoro ideali e le peggiori per un SEO?

Le condizioni di lavoro ideali sono quando hai campo libero sulle modifiche di un sito. Poter rivedere anche drasticamente l’architettura del contenuto. Poter mettere liberamente le mani sul codice (o avere qualcuno che lo fa per te senza storie). Finora sono riuscito a trovare questo idillio in pochissimi casi. Funziona veramente solo su progetti personali.

Le condizioni di lavoro peggiori sono quelle in cui devi interagire con un reparto tecnico per varie ragioni  di stile burocratico. Lì non si combina nulla. Ho diversi progetti partiti con le migliori intenzioni e poi naufragati miseramente davanti al “mi aggiorni il robots.txt per favore?”.

6) Quali software utilizzi per fare SEO?

Nulla di particolare. Lo strumento di Adwords ed ogni tanto Ubersuggest per l’analisi delle parole chiave. Excel per le analisi e per la documentazione da condividere con il cliente. Google Analytics e Webmaster Tools per la reportistica. Majestic SEO e Ahrefs per fare il backlink audit. Screaming Frog e Visual SEO Studio per la diagnostica strutturale. Forse quest’ultimo è poco conosciuto, sappiate che il suo sviluppatore è italiano ed ha fatto proprio un bel prodottino, è gratuito ma non ha nulla da invidiare ai concorrenti a pagamento per cui si merita certamente un bel linketto editoriale e senza nofollow. Ciao Matt Cutts, ciao John Mueller, ciao.

7) Quali consigli daresti a un SEOFITA? (giovane sulla cattiva strada)

Cerca di capire come funzionano i motori di ricerca. In generale, non solo l’algoritmo di ranking, ma anche il crawling e l’archiviazione dei dati.

Studia le persone, cerca di capire cosa vogliono quando si mettono a cercare sui motori. Appropriati di concetti come l’intenzione di ricerca e prima ancora di guardare le parole chiave cerca di capire cosa voleva cercare chi le ha usate.

Studia il protocollo HTTP, almeno nelle basi. Studia le risorse contenute nella guida degli Strumenti per i Webmaster di Google. Sul serio, non sto scherzando.

Ci sono troppi SEO sul mercato che manco sanno la differenza tra un robots.txt disallow ed un meta robots noindex. Eppure c’è tutto scritto là, basta leggere con un po’ di attenzione e pazienza.

E non credere ai trucchi perché non ce ne sono. “Trucchi” è solo un modo simpatico per dire “spam”. E con lo spam sappiamo come va… oggi magari sei primo e domani chissà.