SEO, cos’è l’ottimizzazione per i Motori di Ricerca

Alessandro Caira
The Best Or Nothing
22 min readJul 5, 2019

Tempo di lettura: 1 ora

  1. Seo On-Page
  2. Seo Off-Site
  3. Local Seo
  4. Fattori Indiretti
  5. Seo Tools
  6. Miti sulla SEO

L’acronimo SEO significa Search Engine Optimization e tradotto in italiano è l’Ottimizzazione per i Motori di Ricerca. La SEO è l’insieme di strategie e tecniche atte a migliorare il ranking delle pagine di un determinato sito nei risultati dei motori ricerca come Google, Yahoo e Bing con la finalità di guadagnare traffico in target. Si tratta di strategie che devono necessariamente integrarsi con il normale Marketing della propria azienda perché, una volta ottenuto il traffico in target, è necessario creare funnel di conversione e saperlo gestire attraverso una struttura coerente.

Cos’è la SEO

SEO è un termine ampio che al proprio interno comprende l’ottimizzazione On-Page dei contenuti e della struttura, l’ottimizzazione Off-Site riguardante i backlinks e lo studio di una strategia di comunicazione direttamente in SERP (Search Engine Results Page). Per comprendere le basi della SEO è necessario analizzare in profondità il funzionamento di un motore di ricerca, dunque ecco quali sono i passaggi che compie, in questo caso Google, per individuare e classificare le pagine che entrano a far parte del suo database.ub

  1. Processo di crawling: il verbo to crawl significa “raccogliere” ed è la prima fase dell’intero processo. Prima di poter classificare i risultati in base a pertinenza ed importanza, il GoogleBot deve raccogliere il maggior numero di pagine che gli serviranno per creare il proprio database. Il GoogleBot è un software in grado di arrivare praticamente su ogni pagina del web utilizzando i collegamenti ipertestuali, cioè i link. Seguendo tutti i collegamenti della rete espressi attraverso i link, Google è in grado di accumulare i Big Data, cioè una mole immensa di dati che gli permetterà di fornire risposte sempre più accurate alle domande degli utenti. Per permettere l’indicizzazione nell’indice di Google non è necessaria alcuna azione, infatti basterà attendere qualche giorno dalla messa online del sito e questo sarà indicizzato. Se invece si desidera non far indicizzare il proprio sito in Google è possibile utilizzare il noindex nella pagine, in questo il sito non sarà raggiungibile dal motore di ricerca e dagli utenti.
  2. Processo di posizionamento: in questo contesto posizionamento significa classificazione. Sin dal 1998 l’obiettivo di Google è quello di catalogare le pagine web in base all’autorevolezza, alla pertinenza e alla popolarità. Il suo algoritmo è stato studiato per fornire all’utente i risultati di miglior qualità basandosi sull’autorevolezza della fonte, sulla qualità del contenuto in una determinata pagina e dai link in entrata (backlinks) che riceve.

La ricetta ideale per ottenere sempre i migliori posizionamenti è questa: avere un sito autorevole con tanti anni di anzianità, creare contenuti utili per gli utenti che siano anche strategicamente strutturati per avere successo sui motori di ricerca e ricevere tanti link in entrata di elevata qualità sul proprio sito.

Questa situazione ideale si riscontra su portali di natura editoriale come ad esempio Repubblica.it, LaStampa.it, IlFattoQuotidiano.it. É bene precisare che il core business di questi giornali non sia ricevere traffico dai motori di ricerca ma si tratta di progetti di successo molto popolari nella vita reale che lo sono anche in quella virtuale. Sono fonti che godono del trust di Google perché godono del trust delle persone che linkano e che parlano di queste testate, dunque con la SEO si può sicuramente incrementare il traffico verso il proprio progetto ma il successo della SEO è determinato dal successo del progetto stesso.

SEO On-Page

  • Ottimizzazione HTML
  • Ottimizzazione Immagini
  • Ottimizzazione Mobile
  • Struttura del Sito
  • Schema.org

Il primo step per partire con l’ottimizzazione SEO riguarda le singole pagine del proprio sito. Esse devono essere “adattate” al motore di ricerca per avere successo, questo però non significa manipolarle con una formula magica per posizionarsi dalla mattina alla sera. Al contrario bisogna comprendere quali sono le keywords di riferimento per il proprio settore ed ottimizzare il Title (tag più importante della pagina lato SEO) e strutturare il contenuto per essere utile per gli utenti.

Questa procedura è la keyword research ed è letteralmente la ricerca delle parole chiave più adatte per una determinata pagina web. La keyword research va di pari passo con l’ottimizzazione on-page e sono due strategie che devono necessariamente essere affiancate. Gli elementi più importanti a livello di pagina che devono essere ottimizzati sono i seguenti e consiglio di approfondire tale tematica in questo studio di Ahrefs.

Tag HTML per l’Ottimizzazione On-Page

  • 1. Title
  • 2. Meta Description
  • 3. URL/Permalink
  • 4. Intestazioni H
  • Title: questo tag HTML è il più importante per Google. Dai miei esperimenti ho capito che un title strutturato male o senza un preciso criterio, da solo, può compromettere le performance di una pagina sui motori di ricerca. Questi 60 caratteri possono davvero fare la differenza, infatti Google fa riferimento proprio al Title per “comprendere” l’argomento dell’intero contenuto che si andrà a sviluppare. Ho notato come un title specifico per una keyword long tail, cioè di coda lunga, possa sbaragliare tutta la concorrenza che, a differenza nostra, ha inserito quella keyword solo nel testo e non nel title.

Nel contesto dell’ottimizzazione on-page è importante capire quali keywords utilizzare ma senza forzare o ripetere le singole parole chiave. Anche se l’ottimizzazione viene effettuata per “piacere a Google” bisogna in ogni caso piacere prima agli utenti e di sicuro, ripetendo i concetti molteplici volte nel testo per “rafforzarli”, si rischia di mandare via gli utenti. Dunque la prima regola è evitare di parlare in Googolese nei propri contenuti. Questi devono essere spontanei e naturali, il vero focus per ottimizzare le pagine deve essere concentrato sul Title e sulla keyword research.

La keyword stuffing e l’LSI sono argomenti che hanno riscosso molto successo in passato e sono stati considerati responsabili dei miglioramenti dei posizionamenti, tuttavia non ci sono evidenze o regolarità nei risultati. La presenza di ripetizioni di una determinata keyword e dei suoi sinonimi non è direttamente proporzionale ai posizionamenti ma aiuta Google a “comprendere” meglio gli argomenti di cui stiamo parlando. Ho effettuato molti test in tal senso e un maggior numero di sinonimi e ripetizioni non ha portato a scalare le SERP in modo diretto. Ciò che invece è stato determinante è stata la creazione di portali molto verticali ed autorevoli su un topic ristretto.

Ottimizzazione delle Immagini

Per ottimizzare le immagini bisogna tenere bene a mente l’URL delle immagini stesse, l’ALT text, la descrizione e le didascalie. Ottimizzando le immagini non si ottengono risultati magici ma è necessario farlo sia per aumentare lo score del proprio contenuto che per posizionarsi su Google Immagini. In molti settori Google Immagini rappresenta un’importante fonte di traffico, ad esempio nel mondo dell’arredamento e dell’abbigliamento.

É fondamentale ridurre al minimo la dimensione delle immagini perché la velocità di un sito web oggi conta più che mai e immagini pesanti rallentano il server e di conseguenza l’esperienza utente peggiora. É consigliabile utilizzare sistemi lossless di compressione come TinyPNG e Compressor.io per immagini .png e .jpg. Ad oggi si possono utilizzare anche convertitori di immagini in .webp come Convertio, infatti il .webp è un formato molto più leggero e compatibile con quasi tutti i browser.

Ottimizzazione Mobile

In un momento storico del web in cui alcuni siti ricevono più visite da smartphone piuttosto che da Desktop è una priorità adattarsi a tali cambiamenti. L’ottimizzazione on-page nel contesto mobile prevede l’impiego di AMP (Accelerated Mobile Pages), un progetto nato per velocizzare al massimo la fruizione dei contenuti per chi utilizza un dispositivo mobile.

Per testare le prestazioni del proprio sito è possibile utilizzare il tool PageSpeed Insights offerto da Google. Lo scopo è capire quanto veloce venga percepito il nostro sito dai server Google e quale potrebbe essere la reazione dell’utente ai tempi d’attesa. Tali test si possono trovare nel Webmaster Tools nella sezione dedicata alle Statistiche di Scansione, in questo caso si consiglia di avere il tempo medio di download inferiore ai 500 ms.

Oltre a questo dato è altamente consigliabile abbassare il TTFB, poiché questo è responsabile della “vera” percezione di velocità per Google. Per questa ragione è meglio avere il proprio server nel paese nel quale c’è la maggior parte dei propri utenti, quindi per servire gli utenti italiani non conviene avere server negli Stati Uniti perché la distanza geografica per forza di cose aumenta il Time to First Byte.

É importante non far aspettare gli utenti quando si tratta di accedere alle informazioni, infatti si rischia l’effetto pogo sticking, cioè l’utente potrebbe tornare su Google pochi secondi dopo aver cliccato sul nostro risultato e questo comunicherebbe un segnale negativo al motore di ricerca (lentezza del sito, informazioni poco utili o pubblicità troppo invadente).

Oggi il mobile è così importante per Google che a partire dal 26 Marzo 2018 l’indice mobile è il primo indice (mobile-first index). Questo significa che Google diventa molto più attento al trend di ricerca da dispositivi mobile e conferisce la priorità per l’indicizzazione alle versioni mobile dei siti. Questo non significa, però, che chi non è autorevole ma possiede una versione ottimizzata per mobile possa superare chi invece è davvero autorevole ma non possiede una versione mobile ottimizzata. É da specificare come i fattori di posizionamento di Google abbiano tutti un peso differente e come la velocità, sebbene sia uno tra quelli importanti, da sola non possa determinare miglioramenti di ranking.

Struttura del Sito

La struttura del sito, definita sotto forma di link interni, è uno degli elementi che contribuiscono maggiormente all’ottimizzazione on-page. Questo significa che Google adora quando si va molto in profondità con le tematiche linkando le proprie risorse interne, infatti è un segnale di profonda conoscenza del topic che si sta approfondendo. In questo contesto è molto importante comprendere la struttura a Silo, cioè la struttura a compartimenti stagni che permette di distribuire la link juice in modo coerente ed oculato. Secondo questo principio, da ogni pagina del sito non possiamo linkare qualsiasi altra pagina ma c’è un criterio di affinità tematica che spesso si può prevedere in corso d’opera, dunque durante la progettazione del piano editoriale o prima della messa online del sito stesso.

Se ad esempio ci troviamo nella pagina dedicata ai televisori Samsung e nel nostro sito abbiamo anche contenuti riguardanti i televisori LG e i supporti a muro per il televisore stesso, quale delle due categorie sarà più importante linkare in un’ottica di ottimizzazione? La risposta ovviamente non è universale, in tal caso è necessario effettuare uno studio di mercato per la creazione del funnel di conversione e successivamente capire quale delle due entità, LG oppure supporti a muro, sia più vicina all’entità “Samsung”. Questo è un esempio di meccanismo di analisi che si applica per far lavorare in sinergia il traffico ottenuto dai motori di ricerca con l’effettivo obiettivo della conversione.

Nel mio approfondimento sull’ottimizzazione della struttura analizzo alcuni siti web che utilizzano strategie molto diverse tra loro, ottenendo ovviamente differenti risultati. L’intera architettura di un sito web è basata sui link interni e questi, oltre ad essere importanti per la SEO pura, sono ancor più importanti per i percorsi di conversione. L’ottimizzazione della struttura è di vitale importanza specialmente nei portali ecommerce i quali, senza un’adeguata strategia, rischiano di avere percorsi di scansione errati e CTR bassi sulle offerte dello shop. É bene specificare che si può fare SEO su qualsiasi piattaforma a patto che si abbia il controllo delle pagine e si possa agire sull’ottimizzazione, ne è un esempio Medium.

Schema.org

Schema.org è un sistema di creazione di markup per dati strutturati che nasce dallo scopo di categorizzare meglio le pagine web quando si tratta di libri, giochi, film, musica, dipinti, luoghi, negozi, ristoranti, ricette e oggetti. A collaborare con la massima compatibilità ci sono i seguenti motori di ricerca: Google, Yahoo, Bing e Yandex.

Questi mostrano direttamente in SERP questi dati strutturati sotto forma di rich snippet, cioè letteralmente informazioni d’arricchimento dei risultati di ricerca. Per testare il reale funzionamento dei markup è possibile sfruttare lo Strumento per il test dei dati strutturati offerto direttamente da Google.

Se ad esempio analizziamo la pagina di GialloZafferano dedicata all’insalata di riso, questo è il risultato del tool di test di Google e questo qui sotto è il risultato in SERP sotto forma di rich snippets.

Le implicazioni a livello SEO sono molteplici. Ad esempio le pagine che presentano i dati strutturati delle ricette vengono categorizzate in modo differente rispetto a tutte le altre tipologie di pagine. Stesso negli ecommerce per quanto riguarda le pagine di prodotto in offerta o dei prodotti che possiedono le recensioni (è il caso di Amazon). Tutto questo contribuisce ad aumentare il CTR in SERP perché gli utenti tenderanno a cliccare con più frequenza sui risultati che presentano i rich snippets, infatti risultano più chiari ed invitanti.

SEO Off-Site

  • Anchor Text
  • Di quanti backlinks si ha bisogno?
  • Menzioni

Se la Seo on-page serve per ottimizzare le pagine del nostro sito e il modo in cui esse sono collegate tra loro, l’ottimizzazione off-site comunica a Google l’autorevolezza e la popolarità del nostro sito. Secondo il principio di link popularity, un sito web che riceve backlinks in quantità maggiori rispetto ad un altro è più popolare ed autorevole. Tuttavia il discorso sui backlinks è molto più articolato perché, oltre alla quantità, l’aspetto più complesso da analizzare è proprio la qualità. Secondo questo principio, un backlink proveniente da un sito web autorevole e in tema con il nostro possiede un peso più importante rispetto a decine di backlinks provenienti da fonti poco autorevoli e generiche.

Per ottenere backlinks ci sono due metodologie differenti: l’acquisizione a pagamento e quella con tecniche di link earning. Nel primo caso si acquistano letteralmente i guest posts sui siti che affrontano le nostre stesse tematiche e che possiedono autorevolezza nel settore. Nel secondo caso l’obiettivo è creare contenuti talmente degni di nota da ottenere backlinks spontanei e naturali, in questo caso senza spendere denaro per l’acquisizione diretta. Entrambe le attività rientrano nella Digital PR, cioè nell’intrattenere rapporti con gli altri webmaster e blogger al fine di creare una rete sociale ed ottenere menzioni, citazioni e backlinks manipolativi.

Anchor text

Si tratta del testo utilizzato per ancorare il backlinks. Con gli anni Google tende a penalizzare sempre di più gli anchor text manipolativi, cioè quelli contenenti le keywords per le quali desideriamo posizionarci, mentre sta apprezzando sempre di più quelli di brand. Quest’ultimi sono molto più spontanei perché vengono utilizzati più spesso in modo naturale e non per mettere in atto tecniche di spam, così come del resto accadeva prima dell’arrivo di Penguin.

Di quanti backlinks si ha bisogno?

Se ti stai ponendo questa domanda è bene che io specifichi che la link building non è una tecnica necessaria in modo universale. Ciò non significa che sia inutile e che non funzioni, al contrario, in settori competitivi, è una regola che seguono tutti i competitors. Il problema è che potrebbe passare il messaggio sbagliato di questo tipo “Non mi posiziono, quindi serve la link building”. In realtà i motivi per cui non ci si posiziona, nella maggior parte dei casi, riguardano una carente ottimizzazione on-page e della struttura, entrambi problemi che derivano da un’errata gestione del piano editoriale e dell’organizzazione del progetto stesso.

Per questa ragione il consiglio è sempre quello di ri-ottimizzare le nostre pagine e soprattutto fare un Seo Audit comprendendo un Backlink Audit. In questo modo potremo sapere se le parole chiave di nostro interesse possano essere scalate anche senza incrementare la link popularity, il ché è fattibile in moltissimi settori.

Un altro problema è ad esempio la voglia di posizionarsi per keywords secche dall’alto volume di ricerca come “borse” o “scarpe”. In questi contesti la link building è necessaria però forse è quel posizionamento a non esserlo, infatti ci sono tantissime altre keywords che convertono 10 volte meglio rispetto a queste e portano la maggior parte del fatturato. Il traffico da Google non è mai tutto uguale, quindi prima di concentrarsi sulla Seo è d’obbligo avere un piano di marketing strutturato in modo coerente. Sarà quest’ultimo a fare la differenza a prescindere dai posizionamenti acquisiti nel tempo.

Per l’intera analisi della parte off-site ho redatto una guida completamente dedicata alla link building ed un case study sull’incremento della link popularity.

Menzioni

Una menzione si ottiene quando qualcuno parla del nostro brand nel testo senza link. Questi sono segnali di popolarità che Google prende in considerazione nel calcolo finale dell’importanza e della grandezza del nostro brand, tuttavia il loro impatto è decisamente meno misurabile. É un fenomeno naturale che accade perché si genera buzz intorno al nostro brand. Ho condotto diversi esperimenti sulle menzioni ed ho riscontrato un aumento di ricerche del nome brand quando ho iniziato a generare questo buzz in modo artificiale. Gli utenti trovavano il nome del mio brand senza link ed incuriositi andavano a cercare il brand su Google, aumentandone la popolarità agli occhi di Google.

Fattori Indiretti

  • Rank Brain
  • Quality Raters

Analizzando decine di siti ogni giorno, mi è capitato di imbattermi in situazioni in cui non riuscivo a spiegare determinati posizionamenti sfruttando solamente le nozioni di ottimizzazione on-page ed off-site. Questo accade perché, nell’algoritmo di Google, l’analisi per la classificazione delle pagine e dei siti non comprende solo questi aspetti (che oltretutto sono manipolabili direttamente dal webmaster). Entrano invece in gioco alcuni fattori molto importanti che Google raccogliere sotto forma di big data per avere un feedback sul proprio operato. Si parla dei seguenti fattori:

  1. CTR in SERP (click-through rate): è la percentuale di click su un determinato risultato in SERP quantificato in base alle impressions totali. Il CTR che aumenta comunica a Google che gli utenti sono più propensi a “fidarsi” di un determinato sito piuttosto che di un altro. I complici di un CTR più alto possono essere i seguenti: title ottimizzato alla perfezione, meta description attraente e brand già molto noto agli utenti. Su Advanced Web Ranking è possibile analizzare le statistiche medie del CTR per le prime due pagine di Google.
  2. Effetto pogo sticking: è la percentuale di utenti che una volta entrati nel sito tornano di nuovo in SERP pochi secondi dopo. Queste misurazioni sono possibili anche grazie ai dati provenienti dagli utilizzatori del browser di proprietà Google Chrome.

Google effettua queste analisi per una ragione: comprendere se il lavoro eseguito dall’algoritmo stia riscontrando successo o meno. Se un contenuto è apprezzato dagli utenti nel tempo accumulerà percentuali di CTR in SERP superiori della media e registrerà un effetto basso di pogo sticking, magari dopo molti secondi dall’apertura della pagina.

Rank Brain

Tra tutti gli aggiornamenti algoritmici di Google, Rank Brain è quello più delicato, infatti ha rivoluzionato il modo in cui l’algoritmo stesso elabora la classificazione delle keywords che non ha mai visto prima nella propria barra di ricerca. Ma come funziona? Rank Brain essenzialmente agisce in autoapprendimento facendo una prima analisi delle queries alle quali ha già risposto e nella quali ha riscontrato un alto gradimento da parte degli utenti, per poi utilizzare lo stesso criterio di risposta in tutte le altre occasioni affini. Ciò significa che se il 90% degli utenti che hanno cercato “la capitale d’Italia” ed hanno trovato utile come risposta l’entità “roma” allora quando la prossima volta qualcuno chiederà per la prima volta “la capitale francese” Google risponderà “parigi”.

É un esempio molto semplice per esprimere questo funzionamento molto complesso: Google non si concentra sulle parole ma sui concetti che esse esprimono, agendo per analogia quando si trova in difficoltà. Questo avviene quando gli viene posta una domanda che non ha mai visto prima e sulla quale non ha ancora dati per comprendere la soddisfazione da parte degli utenti alle risposte che fornisce. Rank Brain sta all’algoritmo di Google come l’esperienza sta all’uomo. Quando noi veniamo forzati a rispondere alle domande delle quali non consociamo la risposta ci facciamo guidare dalla nostra esperienza. Quindi rispondiamo in base all’esperienza più vicina possibile alla domanda che ci è stata posta. Non è detto che riusciremo a rispondere in modo esatto ma, più esperienza possediamo (big data per Google), e meglio risponderemo.

Quality Raters

Nella guida ufficiale per i quality raters si comprende come queste figure siano state istituite per controllare la qualità dei risultati di Google in modo manuale. Il loro scopo è quello di giudicare l’operato dell’algoritmo di Google e confermare che stia sempre restituendo risultati di qualità e che siano correlati alle richieste degli utenti. Vien da sè che il controllo è abbastanza limitato perché sul web ci sono oltre 330 milioni di domini registrati con potenzialmente altrettanti siti web quindi è un’impresa troppo ardua per un occhio umano, lo è meno per un algoritmo.

Local SEO

La Local SEO possiede un focus differente dalla SEO tradizionale. In questo caso, invece di concentrarci sul sito web, bisogna indirizzare il focus sul luogo e sulla relativa attività su Google My Business. Anche in questo contesto i link ricoprono un ruolo cruciale perché sono tra i segnali più efficaci per far capire a Google di cosa si occupa la nostra attività locale e quanto sia popolare tra gli utenti di internet.

A tal proposito, secondo la ricerca di Moz sui fattori di ranking nella SEO locale, i segnali esterni dei link sono più importanti dell’ottimizzazione on-page della scheda dell’attività stessa. A seguire c’è il CTR all’interno del local 3-pack ed il numero delle effettive visite all’interno dell’attività. Tutti questi dati vengono costantemente monitorati ed ottenuti grazie alla geolocalizzazione presente in Android, sistema operativo di proprietà di Google installato sulla maggior parte degli smartphone e tablet attualmente presenti sul mercato.

In passato, quando Google non riusciva a prelevare i dati sulle attività locali dai siti web poiché erano davvero pochi, si affidava maggiormente alle citazioni N.A.P. cioè letteralmente Name, Address, Phone. Queste citazioni si presentano in questa forma:

Rossopomodoro , Viale Sabotino, 19, 02 5832 8501

Oggi quest’attività continua ad essere considerata da Google come un voto molto positivo per un determinato luogo, tuttavia è necessario affiancare le citazioni N.A.P. all’acquisizione di backlinks contestuali da siti di eventi nella propria zona di riferimento, links da directory locali e da siti che operano a stretto contatto con il territorio.

SEO Tools

  • Google Analytics
  • Google Webmaster Tools
  • Screaming Frog
  • Ahrefs
  • SEMRush
  • MOZ
  • MajesticSEO
  • SeoZoom
  • KeywordTool
  • Uber Suggest

In questo paragrafo elenco i tools più importanti per l’ottimizzazione SEO. Li ho suddivisi in base alle finalità di tracciamento, analisi fattori on-page, analisi fattori off-page e keyword research. Tutte le metriche che espongo in questa sezione sono da prendere con le pinze perché possono essere decisamente fuorvianti se interpretate in modo assoluto e universale.

Google Analytics — Free

Google Analytics è il tool messo a disposizione direttamente dal motore di ricerca per monitorare il traffico sul proprio sito web. É molto utile per creare tracciamenti personalizzati e analizzare i dati sul traffico organico e da referral. É possibile creare mappe di navigazione per comprendere meglio come navigano gli utenti all’interno del nostro sito.

Sito: https://www.google.it/intl/it/analytics/

Google Webmaster Tools — Free

Grazie al GWT possiamo monitorare e analizzare tutte le problematiche e i successi del nostro sito nel tempo. É possibile utilizzare il Webmaster Tools per scoprire le keywords per le quali si posizionano le nostre pagine e capire se ci sono problemi di copertura nell’indice di Google. É importante inserire e verificare il proprio sito con questo tool perché se ci sono errori di pagine non trovate (404) o di pagine non più accessibili sarà Google stesso a comunicarcelo.

Sito: https://www.google.it/intl/it/webmasters/

Screaming Frog — Free e Premium a ₤ 149,00/Anno

Screaming Frog è un software di crawling che serve per scansionare le pagine di qualsiasi sito per capire subito se ci sono problemi legati all’accessibilità o all’ottimizzazione. A tal proposito ritengo che la guida dell’amico Seo Giovanni Sacheli su questo tool sia la più completa nel panorama italiano. Esiste sia la versione free (fino a 500 pagine scansionabili) e quella Premium dal costo di 149 sterline l’anno.

Sito: https://www.screamingfrog.co.uk/

Ahrefs — A partire da $ 99,00/Mese

Ahrefs è uno dei più grandi database di keywords e backlinks negli USA ma anche in Italia. Lo utilizzo per la keyword research e per l’analisi dei posizionamenti dei concorrenti. É possibile avere una visione d’insieme molto utile per risparmiare sui tempi di analisi e Ahrefs permette anche di creare Seo Audits personalizzati.

Sito: https://ahrefs.com/

SEMRush — A partire da $ 99,95/Mese

SEMRush ha un ottimo database di keywords che permette di confrontare le parole chiave in base alla concorrenza. Lo utilizzo da sempre per la possibilità di poter filtrare le keywords in decine di modi diversi senza doverle necessariamente scaricare. Oltre a questo possiede tanti strumenti per monitorare i progressi del nostro sito e anche qui possiamo generare Seo Audits.

Sito: https://www.semrush.com/

MOZ — A partire da $ 99,00/Mese

Un tool completo e molto utile per l’analisi dei backlinks, infatti è uno dei database più estesi con il proprio Open Site Explorer. Nonostante ciò ho notato tempi di aggiornamento dei backlinks abbastanza dilatati, quindi per una situazione in real time preferisco utilizzare Ahrefs e MajesticSEO. Moz è famosa per le metriche DA (Domain Authority) e PA (Page Authority) utilizzate frequentemente per definire il valore di un backlink o di un sito web. Sono dati abbastanza affidabili ma non sufficienti per giudicarne in modo obiettivo il reale valore.

Sito: https://moz.com/

MajesticSEO — A partire da $ 49,99/mese

MajesticSEO offre un database molto fornito per l’analisi dei backlinks e le sue metriche TF (Trust Flow) e CF (Citation Flow) sono abbastanza attendibili, sebbene necessitino sempre di essere contestualizzate al singolo caso. MajesticSEO ha anche sviluppato il Topical Trust Flow, cioè è in grado di contestualizzare un backlink in base all’argomento del sito dal quale arriva, facendo capire a colpo d’occhio se i backlinks di un sito arrivano da siti a tema o meno.

Sito: https://it.majestic.com/

SeoZoom — A partire da € 29,00/Mese

Un ottimo tool tutto italiano ideato da Ivano Di Biasi e Giuseppe Liguori, entrambi amici che stimo molto. Il database di keywords di SeoZoom è il più grande a livello italiano e questo ne fa il tool più avanzato per la keyword research. In SeoZoom ci sono tantissimi strumenti editoriali utili per le redazioni ed è stato fatto un avanzato studio semantico per fornire keywords con lo stesso search intent e keywords contenenti pattern ricorrenti. Tutto questo con il fine di favorire l’operazione di ricerca e selezione delle parole chiave più adatte per il proprio progetto.

Sito: https://www.seozoom.it/

KeywordTool — Free e Premium da $ 48,00/Mese

É uno dei miei keyword suggest preferiti perché nella versione premium fornisce il volume di ricerca delle long tails, il CPC e i dati riguardanti i trend di ricerca. Sfrutto quest’ultima funzione per identificare keywords con bassa competizione e con trend in crescita per colpirle con contenuti mirati. É un’ottima alternativa a UberSuggest. I dati sui trend si possono ottenere direttamente da Google Trends ma trovo che con KeywordTool.io il tutto sia più intuitivo.

Sito: https://keywordtool.io/google

UberSuggest — Free

Strumento completo per la keyword research che in forma gratuita offre la possibilità di scovare long tails con il CPC. Con UberSuggest è possibile individuare le parole chiave sia dal suggest nativo di Google che dal Google Keyword Planner, lo strumento di pianificazione delle parole chiave.

Sito: https://neilpatel.com/ubersuggest/

Sfatiamo i Miti sulla SEO

Negli anni se ne sono sentite molte sulla Seo tra tecniche e trucchi che funzionavano in passato e che oggi ad esempio non funzionano più come una volta. L’obiettivo di questa sezione è fare chiarezza alla luce della mia esperienza tra le SERPs di Google. Le seguenti risposto sono frutto della mia esperienza e non sono informazioni da considerare in modo universale, infatti la SEO è bella proprio perché è sperimentale. Se non sei d’accordo con le mie affermazioni o su qualsiasi idea di questo post, contattami pure e confrontiamoci, sono sicuro che si possa sempre imparare qualcosa di nuovo sulla base dell’esperienza altrui.

Domanda: La presenza della keyword principale del nome di dominio migliora la SEO?

Risposta: Dipende. Se nel nostro nome a dominio abbiamo la keyword “cibo per cani” con un sito come cibopercani.com sicuramente attireremo anchor text di brand che conterranno anche la nostra keyword d’interesse. Questo ci permetterà di forzare maggiormente la keyword e ci darà una grande spinta ma non toglierà l’aria da spam che avrà il nostro sito. Oggi gli EMD (Exact Match Domains) come cibopercani.com hanno ancora successo e ricevono un trattamento leggermente differente dai siti di brand proprio per la questione “anchor text”, tuttavia lato marketing non sono assolutamente ottimizzati per distinguersi dai propri competitors. Non è un nome di brand e per gli utenti sarà come comprare cibo per cani da un portale qualunque, non di cerco Arcaplanet o simili.

Domanda: Posso posizionarmi velocemente in qualche giorno su Google?

Risposta: É possibile posizionarsi con rapidità ma solo in determinate condizioni e quasi sempre è necessario colpire i trends in crescita su un determinato argomento. Se ad esempio dovesse essere inventato il primo aspirapolvere a reazione nucleare e il vostro sito dovesse parlarne per primo, sicuramente con il crescere delle ricerche degli utenti il vostro sito sarà uno dei pochi rilevanti per quella tematica, dunque tutto (o quasi) il traffico di quel trend sarà vostro. Su Google funziona sempre la regola del mercato della domanda e dell’offerta, quindi in una condizione in cui c’è scarsa offerta (pochi contenuti online) e tanta domanda (elevato numero di ricerche) si può surfare sull’onda della velocità di posizionamento. Un altro caso è quando si ricevono tantissimi backlinks in poco tempo come nel caso dei siti degli eventi. Per quel breve periodo il sito dell’evento si posiziona bene per le keywords che targetizza.

Domanda: la velocità del sito unita all’HTTPs migliora le performance del mio sito?

Risposta: stiamo parlando di requisiti minimi e non fattori di ranking. L’obiettivo di Google è fornire risultati pertinenti alla domanda degli utenti ed è nel suo interesse farlo con siti più veloci e sicuri. Precisato ciò, se le pagine del nostro sito rappresentano la miglior risposta all’utente saranno premiate anche senza una velocità fulminea e senza l’HTTPs, sempre se non si tratti di ecommerce. C’è da dire che la velocità è un fattore indiretto molto importante perché, se il sito è lento, aumenterà l’effetto pogo sticking e gli utenti scapperanno dopo i primi 5/10 secondi di attesa dando a Google un segnale di basso gradimento di quella risorsa. A quel punto Google declasserà il sito ma se è l’unico a fornire quelle informazioni e se lo fa nel miglior modo non riceverà una “punizione”. A tal proposito ricordo il caso del sito dell’Associazione dei Celiaci che con i suoi 20 secondi di caricamento per alcune settimane era talmente lento da dissuadere chiunque dal visitarlo. Nonostante questo rimaneva in cima ai risultati di ricerca perché era la fonte più autorevole per quei topic.

Domanda: in che modo i social network influiscono sul posizionamento SEO?

Risposta: c’è un’influenza ma è tutta indiretta. Questo significa che avere traffico dai social non porta in maniera diretta ad un miglioramento di ranking su Google ma contribuisce alla brand awareness. Questo sfocia in maggiori ricerche del nome del brand su Google e porta alla nascita di keywords di brand. Questi sono tutti segnali molto forti per Google e sul lungo termine possono portare vantaggi di ranking rilevanti. Allo stesso modo i profili social con i propri backlinks nofollow non garantiscono alcun risultato diretto, tuttavia sono indispensabili ai fini di presenza del brand. I profili social mettono in contatto gli utenti con le aziende e sono utilissimi, soprattutto se parliamo di Local SEO.

Se il contenuto ti è piaciuto, scopri chi sono e seguimi sul blog The Best Or Nothing.

--

--

Alessandro Caira
The Best Or Nothing

Seo & Business Developer. Lavoro nel mondo Seo affinando le tecniche per monetizzare con le affiliazioni.