“Organizzare l’informazione mondiale e renderla universalmente accessibile e utile.“
Questo è il motto con cui ogni giorno Google, sguinzaglia i suoi spiderbot in una ricerca continua della rete e catalogare ogni pagina esistente nel World Wide Web. I parametri che valuta Google per indicizzare un sito internet sono veramente tanti. Alcuni potrebbero essere intuibili facilmente mentre altri sono per i “nerd” più sfegatati, ma nel complesso sono tutte in qualche modo interconnesse tra di loro. Nel corso degli anni si sono aggiunti sempre più paletti che determinano se un sito debba essere o meno preso in considerazione nel momento in cui un utente fa una ricerca.
In questa lista primaria che ho stilato oggi per fare chiarezza sugli algoritmi del motore di ricerca, ho cercato di riunire i parametri per categoria, in modo da contestualizzarli meglio, proprio come ci si aspetterebbe da chi sta scrivendo un articolo sul SEO (ah!):
Il Dominio
Il dominio di un sito è il primo parametro che viene preso in considerazione dei “crawler” di Google, anche se non in modo determinante, è pur sempre un parametro che viene valutato. Prendiamo in considerazione:
http://www.dominio.it
e scomponiamolo in
http://sottodominio.primolivello.secondolivello
Ecco, se riusciamo ad inserire già le parole chiavi della nostra attività nel nostro indirizzo internet, acquisiamo un piccolo vantaggio rispetto a chi sceglie di non farlo. Google analizza già le parole scritte nel primo livello del sito per poi passare alla rilevanza che ha il secondo livello. Quest’ultimo che di solito ospita il codice nazione del sito, può essere considerato più o meno inerente alla chiave di reicerca degli utenti.
Anche la longevità di un sito internet ha una sua rilevanza tra i parametri di Google, ma non in termini di anzianità, ma in termini di prospettiva, stando ai dati reperibili dai Whois. Mentre un sito nato da un anno ha poco svantaggio rispetto ad uno che è nato cinque anni fa, un sito che scade tra 3 anni ha sicuramente più valenza di un sito che scade tra un anno.
Evidentemente per Google ha più importanza un’azienda che investe nel proprio futuro a lungo termine, piuttosto che una approfitta del breve periodo.
Singola Pagina
Passiamo ora al corpo della pagina, ovvero quelle che sono le informazioni che la casa di Montain View estrapola leggendo il codice HTML delle singole pagine.
Senza soffermarci troppo sull’ovvietà di inserire le principali keywords nel tag <title> e nel meta <description>, che hanno diminuito la loro importanza nella classifica di Google, c’è solo una pratica che viene penalizzata pesantemente dai bot, ed è il Keyword stuffing, letteralmente il sovraccarico di parole chiave. Il motore di ricerca considera inattendibile un sito che riempe eccessivamente di parole chiave il relativo meta. Ma passiamo direttamente alla struttura del <body> di una pagina web e quali sono i fattori rilevanti presi in considerazione.
Il corpo del testo distribuito con titoli e sottotitoli (i tag H) viene letto positivamente, insieme alla lunghezza del contenuto. Come rivelato da John Mueller in questa intervista, un TF-IDF (term frequency – inverse document frequency) elaborato da Google, viene utilizzato per la scansione della pagina. La distribuzione del testo in paragrafi ben distribuiti, preceduti da un indice vale una nota positiva nella leggibilità del testo.
Disambiguazione delle parole
Un altro indice di valutazione è l’LSI (Latent Semantic Indexing). Il suo utilizzo giudica le parole usate in merito all’argomento trattato nel testo. Ricordo che a leggere è una macchina, con LSI si contestualizza una parola che potrebbe avere più significato in base alla materia trattata.
Per esempio, la parola Ducati, mi fa pensare ad una moto, ma il suo significato potrebbe essere anche un moneta coniata nel 1100 d.c., oppure una serie di feudi governati da un Duca.
Grazie alla tecnologia Hummingbird, l’interpretazione del testo avviene in maniera ancora più precisa.
Valutazioni tecniche della pagina
Un altro aspetto misurato da Google è la velocità di caricamento delle pagine tramite la loro applicazione Pagespeed Insights che potete testare qui. Che fornisce tante indicazioni e suggerimenti per rendere il corpo della pagina web snello e scattante.
Anche le immagini fanno la loro parte, applicare le corrette definizioni per nome del file image, alt-text, titolo, descrizione e didascalia, rende il lavoro più facile per il bot, garantendo l’interpretazione esatta di ciò che si vuole rappresentare.
La freschezza dei contenuti è un altro fattore utile a valorizzare la pagina web, più la data di pubblicazione è recente e maggiore sarà la considerazione di Google nei suo confronti. Per recente intendo anche l’aggiornamento dei contenuti e con che frequenza esso avviene.
Altri aspetti di rilevanza sono:
- la correttezza della grammatica e dell’ortografia;
- Mobile friendly, la capacità di una pagina di adattarsi agli schermi dei dispositivi mobili;
- Mobile usability, la facilità di utilizzo su dispositivi mobili;
- Multimedialità, la presenza o meno di immagini, suoni o video;
- Links Esterni/Interni che conducono a risorse di qualità.
Cosa fare per evitare penalizzazioni
Indici da tenere sotto controllo per non incorrere in penalizzazioni possono essere, la duplicazione di contenuti sullo stesso sito. In questo caso se si ha necessità di duplicare un contenuto, magari per creare una pagina dedicata per uso desktop ed una dedicata all’uso mobile, l’accortenza può essere specificare un tag <rel=canonical> per la risorsa primaria.
Una altra pratica da monitorare è l’uso dei tab all’interno delle pagine. Il suo eccessivo uso potrebbe nascondere a Google eventuali contenuti che vorrebbero essere letti. Così come un’eccessiva lunghezza dell’URL potrebbe penalizzare la visualizzazione della pagina. Infine l’uso smodato di link a pagine esterne, fanno perdere la concetrazione all’argomento della pagina, così come la presenza di link interrotti può dare segno di una pagina trascurata.
Intero Sito
Sempre nel rispetto del motto summenzionato, Google attua una politica di valutazioni anche sull’intera struttura del sito, incominciando dalla sua affidabilità. Le informazioni che ricerca riguardano la buona valutazione sull’identità del sito, la quantità di contatti per interagire con l’utenza e l’ottimizzazione e sicurezza della struttura.
Principalmente per gli e-commerce, ma anche per i siti vetrina o blog, ha acquisito un’importanza rilevante la presenza di una pagina dedicata alla normativa sui cookies (con relativo banner). Così come una pagina dedicata agli aspetti legali inerenti l’attività del sito.
Una dettagliata sitemap ed un certificato SSL sono sicuramente una nota molto positiva nel giudizio complessivo. Anche il servizio di hosting viene valutato in base a quanto tempo è “vivo” ed in quale regione geografica si trova, per consentire una accurata geolocalizzazione delle ricerche.
Google afferma che i breadcrums (letteralmente “molliche di pane”) vengono utilizzati per categorizzare le informazioni relative ad ogni singola pagina del sito.
Link interrotti che generano il famoso errore 404, possono essere un fattore di penalizzazione. Ma se personalizzate e reindirizzate, possono trasformare in positiva la valutazione del sito. Per ottenere il massimo, la pagina 404 dovrebbe avere un design congruo con il resto del sito e proporre links che diano la possibilità di tornare alla home, oppure trovare un percorso alternativo.
Infine per la valutazione globale del sito, conta la presenza o meno di una porzione di pagina dedicata alle recensione e la presenza di collegamenti video a Youtube. Su quest’ultimo aspetto ho avuto anche io i miei dubbi, ma leggendo attentamente la pagina di supporto della casa di Mountain View è emersa la conferma. Del resto il sito di video più famoso al mondo fa parte della famiglia.
Backlinking, il traffico proveniente dall’esterno
Un backlink non è altro che un link posizionato sul sito B che indirizza al sito A. Semplice.
La formula per avere un’ottima valutazione nei backlinks è altrettanto semplice: più ne sono meglio è, e se sono di qualità è ancora meglio.
Come si fa ad ottenere backlinks? Le pratiche sono tante, la più ovvia può essere creare contenuti di qualità per il proprio sito in modo da essere un punto di riferimento per gli altri; oppure scrivere in maniera approfondita su un argomento per essere citati come fonte.
Nel corso degli ultimi anni, sono nate tantissime società che offrono di creare backlinks per aumentare il volume di traffico generato per i siti clienti. Dopo un iniziale boom, questa pratica ha ricevuto una restrizione a causa di alcune società che non godevano di una buona reputazione, ma ad oggi trovare il giusto partner per aumentare i backlinks al proprio sito è un’attività che alla lunga, pagata tantissimo.
Termino questa checklist con una menzione che potrebbe sembrare ovvia, ma ha un’importanza fondamentale.
Per un’ulteriore positiva valutazione del sito è necessario aggiungere i link ai social networks di riferimento. Anche qui la quantità è direttamente proporzionale alla valutazione, specie se c’è una nutrita schiera di followers.