Post recenti
Commenti recenti
- I Principali Test per un Sito Web in Ottica SEO - Ingegnerealbano.com on Come calcolare la distribuzione del “PageRank” tra le pagine di un sito
- SEO e keywords: esistono strategie e tecniche efficaci? | SERIAL EYE on Benedetta SEO, maledetta SEO
- LowLevel on Continuare a smontare Google: un’altra scoperta SEO
Tutti i post
-
Questa opera di Enrico Altavilla è concessa in licenza sotto la Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Unported.
Studi sui fattori di ranking: distinguere quelli utili da quelli farlocchi
In fondo a questo articolo c’è un’infografica. Lo scrivo in cima altrimenti c’è il rischio che ve la perdete.
Non ho mai fatto mistero della mia avversione per qualsiasi tipo di studio dei fattori di ranking. Taglio corto e spiego che la ragione è che, a prescindere dalle buone intenzioni degli autori, i risultati di questi studi sono quasi sempre fuorvianti e a volte dannosi.
Viene subito alla memoria l’aneddoto che mi ha raccontato un esperto (e popolare) collega, a cui è capitato di dover essere valutato da persone poco addentro al settore SEO sulla base dei risultati di uno studio di fattori di ranking, considerato al pari di una bibbia.
Il problema di fondo, tuttavia, è che tali studi rafforzano nelle persone l’idea che i segnali presi in considerazione dai motori di ricerca per il ranking siano valevoli per tutti i siti e che possiedano un peso intrinseco invece di un peso che varia a seconda dei casi, come avviene sempre più spesso.
Il rischio è dunque che gli studi che hanno l’obiettivo di riassumere e sovra-semplificare un fenomeno complesso come il ranking vengano presi in considerazione senza quel grano di sale che impedirebbe alla gente di creare danni. La quantificazione di tale rischio è molto soggettiva e dipende solo da quanto ciascuno di noi ritiene il sale un elemento abbondante nella zucca delle persone.
L’obiettivo del presente articolo è costruttivo/istruttivo e quindi, spronato da un paio di recenti studi sui fattori di ranking di Google, uno dei quali pubblicato da un’azienda molto in vista, mi accingerò a spiegare come distinguere gli studi sui fattori di ranking “teoricamente utili in alcuni contesti” da quelli del tutto farlocchi.
Premessa importante
Nel mondo della comunicazione e del marketing, il valore di un’informazione non è mai intrinseco ma dipende dall’uso che i destinatari dell’informazione ne faranno.
Il profilo dei destinatari viene inoltre stabilito più o meno direttamente da chi produce l’informazione e da come la confeziona.
Se l’obiettivo è quello di raggiungere quante più persone possibili, viene progettato un prodotto di facile comprensione e consumo, in modo che possa risultare appetibile ad un bacino di utenti allargato alle masse meno colte, meno informate e meno abituate a svolgere spontaneamente analisi critiche.
Nel contesto SEO, la natura complessa degli algoritmi di ranking dei motori non è compatibile con l’obiettivo di produrre uno studio dai risultati semplici e di facile comprensione per una grande quantità di persone.
Di conseguenza è tecnicamente corretto concludere che ogni studio sui fattori di ranking è in buona parte intrinsecamente farlocco, perché per definizione questi studi sono un modo per sostituire dati reali ma complessi e sconosciuti con dati molto semplici e congetturati dagli autori dello studio.
Questa impietosa considerazione però non implica necessariamente che un film di fantascienza, per quanto abbia poco di scientifico, non possa servire da “cibo per la mente” e da stimolo per imbastire discussioni un po’ più approfondite di uno sterile elenco di fattori. L’importante è che tutti abbiano chiaro che si tratta di fantascienza, di un prodotto di fantasia degli autori.
Il problema torna dunque ad essere quello che citavo nell’introduzione: l’utilità di tali studi è proporzionale alla capacità della gente di comprenderne la natura intrinsecamente farlocca.
Paradossalmente, più verrà compreso che lo studio non dimostra alcuncué e più la gente sarà propensa ad usarlo come un semplice elenco di argomenti su cui chiacchierare con i colleghi.
In altre parole questi studi possono essere sfruttati correttamente solo da chi è consapevole del fatto che sono privi di basi solide.
Chi è il target?
Partendo dalla considerazione appena fatta è inevitabile chiedersi quanto è probabile che tali studi vengano veicolati a persone che ne comprendano la natura farlocca.
E’ un po’ come chiedersi che percentuale degli acquirenti di filtri magici, amuleti portafortuna e rituali per guarire dai malanni è consapevole del fatto che dietro la paccottiglia esoterica non vi sia nulla di scientifico.
Le ragioni per le quali uso questa metafora è che il prodotto confezionato da chi propone studi sui fattori di ranking ha spesso le stesse caratteristiche dello “snake oil” venduto qualche secolo fa alla gente poco colta: ci si allontana dal contesto scientifico simulando una pseudo-scientificità per confezionare un intruglio e veicolarlo ad un target che non è in grado di smascherare alcunché.
L’unica differenza tra gli imbonitori di pozioni miracolose e i moderni alchemici dei fattori di ranking è forse la buona fede, nel senso che in un settore in cui le basi scientifiche non sono mai abbondate viene naturale pensare che anche gli stessi autori degli studi possano essere convinti di aver confezionato un prodotto fondato su basi solide.
Resta il fatto che, anche presumendo tutta la buona fede da parte degli autori, in un mondo fatto di social network e di condivisioni frictionless la diffusione di questo genere di prodotti si poggia inevitabilmente sull’incapacità delle persone di comprenderne la vacuità.
Esiste dunque un conflitto di interessi tra gli obiettivi di diffusione di cultura che questi studi si pongono e gli obiettivi di istruire correttamente gli operatori del settore. Le due cose sono semplicemente incompatibili tra loro.
Un compromesso non è possibile, per motivi psicologici e culturali. Puoi aggiungere disclaimer giganteschi, ripetere centinaia di volte che “una correlazione non implica causalità” ma non c’è niente da fare: il contesto è talmente terra-terra che la stragrande maggioranza delle persone sarà affascinata dalla pseudo-scientificità di grafici e statistiche al punto che vedrà causalità anche dove non ce n’è e persino di fronte alla presa di distanze da parte degli autori.
Ora ditemi voi: non è un bellissimo modo per pararsi il deretano? Da un lato si è formalmente corretti, dall’altro si fa finta che l’interpretazione della massa non sia responsabilità di chi ha confezionato un prodotto da veicolare ad un target poco colto. Machiavellico.
Il target di questi studi è dunque composto da chi non ha mai percepito la complessità degli algoritmi di ranking di un motore di ricerca ed è quindi indotto a credere che questi studi siano dei buoni “bignami”, delle approssimazioni della realtà.
Insomma, è gente che crede che vi sia realmente un elenco di fattori di ranking in cui alcuni segnali hanno più peso di altri in senso assoluto, convinzione che viene rinforzata da tutti questi studi SEO ma che è sempre meno aderente alla realtà, come ho già spiegato diverso tempo fa.
Un primo suggerimento
Un primo suggerimento generale per distinguere gli studi farlocchi da quelli impostati secondo criteri scientifici e rigorosi è osservare se gli autori forniscono, assieme ai risultati ottenuti, sia una dettagliata descrizione della metodologia di ricerca seguita sia tutti i dati su cui la ricerca è stata fondata.
Nel fare ciò, gli autori dello studio mettono altre persone in condizione di rivalutare i dati raccolti, farne nuove elaborazioni, estrarne nuove evidenze ed eventualmente mettere in discussione il metodo adottato o la compatibilità dei dati raccolti con gli obiettivi che lo studio si poneva.
Il fatto che molti pochi studi SEO forniscano le suddette informazioni la dice lunga sulla differenza che passa tra un contesto realmente scientifico, all’interno del quale l’individuazione di falle in uno studio è considerato un evento benvenuto, ed un contesto di marketing, dove i proponenti di un prodotto non hanno un interesse ad essere smentiti per motivi legati alla propria immagine.
Il primo consiglio che dunque vi do è: se lo studio non specifica la metodologia nel dettaglio (fino ad arrivare alle formule che sono state utilizzate per tutti i calcoli) o non fornisce i dati su cui sono state svolte le analisi, allora potete dare per scontato che si sta partendo col piede sbagliato.
Attenzione però: come spiegherò di seguito, la presenza dei dettagli metodologici non è una condizione sufficiente a dichiarare lo studio “serio” e alcune volte sono invece usati come specchietti per le allodole, nel tentativo di conferire serietà a studi che sono fallati alla base.
Due tipologie di studi
Addentrandomi nella valutazione di questi studi, la prima cosa da fare è separare nettamente due tipologie molto diverse tra loro: l’analisi delle SERP e il sondaggio degli esperti.
Entrambe i tipi di studi hanno il proprio principale tallone d’achille nella scelta dei fattori ipotizzati, che è arbitraria e quasi sempre definita dagli autori dello studio.
Nel corso del tempo ho maturato l’opinione che i sondaggi degli esperti possono costituire un buon argomento di discussione a condizione che 1) non vengano venduti al pubblico come “fattori di ranking del motore” bensì come una raccolta di opinioni e 2) vengano progettati e svolti da un’azienda specializzata in sondaggi e ricerche di mercato.
L’analisi delle SERP dei motori è invece un’attività così pregna di formalismi pseudo-scientifici che in tutti i casi da me osservati i risultati avevano un effetto fuorviante, inducendo i destinatari a credere che i dati fossero emersi dalla semplice osservazione di quanto il motore di ricerca faceva. Come dimostrerò, non è così.
Prima tipologia: analisi delle SERP
Gli studi fondati sull’analisi delle SERP partono da una grande quantità di query e dal raccoglimento dei risultati di ricerca per ciascuna di esse. Successivamente, di ciascun risultato di ciascuna SERP vengono analizzate le sue principali caratteristiche (scelte arbitrariamente dagli autori dello studio) e infine viene calcolato un indice di correlazione tra la posizione della SERP e la presenza di ciascuna caratteristica.
La metodologia permette di capire se al salire della posizione viene osservato anche un incremento o decremento di una specifica caratteristica delle risorse e consente di quantificare quanto la correlazione è grande.
Solitamente questi studi producono un output in cui l’elenco di caratteristiche viene ordinato da quelle che hanno una maggiore correlazione con l’incremento di posizioni a quelle che hanno una correlazione minore.
La devastante comunicazione che arriva ai lettori è doppiamente subdola: da un lato si ha la percezione che i fattori elencati non siano stati scelti dagli autori ma siano in qualche modo magicamente emersi dall’osservazione e analisi delle SERP, dall’altro si ha l’impressione che le caratteristiche con gli indici di correlazione maggiore corrispondano a fattori di ranking a cui il motore attribuisce più peso di altri.
Inizio a spiegare perché tutto ciò è falso delineando la differenza tra causalità e correlazione nel contesto dei ranking.
Cause, correlazioni e ranking
Un fenomeno può essere causa di altri fenomeni che non sarebbero nati nel caso in cui il primo non si fosse manifestato.
Il rapporto tra il fenomeno iniziale e quelli che da esso ne sono scaturiti è chiamato rapporto di causalità, nel senso che il primo è stato causa degli altri.
I fenomeni che sono “figli” di quello iniziale sono invece correlati tra loro, in quanto sono nati da una causa comune, ma nessuno dei due ha causato l’altro.
Prendiamo in considerazione lo scenario in cui un gruppo di alunni sia costretto a studiare pesantemente sui libri per un lungo periodo di tempo e che questa attività provochi da un lato un affaticamento della vista con relativo aumento della miopia e dall’altro ad un incremento delle loro conoscenze.
Poniamo adesso il caso che al termine del lungo periodo di studio gli studenti vengano valutati da una commissione e che venga creata una graduatoria sulla base di un criterio che non ci è dato sapere.
Il nostro compito è risalire al criterio partendo dalla graduatoria e valutando gli studenti come meglio preferiamo.
Ad una prima semplice osservazione degli studenti viene subito notata una percentuale maggiore di persone con gli occhiali tra quelle che hanno ottenuto i migliori piazzamenti. Decidiamo quindi di formulare l’ipotesi che la commissione abbia creato la graduatoria sulla base delle diottrie di ciascuno studente, procediamo a misurare con una formula matematica la correlazione tra posizione in graduatoria e diottrie di ciascuna persona e determiniamo che effettivamente esiste una relazione tra le posizioni più in alto e la presenza di persone con meno diottrie.
Sia ben chiaro: la correlazione esiste ed è reale. Effettivamente è stato dimostrato in modo scientifico ed inequivocabile che più in alto si osserva la graduatoria e più ci si imbatte in persone più miopi.
La domanda è: questo indiscutibile fatto dice qualcosa sul criterio usato dalla commissione per stabilire i ranking degli studenti?
La risposta è no. Se invece di ipotizzare un criterio basato sulle diottrie avessimo ipotizzato un criterio basato sulla preparazione dagli alunni avremmo comunque trovato una relazione, stavolta tra posizioni migliori e alunni più preparati.
Basandoci sulle correlazioni osservate, non c’è dunque modo di capire dall’esterno quale criterio sia stato effettivamente usato dalla commissione per produrre la graduatoria.
Io potrei ipotizzare cento criteri diversi ed ottenere conferme scientifiche di correlazioni reali tra ranking e ciascuno dei criteri che ho congetturato, ma in nessun modo una correlazione maggiore è un indicazione che il criterio sia stato effettivamente usato dalla commissione o che sia stato usato con maggiore probabilità.
La regola ovviamente rimane valida nel momento in cui viene applicata al mondo dei ranking dei motori di ricerca.
La scelta dei fattori monitorati
Nel contesto dei ranking dei motori di ricerca rimane valida la regola che una correlazione maggiore tra ranking e fattori ipotizzati non spiega alcunché sui criteri usati dai motori per ordinare i risultati.
Nell’esempio fatto nel grafico soprastante, un articolo ben scritto può produrre sul web sia backlink verso il sito che lo ospita sia condivisioni e apprezzamenti sui social network. Di conseguenza la correlazione tra ranking e backlink sarà maggiore di zero e la correlazione tra ranking e “like” sarà maggiore di zero, quindi non c’è modo di sapere se il motore sta premiando un risultato in funzione dei suoi backlink oppure in funzione dei suoi “like” oppure in funzione di un terzo criterio di cui non abbiamo ipotizzato l’esistenza.
Da dove vengono dunque fuori i fattori di ranking “misurati” dagli tutti questi studi dei ranking dei motori di ricerca? Semplice: sono inventati da zero. Per esempio gli autori congetturano arbitrariamente che i “like” influiscano sui ranking di Google, misurano effettivamente una correlazione tra i ranking e la presenza di risorse con più “like” e propongono tale correlazione ai lettori sapendo che verranno equivocati per i criteri applicati dal motore di ricerca.
Così come ipotizzano i “like” potrebbero ipotizzare qualsiasi altra cosa gli saltasse per la testa. Per esempio se ipotizzassero come “fattore di ranking” i budget allocati dalle aziende per il marketing online, troverebbero probabilmente una correlazione tra le posizioni più alte della graduatoria e le aziende che spendono di più in promozione e advertising.
Ovviamente non sarebbe per loro credibile insinuare che Google vada a consultare i bilanci delle aziende per premiare quelle che investono di più online, pertanto gli autori di questi studi evitano accuratamente di aggiungere all’elenco dei “fattori” tutte quelle correlazioni esistenti e tecnicamente valide ma che non sarebbe credibile spacciare per fattore di ranking al pubblico dei lettori.
Il suggerimento che quindi do a chi si trova di fronte a studi di presunti fattori di ranking è quello di chiedersi se i segnali spacciati come fattori dagli autori possono essere ricondotti a segnali di ranking di cui è certa l’esistenza.
Nell’esempio dei “like” è quindi lecito chiedersi se la correlazione con i ranking esiste semplicemente perché le risorse che ottengono più riconoscimenti sociali sono più o meno anche quelle che ottengono più backlink, che sono un segnale di ranking “storico” e accertato.
Riuscire a spiegare un fenomeno sulla base di informazioni certe è sempre meglio che spiegarlo sulla base di congetture non dimostrabili. Se qualcosa si può spiegare in modo semplice, non c’è necessità di ricorrere a congetture più complesse o più ricche di elementi, come il principio del rasoio di Occam predica.
Il tipo di analisi svolte
Quando c’è da calcolare un indice di correlazione tra un presunto fattore di ranking ed i ranking stessi, solitamente gli studi che si fondano sull’analisi delle SERP fanno uso di specifiche formule su una grande quantità di dati.
Adesso, è importante che sia chiaro che la correttezza scientifica del calcolo delle correlazioni non rende lo studio più scientifico o più attendibile.
Al contrario, visto che la farlocchitudine di questi studi sta alla base e che vanno considerati fuorvianti semplicemente perché i presunti fattori vengono selezionati dagli autori, che i calcoli vengano effettuati in modo corretto non ha alcuna importanza.
Io posso asserire che i vincitori di una gara di ciclismo si siano piazzati in funzione della lunghezza del sellino delle proprie bici, ma misurare con precisione la lunghezza di tutti i sellini o calcolare correttamente la loro correlazione con i piazzamenti dei ciclisti non rende la congettura di fondo meno cretina. Rimane cretina ed inventata di sana pianta, a prescindere dal fatto che una correlazione esista o meno.
Le caratteristiche tecniche e scientifiche dei suddetti studi, quindi, non aiutano in alcun modo a comprendere quanto lo studio sia valido. Anzi, solitamente gli autori fanno riferimento a speficiche formule di correlazione (come quella di Spearman o di Pearson) solo per strumentalizzarle come specchietti per le allodole nel tentativo di comunicare una presunta scientificità a chi purtroppo non possiede le basi culturali per comprendere che la falla è concettuale e sta a monte, non nei calcoli.
Il miglior consiglio che posso dare è dunque quello di ignorare in buona sostanza i dettagli tecnici, nel caso in cui voi abbiate già capito che i presunti fattori sono stati scelti di sana pianta dagli autori.
Una seconda caratteristica da tener d’occhio è quella che io chiamo “sindrome da minestrone“, ovvero la tendenza di questi studi a calcolare correlazioni su grandi quantità di query/SERP senza dividerle in categorie.
Una delle più grandi piaghe che si abbattono sui poveri utenti da parte degli autori di studi pseudo-scientifici è infatti la piaga della “media aritmetica”, un calcolo semplice ma spesso abusato.
I risultati di un motore di ricerca cambiano ormai da anni in funzione del tipo di query, dell’intento dell’utente, dello storico delle ricerche precedenti, degli argomenti o settori di riferimento, del tipo di risorsa più congeniale ad assolvere la necessità dell’utente e di diversi altri elementi usato dai motori per personalizzare i risultati.
Fare un gigantesco minestrone dei risultati, calcolando una media aritmentica tra le correlazioni misurate su query/SERP di natura completamente diversa significa cestinare la realtà, che è fatta di estremi e diversità, per sostituirla con una realtà fittizia e piatta, creata artificiosamente da una matematica applicata incorrettamente.
Non esiste alcuna “SERP media” così come non esiste alcuna “lista di fattori media” né esiste una “persona media”. Qui mi piacerebbe citare il Trilussa ma mi limito a linkarvi la sua poesia su statistica e polli.
Quindi in linea puramente teorica io dovrei consigliarvi di controllare se lo studio propone elenchi di collelazioni diverse a seconda della tipologia di query o dei settori merceologici, come sarebbe corretto, ma se così facessi sarei io a fuorviarvi perché se anche esistesse questa separazione, la falla di fondo di tali studi rimarebbe, essendo legata alla scelta arbitraria dei fattori.
Anche in questo caso, pertanto, vi suggerisco di non farvi infinocchiare dall’apparente correttezza metodologica: quand’anche troviate una separazione dei presunti fattori in base alle tipologie di query, chiedetevi sempre se la falla di fondo permane. Se permane, non ha importanza che abbiano fatto minestroni o che presentino graduatorie di fattori divisi per settore o tema.
La conclusione su tutti gli studi che presentano un elenco di fattori di ranking basato sull’analisi delle SERP è quindi: fino a quando l’elenco dei fattori verrà congetturato dagli autori, queste ricerche vanno considerate tentativi di prendere per il naso i lettori.
Seconda tipologia: sondaggi degli esperti
Un discorso molto diverso va fatto invece per quel tipo di studi che scaturisce da una raccolta di opinioni da parte di “esperti”. Ovviamente “esperti” è virgolettato perché non c’è garanzia di quanto questi studi siano selettivi nella cernita delle persone da interpellare.
Per esempio io sono stato invitato più volte a fare sondaggi simili e solo questo basterebbe per bollare tali studi come intrinsecamente fallati e superficiali. Fortunatamente ogni volta declino gentilmente i suddetti inviti, quindi c’è una speranza che alcuni di queste analisi siano venute fuori di qualità.
Come ho già accennato, ci sono due caratteristiche che a mio parere potrebbero conferire utilità a tali studi.
La prima caratteristica consiste nel non tentare di vendere tali sondaggi come se fossero “i ranking di Google” e presentarli invece come il risultato di interviste, come un riassunto di quali elementi sono considerati importanti per la visibilità sui motori da parte di professionisti che lavorano costantemente nel settore.
Enfatizzando l’aspetto soggettivo di tali raccolte di opinioni, io penso che i risultati di questi sondaggi possano costituire un buon modo di confrontarsi indirettamente con altri professionisti e con le percezioni di altri colleghi.
Questo non significa che il prodotto finale non faccia danni, anzi. Un SEO esperto è in grado di soppesare le opinioni altrui e comprendere da sé che in un settore guidato dal verbo “dipende” ogni opinione assume valore diverso a seconda dei contesti. Al contrario, le persone meno scafate possono tendere a considerare tali studi come dei libri sacri, come nell’aneddoto che ho accennato nell’introduzione a questo articolo.
Non c’è niente da fare: uno dei problemi ricorrenti di tali studi è che devono necessariamente essere valutati in funzione delle persone che raggiungeranno. Se il target è composto prevalentemente da persone poco addentro alla SEO o con poca esperienza, è più facile che invece di essere considerati uno sprono alla discussione tali sondaggi vengano invece sfruttati come le tavole della legge consegnate a Mosè.
Il consiglio che mi sento di dare è il seguente: se ritenete che la vostra opinione valga meno di quella di chi è considerato più esperto di voi, allora questi studi non fanno probabilmente per voi. Al contrario, se siete il genere di SEO che tende a valutare le affermazioni altrui e che aspira ad acquisire una propria sicurezza attraverso un sano scetticismo verso tutto ciò che non avete sperimentato o tutto ciò che è opinabile, allora i risultati di questi sondaggi possono costituire un buono strumento per misurarsi indirettamente con altri professionisti. Dalle differenze di opinione con loro, potrete cogliere spunti di approfondimento su una vasta quantità di temi.
La seconda caratteristica che reputo importante è che la progettazione ed esecuzione di tali studi venga affidata ad aziende specializzate in sondaggi e indagini di mercato. Le domande da porre e la composizione delle opzioni che gli intervistati possono selezionare possono produrre grandi differenze nei risultati finali, specie nei casi in cui non vi sia molta concordanza tra le persone interpellate.
Un’indagine affidata ad un istituto specializzato in ricerche e sondaggi avallerebbe i risultati ottenuti garantendo l’applicazione di una metodologia scientifica. Il mio suggerimento è quello di considerare più attendibili tutti i sondaggi affidati ad aziende specializzate.
Il solito problema: la selezione dei presunti fattori
Come per gli studi basati sull’analisi delle SERP anche quelli fondati sui sondaggi devono fare i conti con la selezione dei presunti fattori di ranking. Fino a quando i fattori di ranking verranno proposti o suggeriti dagli autori del sondaggio, la validità dei risultati risentirà delle percezioni personali degli autori.
Sarebbe già diverso se i sondaggi venissero progettari lasciando agli intervistati piena libertà di risposta. Questo approccio, tuttavia, renderebbe difficile o forse anche impossibile riassumerli in belle tabelle ed infografiche e quindi verrebbe meno la possibilità di veicolare il prodotto attraverso un formato semplice e appetibile alla massa.
Ritengo comunque il problema della selezione degli ipotetici fattori molto meno dannoso rispetto a quando si manifesta negli studi delle SERP dei motori, perché nel caso del sondaggio degli esperti il tutto rientra comunque nel contesto delle opinioni personali e soggettive.
Il consiglio che do è quello di comprendere se il sondaggio ha dato agli intervistati sufficiente carta bianca per poter esprimere liberamente il proprio parere, invece di un elenco preconfezionato di possibili elementi di ranking.
Comunicazione dei risultati
A prescindere dalla tipologia di studio, esiste un consiglio generale che mi sento di dare a tutti: se lo studio parla esplicitamente di “fattori di ranking del motore X”, allora sta dicendo una falsità.
Non ci girerò attorno: la tecnica consiste nell’individuare un target poco colto, facilmente affascinabile da elementi pseudo-scientifici, poco in grado di individuarne le falle e confezionare un prodotto di forte appeal e poca sostanza. In tutto questo, un titolo d’effetto o fuorviante può costituire un elemento di forte attrazione e contribuire massicciamente alla diffusione dello studio attraverso le condivisioni su social network e per canali personali.
Ho già accennato alla strumentalizzazione dei dettagli tecnici come ulteriori specchietti per le allodole e in questo contesto mi limiterò a dire che gli studi basati sull’analisi delle SERP e gli indici di correlazione sfruttano i dettagli tecnici in modo palesemente markettaro. Se in alcuni casi si può concedere agli autori il beneficio del dubbio che alcune cose siano state fatte per propria leggerezza o ignoranza, in altri l’occhio allenato capisce subito che i riferimenti non dettagliati a formule e tecnicismi non è altro che un tentativo di conferire autorevolezza laddove non ce n’è.
Non ho invece notato alcuna correlazione tra autorevolezza dello studio e stile grafico adottato nella presentazione dei risultati. Ho osservato basi farlocche sia in formalissimi ed eleganti tabulati degni di istituti di ricerca di primo piano, sia in infografiche che ricordavano i volantini pubblicitari dell’arrivo del circo e del pagliaccio Blinko in città. Quindi non lasciatevi influenzare in nessun senso dalla grafica e badate al solo contenuto.
Il danno culturale
Mi accingo a concludere questi suggerimenti rivelando quello che a mio parere è un errore di fondo di qualsiasi studio: ridurre la SEO o anche la sola specifica attività di “posizionamento” ad un elenco di fattori di ranking.
Il danno maggiore prodotto da questi studi è a mio giudizio intrinseco e legato agli intenti stessi di queste ricerche.
Voi avete mai visto i medici fare “graduatorie di pillole che fanno bene“? Percepireste questa attività come qualcosa di serio?
La SEO è un settore molto particolare perché proviene da contesti storici dominati da attività di spam, apprendimenti raffazzonati ed empirici, prodotti farlocchi e tecnicismi che si focalizzavano sul semplice posizionamento senza abbracciare il più ampio contesto di marketing all’interno del quale la disciplina dovrebbe muoversi.
Nel tentativo di scrollarsi di dosso un retaggio culturale gretto e svilente, facendo percepire la complessità sempre maggiore della nostra professione, i professionisti del nostro settore non vengono aiutati da questi studi dei fattori di ranking, perché questi studi remano contro. Questi studi producono un danno.
Tali studi non fanno altro che sminuire la complessità della SEO, proponendo una visione semplicistica a chi la conosce poco o nulla, facendo percepire un mestiere riconducibile a tecnicismi o a formule preconfezionate, quando in realtà i SEO sono probabilmente la tipologia di professionisti che è stata più in grado di evolvere ed estendere i propri interessi a contesti che vanno ben oltre i motori di ricerca.
La verità è che di “fattori di ranking” non si dovrebbe proprio parlare più. Gli operatori di questo settore non hanno un interesse a svilire la professione agli occhi esterni proponendo visioni bambinesche di contesti complessi creati da ingegneri, matematici ed informatici. E’ un prendersi in giro ed un prendere in giro altri.
Parlare ancora di “fattori di ranking” nel 2013 significa mentire a sé stessi e ad una vasta platea di SEO, in cambio dell’effimera e temporanea visibilità che si ottiene dalla diffusione di questi “studi”, come se non facessero danni culturali o come se il loro costo non si spalmasse sull’intero settore, che fatica a sdoganarsi da un’immagine che queste “ricerche” perpetuano e rafforzano.
Questo, ovviamente, è solo il mio parere personale. Chiudo con un consiglio: io consiglio di investire in cultura, abbracciare la filosofia del “dipende”, allontanarsi dalle ricette precotte e dimenticarsi dei “fattori di ranking”.
Infografica sui fattori di ranking di Google
E siccome ‘sti studi dei fattori di ranking li fanno cani e porci, ho deciso di sgrufolare anche io! Consideratelo autorevole esattamente come qualsiasi altro studio vi capiterà di leggere. Buona visione! [link a versione grande in formato PNG, 9 Megabyte]
P.S.
Pensavo che sarebbe interessante parlare di argomenti simili in qualche evento. Giusto per dire.
16 Responses to Studi sui fattori di ranking: distinguere quelli utili da quelli farlocchi