Google Labs chiude: qualche lezione SEO da non dimenticare

A seguito della “salita al potere” di Larry Page in Google, una delle conseguenze minori ma di immediato impatto è stata la decisione di smantellare Google Labs, la sezione che per anni ha mostrato al mondo alcuni esperimenti e tool ai quali gli ingegneri di Google hanno lavorato.

Alcuni di quegli strumenti verranno semplicemente eliminati, altri cambieranno indirizzo, altri ancora verranno chiusi ma alcuni dei loro algoritmi verranno sfruttati da altri prodotti di Google.

Di post che trattano la chiusura di Google Labs e della perdita di strumenti utili ce ne sono parecchi, vi segnalo su tutti un articolo di Francesco Tinti sul tema.

Io sono interessato a trattare un aspetto in particolare della chiusura di Google Labs, ovvero il fatto che essa potrà comportare una perdita della memoria storica SEO e rischia di rendere meno immediate alcune lezioni che era facile apprendere semplicemente osservando Google Labs.

Questo articolo elencherà dunque alcuni aspetti della tecnologia di Google che è bene che i SEO non dimentichino e spero che possa servire come riferimento in futuro a coloro che approcceranno il search marketing senza aver mai osservato, attraverso gli strumenti di Google Labs, di che cosa Google era ed è capace.

L’articolo continua, leggi il resto… »

Google non sa perché un sito ranka

Il titolo del presente articolo forse è un po’ un’esagerazione, ma mica di tanto, sapete?

Lo studio dei singoli fattori che determinano la posizione di una risorsa per una specifica query è un’attività tipica dei SEO che fanno reverse engineering ma non è necessariamente tipica di chi progetta un motore di ricerca.

L’obiettivo che mi do con questo post è spiegare perché, in alcuni contesti, fare reverse engineering in cerca di fattori che determinano una migliore posizione non ha un senso. E non intendo dire che sia troppo difficile raggiungere l’obiettivo ma proprio che non ha senso cercare qualcosa che non esiste.

L’articolo continua, leggi il resto… »

GWT Sitemap URL Tattoo, a summer game?

Il presente articolo è un guest post scritto da Piersante Paneghel, che ringrazio molto per il contributo. Il post viene pubblicato solo perché Piersante mi ha promesso che pagherà eventuali spese legali. Però è strano, gli spuntava il passaporto dal taschino. [NdLow]

Come ho trovato un baco, e ci ho giocato. In forma di FAQ.

Disclaimer 

L’exploit viene pubblicizzato per tre ragioni:

  • Fare in modo che il problema sia messo a conoscenza e verificato dal maggior numero di webmaster/SEO possibili, in modo da prevenire panico o sconforto immotivati nel caso si diffonda.
  • Spingere Google a risolverlo velocemente.
  • Perché è divertente.

L’articolo continua, leggi il resto… »

“Googleù” e l’errore di battitura che confonde Google

Trovo affascinante notare come i motori di ricerca si adattino ai cambiamenti.

Con l’obiettivo di essere uno specchio quanto più obiettivo possibile del mondo circostante, sono progettati per reagire a nuovi fenomeni e ad imparare automaticamente da essi, senza che qualche omino sia costretto a riscrivere nuove regole per gestire situazioni e scenari non esistenti né prevedibili in passato.

Da quando è nato Google+, un brand poco amichevole nei confronti degli algoritmi usati dai motori di ricerca per l’analisi della sintassi, mi sono chiesto come avrebbe reagito il motore di ricerca Google di fronte a quel carattere “+” che nel tempo sarà destinato a diffondersi sempre più.

Inizio con una breve trattazione dell’argomento dei caratteri speciali e dei sistemi adattivi, per poi farvi notare un fenomeno molto raro da osservare e legato alla nascita inaspettata di una nuova parola.

L’articolo continua, leggi il resto… »

Quiz sull’indicizzazione e cose imparate a pappagallo

Craaak! Polly vuole un biscotto!

Un argomento ricorrente nei discorsi tra colleghi e amici SEO è legato a quanta confusione vi sia sul tema dell’indicizzazione.

Il fatto stesso che il termine “indicizzazione” venga spesso usato in contesti che non hanno niente a che fare con un indice, la dice lunga sul generale stato di confusione nella cultura SEO: non essendoci una definizione unanimemente condivisa del termine, ognuno di noi lo può usare (e lo usa) come gli pare.

Magari voi penserete che le tecniche di indicizzazione siano di facile comprensione a tutti, eppure vi posso assicurare che in tanti anni ho visto moltissimi SEO, anche di grande esperienza, fallire miseramente se messi alla prova con un semplicissimo quesito.

Il quesito

Possiedo un sito web le cui pagine sono già indicizzate da Google. Nasce l’esigenza di non far apparire più una specifica pagina nei risultati di ricerca del motore. Allora inserisco in quella pagina un meta tag ROBOTS con direttiva NOINDEX e, per sicurezza, aggiungo anche nel file robots.txt una riga DISALLOW dedicata a quella specifica pagina. Che cosa c’è di illogico (e sbagliato) in questo procedimento?

La risposta è, ovviamente, che se desideriamo impartire un’istruzione allo spider scrivendola nel codice della pagina HTML, non dobbiamo impedire allo spider di scaricare la pagina e quindi non dobbiamo usare il disallow nel file robots.txt

Immagino che la stragrande maggioranza dei frequentatori/trici di questo blog non dovrebbero avere avuto grandi difficoltà a rispondere alla domanda, però sono certo che rimarreste sorpresi nel sapere quanti SEO, nel corso degli anni, non sono riusciti a trovare facilmente la risposta. Una risposta che dovrebbe essere immediata, per chi ha appreso l’ABC del SEO.

La domanda che mi pongo è: “Perché ho osservato tutte queste difficoltà?” e la risposta probabilmente è: “Perché spesso si apprende l’ABC meno utile.”

Memorizzare un protocollo o memorizzare tutte le possibili combinazioni?

Il fenomeno che ho osservato nel corso degli anni tra coloro che si interessano di SEO è che diverse persone sono poco propense a studiare le regole di base del funzionamento di un sistema.

Al contrario, ho notato che l’approccio di apprendimento che va per la maggiore è quello di imparare il maggior numero di combinazioni che possono scaturire dall’applicazione e dall’interazione di un insieme di diverse regole ed elementi.

E’ come se invece di capire come funziona l’operazione aritmetica dell’addizione si cercasse di imparare a memoria i risultati di tutte le possibili somme di due numeri.

Il fenomeno si presenta con maggiore evidenza proprio sul tema dell’indicizzazione, perché i motori di ricerca hanno sfornato nel corso degli anni sempre più strumenti per aiutare i webmaster a gestire al meglio l’archiviazione delle risorse. Il risultato è che ad ogni introduzione di un nuovo strumento nascono dubbi su cosa farci e in quali occasioni può essere deleterio usarlo.

Dal mio punto di vista, l’ABC SEO legato ai fenomeni di indicizzazione consiste nelle seguenti informazioni:

  • le basi del protocollo HTTP
  • il funzionamento del modello client/server
  • il funzionamento di uno spider
  • a che cosa serve un file robots.txt e il robots exclusion standard
  • il diverso significato dei termini “indicizzazione”, “archiviazione” e “richiesta”

Una volte apprese le suddette basi, che rimangono pressoché immutabili nel tempo, è possibile crearsi una visione chiara del protocollo che gestisce il variopinto mondo dell’indicizzazione e dell’archiviazione.

Combinazioni esotiche tra robots.txt, intestazioni HTTP, meta tag, e attributi rel=canonical troveranno subito posto all’interno del paradigma che ci siamo costruiti e non sarà necessario imparare a pappagallo gli effetti di ogni possibile interazione tra questi ed altri elementi.

Ogni futuro strumento, inoltre, può essere inserito all’interno dello scenario per avere subito chiaro come può interagire con gli strumenti preesistenti.

Un flusso parziale

Solo per esercizio, ho creato un semplice diagramma di flusso che illustra un semplice protocollo di indicizzazione limitatamente agli elementi: direttiva noindex, robots.txt e indexer.

Il flow chart dipinge solo un processo di base e tiene conto solo di un paio di strumenti di indicizzazione, però dovrebbe fornire già qualche indicazione importante sull’interazione tra lo spider e l’indexer.

Per esempio, seguendo il flow chart dovrebbe essere possibile rispondere facilmente a domande quali “Quali testi associabili ad una risorsa non possono finire nella SERP se il robots.txt chiede di non accedervi?”, o anche “Che ruolo deve avere il file robots.txt nel caso in cui non si desideri far indicizzare una risorsa?”.

Flow chart (parziale) dell'indicizzazione

Il flusso di indicizzazione-fine-di-mondo

Un flow chart completo che mostri l’interazione di tutti gli strumenti di indicizzazione esistenti sarebbe decisamente più complesso da realizzare, ma non certo impossibile. Ma sicuramente strafigo!

Partire dalla redazione di un elenco di tutti gli strumenti sarebbe il primo passo da fare.

C’è qualcuno tra di voi che se la sente? 🙂

Se vi può servire, il software che ho utilizzato per produrre il diagramma di flusso è gratuito e si chiama yED.

Buona analisi del flusso!