Post recenti
Commenti recenti
- I Principali Test per un Sito Web in Ottica SEO - Ingegnerealbano.com on Come calcolare la distribuzione del “PageRank” tra le pagine di un sito
- SEO e keywords: esistono strategie e tecniche efficaci? | SERIAL EYE on Benedetta SEO, maledetta SEO
- LowLevel on Continuare a smontare Google: un’altra scoperta SEO
Tutti i post
-
Questa opera di Enrico Altavilla è concessa in licenza sotto la Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Unported.
Quelli che… “Googlebot non rispetta il robots.txt”
Se avessi ricevuto un euro per tutte le volte che ho sentito un SEO dire “Google non rispetta il robots.txt” avrei guadagnato circa dieci euro. Quindi l’ho sentito dire solo una decina di volte ma la mera quantità passa in secondo piano quando si scopre che tutte quelle dieci volte coincidevano con errori di interpretazione dell’interlocutore di turno.
Sia ben chiaro: esistono casi particolari in cui Google dichiara esplicitamente ed in piena trasparenza che non rispetterà alcune direttive presenti nel robots.txt, tuttavia il mancato rispetto che ho visto lamentare a diversi webmaster e SEO non fa riferimento a quei casi particolari ma è riferito alle normali attività di crawling di Googlebot.
Per farla breve, secondo i suddetti interlocutori la direttiva Disallow pare sia usata da Google come abituale succedaneo di carta igienica. In questo articolo voglio elencare alcuni di questi episodi e spiegare dove stava l’equivoco che ha generato, di volta in volta, le errate convinzioni.
Incremento dei click sulle SERP: dal test al “Click Love”
Per chi mi segue da un po’, sa che il tipo di web analysis che mi piace di più è quello che prevede di sporcarsi con po’ le mani con test e calcoli.
Questo articolo descrive come ho svolto un test per determinare se una piccola modifica al testo di un tag TITLE avrebbe prodotto un CTR maggiore sulle SERP di Google.
Come spesso capita, tuttavia, “l’appetito vien mangiando” e oltre a determinare l’esito del test sulla base dei KPI definiti, lungo il cammino mi è venuta un’idea per definire un KPI diverso dal CTR, che potrà essere sfruttato in test futuri.
Vi do dunque visibilità dell’intero processo che ho seguito, dall’idea all’esecuzione, alle considerazioni che mi hanno spinto a tirar fuori dal cappello anche qualcosa di nuovo.
Ne approfitto per ringraziare il cliente che mi ha dato il permesso di divulgare i risultati del test, opportunamente anonimizzati.
Quiz SEO bastardo numero 7: il comando “inmeta”
Torna, a richiesta di quei poveri dipendenti da quiz che me li chiedono spesso, un nuovo Quiz SEO bastardo!
I quiz SEO bastardi sono accuratamente progettati per far scervellare i SEO. L’obiettivo dei quiz è quello di studiare un po’ i motori di ricerca e magari imparare qualcosa di nuovo durante il processo di analisi che a volte è necessario intraprendere per arrivare alla risposta corretta.
Se non conoscete i quiz SEO bastardi, date un’occhiata alla categoria del blog che li raccoglie. Adesso bando alle chiacchiere e leggete il quiz!
L’analisi SEO del sito attraverso i log del web server
Quanti di voi si sono dedicati almeno una volta all’analisi dei log del web server nel tentativo di capire come gli spider dei motori perlustrano un sito web?
La mia impressione è che questo genere di analisi fosse più comune in passato che non oggi, eppure osservando i comportamenti degli spider è possibile osservare possibili criticità e persino trarre informazioni sull’opinione che un motore di ricerca si è fatto di un sito web. I log sono utili anche per altri scopi, per esempio di web analysis, ma questo esula dal tema del presente post.
Questo articolo nasce da un breve post sull’argomento scritto tempo addietro su Google+. Martino Mosna mi chiedeva perché non ne facevo un articolo per il blog ed io non ritenevo che i contenuti fossero particolarmente interessanti.
Di conseguenza ho deciso di riscriverli e arricchirli, aggiungendo anche i risultati di una reale analisi SEO che ho svolto qualche mese fa, penso che alla fine sia venuto fuori qualcosa di potenzialmente utile.
Tutto ciò che segue fa riferimento al motore di ricerca Google e allo spider Googlebot dedicato all’indice Web. Alcune delle considerazioni fatte possono essere estese attraverso il (vostro) sano buonsenso anche agli spider di altri motori di ricerca.
I vantaggi di reinventare la (SEO) ruota
Molti anni fa su un gruppo di discussione su Internet lessi un informatico che stava cercando di progettare un nuovo algoritmo di ricerca di pattern nei testi. Un secondo informatico gli chiese: “Esistono già molti buoni algoritmi di ricerca. Perché reinventare la ruota?” ed il primo rispose: “Perché a me serve un razzo.“.
A distanza di tanti anni ricordo ancora distintamente quella discussione perché in poche parole riusciva a dipingere uno scenario piuttosto comune tra quelle comunità che dovrebbero investire parte del proprio tempo in ricerca e sviluppo e che invece preferiscono adagiarsi alla comodità di quanto già esiste, persino quando non opportuno o non conveniente.
L’espressione “reinventare la ruota” è stata sempre sfruttata per evidenziare esclusivamente l’apparente perdita di tempo (e denaro) nel cercare di ottenere qualcosa che esiste già.
Se da un lato questo tentativo di dissuasione appare figlio del buonsenso e del tutto giustificato, dall’altro però è necessario precisare che il tempo speso nel reinventare una ruota va considerato un investimento azzardato esclusivamente quando si tenta di ottenere esattamente la stessa ruota.
Dunque mi chiedo: che effetti negativi possono scaturire da questi tentativi di dissuazione se poi bloccano sul nascere anche quei percorsi di ricerca che potrebbero far emergere soluzioni migliori a problemi apparentemente già risolti in via definitiva?
Avete mai avuto l’impressione che l’ambiente attorno a voi preveda che la ruota debba girare in un preciso modo ma che nessuno sappia esattamente il perché?
Questo articolo è dedicato alle ruote che nessuno vuole reinventare e a quelle dentate degli ingranaggi industriali, tra le quali si rimane incastrati quando si decide di seguire ciecamente i binari tracciati da altri. Compresi i binari della SEO.