Post recenti
Commenti recenti
- I Principali Test per un Sito Web in Ottica SEO - Ingegnerealbano.com on Come calcolare la distribuzione del “PageRank” tra le pagine di un sito
- SEO e keywords: esistono strategie e tecniche efficaci? | SERIAL EYE on Benedetta SEO, maledetta SEO
- LowLevel on Continuare a smontare Google: un’altra scoperta SEO
Tutti i post
-
Questa opera di Enrico Altavilla è concessa in licenza sotto la Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Unported.
Tag Archives: Crawling
SEO serendipità: cosa si scopre su Googlebot quando meno te l’aspetti
Penso che la cosa meno noiosa di questo post sia il fatto che include un video in cui ho catturato i comportamenti di Googlebot su un sito. Ve l’ho scritto in cima all’articolo, così non c’è il rischio che ve lo perdiate.
Questa non è la prima volta che mi imbatto in situazioni di serendipità durante i miei test o studi legati alla SEO. Mi pare di averne dato evidenza sul blog durante la mia ricerca sui famigerati “Not Provided”, ma al di là di quanto ho documentato online non sono mancate altre occasioni in cui mi sono imbattuto in qualcosa di interessante mentre cercavo tutt’altro.
Recentemente ho valutando alcune tecniche per incentivare Google ad indicizzare più velocemente i contenuti di un sito ma non vi parlerò di questi tentativi perché i test sono ancora in corso. Quello che invece vi voglio raccontare è ciò che ho scoperto mentre ne portavo avanti uno.
Ne ho tratto un paio di considerazioni molto semplici e per niente sconvolgenti, ma che in futuro potranno essere tradotte in linee guida di buonsenso potenzialmente utili ad altri SEO.
Per queste ragioni, ho pensato di condividere con voi quello che ho osservato.
Come funziona Google (solo un antipasto…)
Vi chiedo di prestare attenzione. Non l’ho mai fatto finora ma stavolta si tratta di un’occasione molto particolare.
Quanto segue è un assaggio di quello che stava diventando un mastodontico e ingestibile articolo sullo scibile tecnico di Google, iniziato a scrivere diverso tempo fa.
Sono arrivato ad un punto in cui ho dovuto realizzare che un post in un blog non è più il contesto e metodo giusto col quale fornire questo tipo (e questa quantità) di informazioni. Per tante ragioni.
In un certo senso, mi sono arreso. Ma da un’altra prospettiva ne è nato qualcosa di molto molto più interessante.
Quindi ho deciso di proporvi oggi questa “opera incompiuta” e vi chiedo di fare un salto sul blog domani, 10 ottobre 2013, per darvi una notizia e per mostrarvi in che cosa ho trasformato questo articolo.
Se mi seguite da un po’ di tempo, sono certo di poter stuzzicare il vostro interesse.
A domani!
Aggiornamento: il 10 ottobre 2013 è arrivato e potete leggere la novità: Come funziona Google (sul serio).
Come calcolare la distribuzione del “PageRank” tra le pagine di un sito
Un’ottima descrizione del PageRank e della sua relazione con un sito web può essere data parafrasando le parole di Obi Wan Kenobi quando in Star Wars descrive il concetto de “La Forza“.
“Il PageRank è ciò che dà al sito la possanza. E’ un campo energetico creato da tutte le risorse. Le circonda, le penetra, mantiene unito tutto il sito.”
Non fatevi ingannare dal paragone apparentemente giocoso e superficiale: in realtà è davvero incredibile quanto la descrizione che ho appena dato combaci perfettamente con le caratteristiche della formula del PageRank.
Dal punto di vista matematico, il PageRank viene effettivamente creato da ciascuna risorsa, si accumula e si distribuisce tra esse in funzione delle relazioni che esistono tra loro ed è uno di quei segnali che conferiscono ai siti quella “possanza” che viene tenuta in considerazione da Google quando c’è da stabilire quanta visibilità concedere a tutti i siti web.
In questo articolo spiego come prendere visione del modo in cui il PageRank di un sito si distribuisce tra le sue pagine e sezioni, un’informazione che può aiutare a capire se un sito ha problemi di dispersione del PageRank o se lo distribuisce in modo non compatibile con gli obiettivi di business.
Gli spider non “seguono” davvero i link: un equivoco su follow e nofollow
Pur non avendo svolto alcuna valutazione dei lettori abituali di questo blog, sono indotto a credere che una loro buona percentuale sia composta da professionisti del settore con una certa esperienza sulle spalle.
Le precisazioni pubblicate nel presente articolo riguardo il concetto di “following” dei link risulterà forse un po’ banale a coloro che hanno ben chiaro come funzioni il crawling del web da parte di un motore di ricerca.
Ciononostante più di una volta mi è capitato di imbattermi in malintesi di fondo su che cosa significhi “following” e, di conseguenza, quale sia il significato e la funzione delle direttive “follow” e “nofollow”.
In un paio di occasioni il malinteso ha prodotto anche effetti negativi concreti e quindi ho pensato che ci stesse bene un breve articolo di chiarimento su questo tema.
Quelli che… “Googlebot non rispetta il robots.txt”
Se avessi ricevuto un euro per tutte le volte che ho sentito un SEO dire “Google non rispetta il robots.txt” avrei guadagnato circa dieci euro. Quindi l’ho sentito dire solo una decina di volte ma la mera quantità passa in secondo piano quando si scopre che tutte quelle dieci volte coincidevano con errori di interpretazione dell’interlocutore di turno.
Sia ben chiaro: esistono casi particolari in cui Google dichiara esplicitamente ed in piena trasparenza che non rispetterà alcune direttive presenti nel robots.txt, tuttavia il mancato rispetto che ho visto lamentare a diversi webmaster e SEO non fa riferimento a quei casi particolari ma è riferito alle normali attività di crawling di Googlebot.
Per farla breve, secondo i suddetti interlocutori la direttiva Disallow pare sia usata da Google come abituale succedaneo di carta igienica. In questo articolo voglio elencare alcuni di questi episodi e spiegare dove stava l’equivoco che ha generato, di volta in volta, le errate convinzioni.