Post recenti
Commenti recenti
- I Principali Test per un Sito Web in Ottica SEO - Ingegnerealbano.com on Come calcolare la distribuzione del “PageRank” tra le pagine di un sito
- SEO e keywords: esistono strategie e tecniche efficaci? | SERIAL EYE on Benedetta SEO, maledetta SEO
- LowLevel on Continuare a smontare Google: un’altra scoperta SEO
Tutti i post
-
Questa opera di Enrico Altavilla è concessa in licenza sotto la Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Unported.
Le 10 nuove cagate SEO di cui non si dovrebbe parlare più
MAI più.
Sono passati quasi due anni dalla pubblicazione del famigerato articolo “Le 10 cagate SEO di cui non si dovrebbe parlare più“, che si è diffuso viralmente contro ogni previsione e che ha prodotto tra SEO e webmaster una quantità di commenti e apprezzamenti inaspettata.
Per “cagate SEO” si intendono quegli argomenti di nessuna importanza e quei luoghi comuni inaffondabili su cui i SEO amano riversare fiumi di chiacchiere inutili. Tutte discussioni che dovrebbero essere archiviate definitivamente.Siccome la produzione di materia fecale è intrinseca della natura umana e degli ambienti SEO/markettari, nel corso del tempo si sono accumulate nuove cagate SEO che è imperativo mettere a tacere per sempre, sotto gli scrosci di abbondanti tirate d’acqua.
Tutti i temi che seguono sono riferiti a Google, che dalle nostre parti è il motore di ricerca monopolista. Disclaimer e precisazioni le ho già fatte nell’introduzione della prima edizione delle “10 cagate SEO”, quindi potete leggerle lì se volete.
Orsù, disdicete l’abbonamento a “Pleistocene Oggi” (cit.) e proseguite con la lettura.
1. Ripetere gli H1 è penalizzante
Ah sì? E su quale pianeta extrasolare?
Le domande sulle intestazioni ed in particolare sugli H1 tornano periodicamente in vita nella comunità SEO come la muffa sui muri. Per passare l’antimuffa sarebbe sufficiente studiare un minimo di linguaggio HTML e prendere atto che il W3C ha sempre lasciato aperta la questione sul corretto utilizzo delle intestazioni, lasciando quindi discrezionalità ai webmaster.
Questa discrezionalità, paradossalmente, è proprio il motivo per il quale sulla possibile ripetizione del tag H1 sono state combattute guerre di religione che manco le crociate per la liberazione del santo sepolcro.
Lato SEO, pubblicare su una pagina intestazioni H1 multiple vuol dire semplicemente attribuire alle stesse la medesima importanza. Non è una cosa buona o cattiva, è solo una scelta.
A questo si aggiunge il fatto che Google attribuisce l’importanza di un testo valutando anche le sue caratteristiche visuali. Quindi che si tratti di H1 multipli o di molteplici intestazioni create attraverso un tag DIV ed un font molto grande, al motore poco importa. Ciò che si vede più grande è più importante di ciò che si vede più piccolo. Se hanno grandezza uguale, hanno importanza uguale. Nonostante Google svolga analisi visuali, voi continuate ad usare per le intestazioni i tag Hx, perché il loro significato è interpretabile in modo non ambiguo da qualsiasi software e motore di ricerca.
Tutto il resto sono solo masturbazioni mentali e, fidatevi, quelle mentali costituiscono la tipologia inutile.
2. Il Disallow serve a non far indicizzare risorse
Questa assurda convinzione si è diffusa principalmente perché, dopo i roghi europei dei libri culminati nel 1945, molti SEO sono stati privati di vocabolari da consultare per capire che cosa significa “indicizzare”. Alcuni credono che significhi “archiviare” o “leggere” o anche “asfaltare”, se hanno bevuto abbastanza birre.
“Indicizzare” significa semplicemente “aggiungere ad un indice un riferimento ad un documento”. E’ un po’ come avere un libro, che alla fine presenta un indice dei capitoli: se per un errore di stampa nell’indice manca un riferimento ad un capitolo, non significa che il capitolo non sia presente nel libro ma solo che nell’indice non se ne fa riferimento.
Quando il motore deve fare una ricerca consulta l’indice e se non ci sono riferimenti ad un documento, esso non verrà estratto dall’archivio dei documenti e di conseguenza non verrà presentato nei risultati di ricerca. Semplice, no?
La direttiva Disallow nel file robots.txt chiede semplicemente agli spider di un motore di non scaricare una o più risorse (ho semplificato un po’ ma va bene lo stesso). Non scaricando una risorsa, il motore non ne può conoscere ed archiviare i contenuti, ma può comunque aggiungere all’indice un riferimento alla risorsa. Per esempio il motore può creare riferimenti tra le parole presenti nell’URL (che il motore conosce anche se non ha scaricato il documento) e la risorsa stessa, quindi la risorsa viene indicizzata.
Ora magari la metafora del libro è poco comprensibile perché i roghi e Farmville hanno offuscato il vostro concetto di “libro”, ma se mi verrà in mente una metafora più abbordabile ve la invierò tramite messaggino.
3. Meglio il tag “B” o il tag “STRONG”?
L’incoronazione della pippa più diserbante va probabilmente all’annosa questione su quale tag conferisce più importanza ad un testo tra il tag “B” e il tag “STRONG”.
La questione non raggiunge le vette della diatriba “trattino o underscore”, che rimarrà negli annali come la più inutile idiozia su cui sono stati riversati fiumi di inchiostro telematico, ma attinge comunque dalla stessa scuola, palesemente frequentata da scolari perennemente ripetenti.
A volte ho l’impressione che i SEO siano persone tramutate magicamente in pietra negli anni ’90 e che solo recentemente si siano ridestate dal sonno pluriennale grazie ad un bacio di Matt Cutts, vagando spaesati per strada in cerca di una cabina telefonica per chiamare casa e di informazioni sull’uso di tag HTML creati decenni prima.
La faccio corta: il tag “STRONG” è quello da usare per attribuire importanza al testo. E’ nato per quello.
Poi potrei fare varie precisazioni, un po’ perché Google valuta anche gli aspetti visuali del testo e un po’ perché il W3C ha avuto la bella pensata di rivalutare il significato del tag “B” (sì, davvero). E invece le precisazioni non le faccio, altrimenti do il via ad altri decenni di discussioni inutili.
Mi spiace se ho riportato violentemente con i piedi per terra qualche cittadino del secolo scorso, ma già che ci sono: fossi in voi, nella top ten dei brani singoli non mi aspetterei di trovarci gli Oasis o Pupo.
4. Gli errori 404 tolgono valore al sito
L’unico tipo di errore di “risorsa non trovata” che crea problemi è quando lo status 404 viene restituito per risorse che invece dovrebbero esistere ed essere raggiungibili, per esempio risorse che ricevono link dalle pagine del sito stesso.
Se è però previsto e voluto che una risorsa non esista, allora erogare uno status 404 quando essa viene richiesta è esattamente quello che serve per dichiarare questa non-esistenza.
Il panico tra i SEO solitamente inizia a serpeggiare quando vengono osservati lunghi listoni di errori 404 sul pannello di “Strumenti per Webmaster” (GWT) di Google. Bisogna semplicemente comprendere che i 404 sono solo “dichiarazioni di non-esistenza” e che quindi è necessario valutare URL per URL se ciascuno di essi fa riferimento ad una risorsa che dovrebbe esistere oppure ad una risorsa che è previsto che non esista.
Non mi dilungo oltre, anche perché sull’argomento ho scritto un approfondimento qualche tempo fa. Anche se non lo leggerete, l’importante è che facciate pace con i codici di stato HTTP, che stanno lì per assolvere ad una funzione e non per ricoprire il ruolo di antagonisti cattivi che vanno eliminati.
5. Usando il nofollow si risparmia PageRank
Certo, inoltre elimina la forfora e aumenta il tasso di interesse sul conto corrente. A volte il nofollow produce anche biglietti omaggio per i concerti di Gigi D’Alessio, ma solo se non siete mai stati critici nei confronti dei cantanti neomelodici.
Anche in questo caso, questa diffusa convinzione nasce perché in pochi hanno idea di che cosa la formula del PageRank si pone l’obiettivo di calcolare. L’obiettivo del PageRank è quello di calcolare con che probabilità ciascuna risorsa può ricevere la visita di un utente che naviga il web cliccando sui vari link.
Se avete dieci link su una pagina, potete attribuire la relazione “nofollow” ad uno di essi, a più di uno, a tutti e dieci o a nessuno: qualunque cosa facciate, le probabilità che l’utente clicchi sui link non cambieranno in alcun modo.
Questa considerazione ha spinto Google a decidere che l’aggiunta dell’attributo nofollow ad un link non deve permettere di “riciclare” e ridistribuire il PageRank non attribuito tra le altre risorse linkate dalla pagina, perché questa ridistribuzione falserebbe i risultati dei calcoli degli indici di probabilità per le pagine che vengono linkate senza attributo nofollow.
Rassegnatevi a comprare da voi i biglietti per i concerti di Gigi.
(va detto comunque che in passato Google aveva fatto la stupidaggine di permettere il riciclo del PageRank non attribuito, ma fortunatamente hanno capito che era errato dal punto di vista matematico)
6. L’HTML non valido è un segnale di ranking negativo
Il codice HTML non valido non influisce in alcun modo sul ranking della risorsa. Sarebbe stato ingiusto se fosse stato un segnale negativo.
Fino a quando gli utenti sono in grado di visualizzare ed interagire correttamente con una pagina HTML, il motore di ricerca non ha alcuna ragione di sconsigliarla ai propri utenti. Per questo motivo tutti i motori di ricerca hanno sviluppato dei parser in grado di gestire il codice HTML non valido e persino codice HTML orrendamente mutilato.
Il dubbio sull’influenza nei ranking della validazione HTML si insinua a volte tra chi ha una visione molto tecnica della SEO e attribuisce a Google improbabili interessi a penalizzare i siti che presentano caratteristiche tecniche non ottimali.
La regola generale è: finché una caratteristica tecnica non produce un’esperienza sgradevole al cliente di Google (cioè l’utente del motore che approda sul vostro sito) allora Google non ha motivo di penalizzare alcunché.
7. Il testo nei tag META viene indicizzato
Si narra che Talete di Mileto, durante un’infervorata discussione con Erodoto, si impuntò su due gravi anacronismi che il primo considerava estremamente fastidiosi.
Il primo anacronismo riguardava la presenza stessa di Erodoto come interlocutore, il quale sarebbe nato oltre un secolo dopo Talete, e il secondo anacronismo riguardava il tema dell’indicizzabilità dei testi nei meta tag, che Talete riteneva essere un argomento trito e ritrito, le cui conclusioni definitive erano state raggiunte ormai da anni grazie alla consultazione dell’oracolo di Delfi.
Oggigiorno il tema dell’indicizzabilità dei testi nei meta tag viene discusso raramente tra i filosofi SEO contemporanei, ma a volte mi capita di vederlo riaffiorare dal mare magnum delle banalità e dell’obsolescenza.
E’ comunque falso. Nessuna delle parole o delle frasi inserite in un qualsiasi tag di tipo META viene aggiunta all’indice. Per alcuni di questi tag, per esempio per il META description, i motori archiviano il testo che esso contiene e lo sfruttano quando è utile mostrarlo all’utente nelle SERP, ma di questi testi non avviene alcuna indicizzazione.
E’ tempo di riporre la toga ed i sandali per vestirsi d’abiti di uso comune.
8. La velocità del sito è un fattore di ranking in Google
No. Questo mito è nato perché, nell’intento di evangelizzare la progettazione di siti web di qualità, Google ha lasciato intendere che i siti dalle prestazioni migliori potrebbero ottenere qualche vantaggio nelle SERP organiche.
In realtà la visibilità sulle SERP per i siti più veloci può migliorare indirettamente, perché i siti facilmente navigabili e reattivi a rispondere alle richieste dei propri visitatori, sono anche i siti che vengono apprezzati di più, che vengono consigliati e condivisi sul web e che accumulano dunque link e citazioni nel corso del tempo.
Ma di influenze dirette tra la velocità di un sito ed il ranking nelle SERP non ce ne sono, anche perché l’espressione “velocità di un sito” può significare tutto e niente, con una forte tendenza verso “niente”. Fino a quando sarà un concetto fumoso sarà anche impossibile misurarlo, quindi non potrà essere un segnale preso in considerazione dal motore per il ranking.
Non mi sento di escludere il fatto che Google abbia fatto un parziale dietrofront sull’influenza della velocità dei siti sulle SERP organiche. Sta di fatto che nel momento in cui scrivo, viene dichiarato che la velocità non è uno dei segnali usati dall’algoritmo di ranking.
Benvenuti nel fatato mondo delle montagne russe di Google. Per entrare dovete essere alti almeno PR5.
9. Il motore ha penalizzato il sito per indurmi a comprare pubblicità
Questa è una di quelle genialate partorite più di intestino che di intelletto. Sarà la condivisione dell’iniziale “inte” che confonde le menti più semplici.
Mi capita ogni tanto di beccare qualcuno che ha avuto il sito penalizzato da Google e che questo qualcuno congetturi che la motivazione sia di indurre il proprietario ad investire in keyword advertising.
Il sito penalizzato può anche somigliare ad un flipper lampeggiante di GIF animate, privo di testo e con la dicitura “Browser consigliato Internet Explorer 1.0 beta” nel footer, ma per qualche ragione la causa più probabile della penalizzazione viene ritenuta essere la voglia del motore di monetizzare.
In questi casi io faccio sempre notare: “Tutti quelli che nella SERP stavano sotto il tuo sito son saliti di una posizione grazie alla tua scomparsa. Quindi per un sito che scompare, ce ne sono tanti che salgono di posizione. Nel complesso mi pare un evento che crea più gente felice di gente incazzata.”.
Ovviamente non voglio imporre questa logica a nessuno, però sul fatto che le SERP siano qualcosa di molto simile ad uno “Zero sum game“, non ci piove.
10. Il NOINDEX serve a non fare archiviare le pagine
Ecco, questa è un’altra boiata frequente che nasce dall’assoluta sconoscenza di che cosa significa “indicizzare” e “archiviare”. L’accenno alla differenza di ruolo tra archivio ed indice ve l’ho già fatto quando ho scritto della direttiva Disallow, quindi mi limito ad aggiungere l’ovvio.
L’indice cita quali documenti sono associati a certe specifiche parole o frasi, mentre l’archivio dei documenti contiene… provate a indovinare…
Fa niente, ve lo dico io. Anzi, ve lo faccio dire da Plakto, il mio vicino di casa. Plakto è un organismo protozoico che risale all’era del brodo primordiale, di mestiere fa l’assicuratore ma ha anche investito dieci minuti della propria esistenza per capire com’è fatto un motore di ricerca. Plakto dice che l’archivio dei documenti contiene i documenti e che l’istruzione NOINDEX non può entrarci niente con l’archiviazione dei documenti, visto che influisce sull’indice e non sull’archivio.
Plakto aggiunge anche che dovreste approfittare del fatto che, a differenza sua, siete organismi multicellulari e che dovreste fare il possibile per giustificare alcuni milioni di anni di evoluzione. Plakto dice che l’unica cosa che vi invidia è la riproduzione sessuata.
Ringrazio Plakto per questo suo illuminante contributo. Di mio ci aggiungo che non si può pretendere che i SEO studino l’ABC di come è fatto un motore di ricerca (sarebbe come pretendere da un chirurgo che studiasse anatomia, per dire) ma è possibile capire da sé che il tema in oggetto è una sonora cagata semplicemente dando un’occhiata alle istruzioni previste dal meta tag ROBOTS: tra le tante, ce n’è una che si chiama “NOINDEX” e un’altra che si chiama “NOARCHIVE”. Ma vi pare mai possibile che quella che significa “non archiviare” sia la “NOINDEX”?
La domanda è volutamente retorica perché do per scontato che sarete in grado di rispondere da voi. E anche perché Plakto è purtroppo uscito un attimo a fumare una sigaretta. Comunque se arrivare alla risposta vi richiede acrobazie mentali troppo rocambolesche non so che dirvi… provate a iscrivervi ad una scuola circense.
L’undicesima cagata è tutta vostra
Come ormai consuetudine, i commenti sono a vostra disposizione per segnalare quei luoghi comuni che girano tra i SEO, le panzane che vanno contro ogni logica e le diffuse opinioni che non sono basate su alcun fatto.
Volendo restringere il numero di cagate a dieci, ne ho anche escluse dalla lista un paio che mi sembravano secondarie, in particolare una sull’authorship di Google (che la gente continua a confondere con l’agent rank). Ma ci sarà sicuramente modo di parlarne in futuro.
Plakto vi saluta con affetto.
Pingback: Anonymous
Pingback: I siti veloci hanno ranking migliori? Macché, è una bufala! - LowLevel’s blog
Pingback: Le 4 Ragioni Per Cui La SEO è Morta... Almeno In Parte | The Wonder Web