Lo sviluppo web commerciale (ovvero quello in cui si creano siti o portali per un ritorno economico e non per diletto o per soli fini di immagine) oggi non può fare a meno di una componente di SEM Search Engine Marketing.
Il successo immediato di una iniziativa web dipende sempre meno dal fattore tecnico (che conta per la scalabilità e la sostenibilità dei running cost sul lungo periodo) e sempre di più da un piano marketing adeguato, spesso comprendente operazioni di SEO automatizzate come il link building o il blog scraping. Quanto sono etiche queste pratiche? Quali sono i rischi a lungo termine?
Link building, dopo Panda e Penguin
L’introduzione l’anno scorso delle revisioni Panda e Penguin dell’algoritmo di indicizzazione di Google ha sostanzialmente avuto come obiettivo quello di premiare il contenuto originale e contestuale, e, dietro le quinte, di penalizzare alcuni siti ben posizionati nelle SERP grazie a pratiche di black hat SEO.
Una di queste pratiche, che agenzie web sprovvedute propongono ancora oggi, è l’utilizzo indiscriminato di tool per il blog commenting automatizzato. Si tratta sostanzialmente di software che utilizzando una lista di proxy ed un linguaggio di templating per la definizione di commenti variabili, permettono di sfruttare falle o errate configurazioni di CMS come WordPress o altri per inserire commenti do-follow con anchor arbitrario verso il proprio sito.
Il più famoso di questi tool è Scrapebox, reperibile online per circa 70-90 dollari (ci sono offerte spesso), che a fronte di un’interfaccia piuttosto “bulgara” è molto configurabile ed flessibile, consentendo di utilizzare pratiche come quelle descritte sopra anche a neofiti. Online è fiorente il mercato di nerd che, sfruttando Scrapebox, vendono 5-10.000 links diretti al vostro sito per pochi euro.
Il risultato dell’uso di questi tool è la creazione di migliaia di link in ingresso, con anchor perfetti, che però oggi possono causare più danno che beneficio se non sono ponderati bene in termini di URL diversity, anchor diversity, e soprattutto se non vengono inseriti in pagine contestualizzate con il contenuto della pagina linkata.
Google infatti oggi ha le risorse per pesare adeguatamente i link provenienti da pagine con molti OBL (outbound links), oppure di valutare quanto un link sulla pesca sia contestuale in una pagina che parla di arredamento. Se un sito ha come link in ingresso link tutti fuori contesto, con anchor molto simili, e testo dei commenti duplicato N volte, è molto probabile che venga considerato come oggetto di black hat SEO, e quindi rimosso dalle SERP o penalizzato fortemente.
A dispetto delle famose “10 verità di Google” penso che i motivi che stanno dietro alle revisioni Penguin e Panda oltre al tanto sbandierato “user first” siano molto più tecniche. Sistemi di generazione automatizzata di link o contenuto obbligano Google a utilizzare più risorse computazionali (per gli spider) e più risorse di storage (per l’indice) e quindi aumentano i costi di mantenimento della struttura. Dare un segnale forte a chi fa uso di queste pratiche serve principalmente ad evitare che grazie a software come Scrapebox, diventi pratica comune prima del lancio di un sito web creare 10.000 / 20.000 link a casaccio in giro per il web.
Google probabilmente, una volta che ha individuato con certezza che una pagina è oggetto di commenti automatizzati, la rimuove dall’indice o per lo meno diminuisce sensibilmente la frequenza di crawling. Lo stesso avviene per le pagine linkate qualora esse abbiano in ingresso la maggioranza di link creati in questo modo. In questo modo l’importanza commerciale di pratiche di link building automatizzato viene azzerata, e si cerca di scoraggiare gli operatori del settore a proporla nei loro pacchetti o nelle loro offerte SEM.
Oltre alla questione commerciale della cosa che (purtroppo 🙂 ) interessa solo Google, c’è da riflettere sull’etica di queste pratiche. Riflettendoci la generazione di contenuto al solo scopo di portare utenti su un sito è qualcosa che va contro la filosofia della rete in generale perchè diluisce il contenuto buono e informativo in una massa indistinta di contenuto inutile, probabilmente a questo punto preponderante da un punto di vista quantitativo.
Google cerca solo di tenere il contenuto buono “a galla” per far sì che l’utente lo trovi meglio (e quindi guadagnarci di più…), ma sotto alla crosta del contenuto della rete si cela una discarica di link, commenti, articoli, interi siti, il cui scopo non è mai stato informare l’utente ma solo spingere un altro sito più in alto.
La proliferazione di contenuto di questo tipo ha diversi aspetti eticamente discutibili:
Costi ambientali
Nonostante tante hosting company oggi si definiscano Green, la produzione ed il consumo di energia e risorse, così come la generazione di rifiuti industriali (server dismessi, materiale consumabile, etc) è direttamente proporzionale alla dimensione dei data center. Se immaginiamo che anche solo il 20% (secondo me MOOOOLTO ottimistico) del contenuto sia “spazzatura”, eliminandolo ridurremmo del 20% le emissioni ed il footprint ambientale di Internet.
Un articolo del Guardian stima il costo ambientale di Internet in 300 tonnellate di CO2, pari alla produzione di CO2 si paesi come Polonia e Turchia, o per citare paesi più industrializzati, alla metà dell’Inghilterra. Lo stesso quantitativo di CO2 verrebbe emesso se tutte le persone inglesi, oltre 50 milioni, volassero due volte andata e ritorno ogni anno. Su scala globale la rete si prende circa l’1% dell’energia ogni anno…non è esattamente poco.
Costi personali
Google allevia un po’ le nostre pene di utenti, ma quando la ricerca non è banale oppure stiamo cercando in una nicchia utilizzando parole chiavi generiche, il rischio di trovare diversi risultati non utili prima dell’informazione giusta è alto.
Questo rischio aumenta in modo inversamente proporzionale al livello tecnico dell’utente (probabilmente mia mamma ci mette più di me a trovare la recensione di un hard disk SSD in mezzo ai milioni di siti che scrivono articoli sulla tecnologia SSD linkando a rivenditori) e rischia, in una giornata tipo, di portare via all’utente decine di minuti. Se perdessimo mezz’ora al giorno, in una vita media di 80 anni avremmo sprecato 18 mesi.
ELbuild SEO e SEM …etico
Purtroppo, in attesa di altre revisioni degli algoritmi di indicizzazione, il link building gioca ancora un ruolo importante nel posizionamento di un sito web per cui, se fatto tenendo a mente i principi di diversità e contestualizzazione.
A ELbuild proponiamo servizi SEO e SEM sviluppati con produzione di contenuto rigorosamente manuale, ed ottimizzata per il contesto di mercato. Oltre a strategie di link building marchiamo sempre l’importanza di avere del buon contenuto sul proprio sito in prima istanza, e promuoviamo la formazione nella clientela di pratiche di scrittura di testo SEO-friendly.
Se il cliente, per motivi di tempo, non è in grado di produrre il contenuto ELbuild offre servizi di SEO copywriting adatti a tutte le tasche in Italiano, Inglese e Russo. Contattateci per scoprire come possiamo aiutarvi…con un occhio all’etica della rete.
Una risposta su “Il link building sta inquinando il web? Riflessioni sull’etica del SEO automatizzato.”
articolo molto interessante e completo. complimenti!