Differenza tra White Hat SEO e Black Hat SEO per i motori di ricerca

Differenza tra White Hat SEO e Black Hat SEO per i motori di ricerca

White Hat SEO vs. Black Hat SEO

In informatica e precisamente nel web, i termini “White Hat SEO” e “Black Hat SEO” esprimono due modi totalmente diversi, sia dal punto di vista etico sia dal punto di vista pratico, di cercare di risalire la SERP dei motori di ricerca. I due appellativi hanno origini piuttosto antiche: risalgono ai vecchi film western degli anni cinquanta in cui il “buono” aveva sempre addosso un cappello bianco, mentre il “cattivo” indossava un cappello color nero. Ne deriva, quindi, che coloro che utilizzano tecniche lecite e pulite sono soprannominati “White Hat”, mentre coloro che utilizzano ogni tipo di sotterfugio, anche illecito, fanno parte dei “Black Hat”.

I “White” utilizzano un insieme di tecniche che sono viste di buon grado sia dai motori di ricerca, giacché non utilizzano tecniche di spamdexing (termine che sarà ripreso e discusso a breve), sia dagli utenti, poiché troveranno contenuti di qualità. Scrivere contenuti originali e interessanti, integrando approfondimenti  coerenti con il tema di cui si sta parlando, è una delle tecniche più importanti, che non dovrebbero mai mancare in un sito di qualità. Come già detto nel paragrafo precedente, è importante dosare bene la quantità di parole chiave presenti nelle pagine Web, abusarne potrebbe essere considerato (anche se non sempre è vero) come un tentativo “Black Hat” e quindi si potrebbe essere penalizzati.

I “Black” utilizzano tecniche definite di “spamdexing”, termine coniato dalla fusione fra “spam” e “index”, finalizzate a risalire la SERP con metodi che sono ritenuti illeciti o in contrasto con le linee guida dei motori di ricerca e che, generalmente, offrono contenuti scadenti agli utenti. Una vecchia tecnica, ancora oggi largamente usata, è quella di nascondere testo e link nel layout (ovvero il tema della pagina). Tipicamente ciò viene fatto per due motivi: il primo consiste nel nascondere un elevato numero di parole chiave nel layout del sito, in modo  tale che l’utente non si accorga di nulla mentre il crawler sì. Questa tecnica prende il nome di Keyword stuffing e può essere realizzata in diversi modi, ad esempio agendo sul foglio di stile CSS (Cascading Style Sheet) inserendo “display: none” sulla classe, in modo da non renderla visibile agli utenti, oppure utilizzando testo dello stesso colore dello sfondo o, altrimenti, inserendo parole chiave nei metatag. Google è in grado d’individuare questi tentavi di mascheramento, in quanto il crawler è in grado d’interpretare intelligentemente il CSS, ovvero non legge i contenuti di una classe con “display: none” e di conseguenza neanche le parole chiave inserite all’interno, si accorge se testo e sfondo sono dello stesso colore e, se ciò risulta vero, penalizza fortemente la pagina. Oltretutto, da diversi anni, Google non da più alcuna importanza al contenuto dei metatag “keywords”.

Il secondo motivo può essere ricondotto alla tecnica chiamata Googlebombing, che consiste nell’inserire numerosi link, anche questi mascherati all’utente, con lo scopo di “bombardare” di link una pagina Web. Una motivazione può essere cercare di aumentare il PageRank di un sito, migliorandone il posizionamento. Oppure si potrebbero associare determinate keyword, tramite link, a un particolare sito Web in modo tale che quest’ultimo venga mostrato nelle prime posizioni dei search engine, associato a certe chiavi di ricerca. Moltissimi sono stati i fenomeni di “Googlebombing” di cui, tra i più famosi, si ricorda il caso di G.W. Bush.

Differenza tra White Hat SEO e Black Hat SEO per i motori di ricerca

Un’altra tecnica appartenente al mondo del “Black Hat SEO” riguarda l’uso di pagine gateway o doorway, ovvero pagine generalmente prive di contenuti utili all’utente, che vengono utilizzate con lo scopo di essere indicizzate dai motori di ricerca per migliorare il posizionamento del sito. Comportamenti di questo genere rischiano di far subire pesanti penalizzazioni per opera dei motori di ricerca.

Altra tecnica scorretta è il cloacking, ovvero mostrare pagine diverse a fronte di una stessa richiesta a motori di ricerca e utenti, con il fine di migliorare il proprio posizionamento nella SERP, ottimizzando al massimo la pagina che verrà  mostrata al crawler. Se individuati, il sito potrà essere marchiato come “contraffatto” e può portare a forti penalizzazioni, perfino l’eliminazione dagli indici di Google.

Il desert scraping è una tecnica che consiste nel riciclare vecchi contenuti, o addirittura siti interi, che non fanno più parte degli archivi di Google e proporli come nuovi e originali. Questa tecnica può portare anche a buoni risultati nell’immediato, con conseguente scalata della SERP; ovviamente il rischio di proporre contenuti obsoleti, spacciandoli come nuovi e originali, rischia di far incorrere in pesanti sanzioni, fino ad arrivare al “ban” (ovvero l’espulsione) dagli indici dei motori di ricerca.

Con il recente aggiornamento dell’algoritmo di Google, ovvero il Penguin Update, molto è stato fatto, con notevoli risultati, per combattere le tecniche di Web spam, ancora oggi massicciamente usate nella rete Internet.

Pubblicato da Vito Lavecchia

Lavecchia Vito Ingegnere Informatico (Politecnico di Bari) Email: [email protected] Sito Web: https://vitolavecchia.altervista.org

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *