Fattori di penalizzazione di un sito web dai motori di ricerca

Fattori di penalizzazione di un sito web dai motori di ricerca

Fattori di penalizzazione di un sito web dai motori di ricerca

Dopo avere analizzato le tecniche e gli strumenti utilizzati nelle attività di SEO (negli articoli SEO, ottimizzazione e posizionamento siti web su Google e Come migliorare il posizionamento dei siti web nei motori di ricerca) per migliorare il posizionamento di un sito nei motori di ricerca, è importante soffermarsi sulle tecniche e le azioni da evitare durante il processo di ottimizzazione che potrebbero portare alla penalizzazione del sito web, cioè un declassamento di posizione nelle SERP o addirittura l’esclusione dagli indici dei motori di ricerca.

Se un tempo attuare delle pratiche scorrette era piuttosto frequente, oggi, per combattere la lotta allo spam e alle tecniche di ottimizzazione aggressive e scorrette, i motori di ricerca si sono evoluti sviluppando e migliorando i propri algoritmi di analisi e classificazione dei siti web.

Le principali tecniche da evitare nel processo di ottimizzazione e quidni subire penalizzazione del sito web sono:

  • link spamdexing;
  • cloaking;
  • keyword stuffing;
  • doorway pages;
  • testi nascosti;
  • testi duplicati.

Link spamdexing

Tra le azioni utilizzate per manipolare in modo artificiale il posizionamento di un sito, ci sono quelle basate sui link. In questo caso la tecnica principale si chiama link farm: si tratta di creare una serie di siti che si linkano reciprocamente con migliaia di collegamenti. Esiste inoltre un’altra tecnica, ovvero la compravendita di link. In questo caso i motori di ricerca non trovano grosse difficoltà nell’individuare i siti ottimizzati in maniera scorretta e ciò è dovuto al fatto che questa tecnica comporta una decontestualizzazione e un’incongruenza dei link acquistati rispetto al tema del sito.

Cloaking

La tecnica chiamata cloaking è invece un metodo usato per presentare contenuti differenti a seconda dell’utente che ne fa richiesta: teoricamente si tratta di una tecnica da non considerare come spam, ma ci sono webmaster che ne fanno un  uso scorretto che consiste nel presentare agli spider dei motori di ricerca la versione ottimizzata del sito che, quando visionato dagli utenti, appare completamente diverso. I motori di ricerca considerano questa tecnica in maniera molto rigida e la sua scoperta comporta la cancellazione del sito dall’indice del motore di ricerca.

Keyword stuffing

Un’altra tecnica considerata spam e che porta alla penalizzazione del sito web è quella denominata keyword stuffing, che consiste nell’eccessiva ripetizione delle keyword all’interno dei testi. Un esempio di testo con keyword stuffing è il seguente: “L’azienda x produce scarpe di primissima qualità. Le nostre scarpe sono realizzate con materiali resistenti. Scarpe uniche. Produzione scarpe.  Realizziamo scarpe per tutte le occasioni. Scarpe di camoscio.

I motori di ricerca sono riusciti a frenare questa pratica sviluppando degli algoritmi in grado di rilevare la normale distanza che le parole chiave dovrebbero avere l’una dall’altra per formare un testo coerente. In questo modo lo spider è in grado di stabilire se un documento è stato realizzato in modo naturale o se sono state applicate delle tecniche di keyword stuffing.

Doorway pages

Un’ulteriore tecnica da evitare nel processo di ottimizzazione del sito web è la creazione delle cosiddette Doorway pages. Si tratta di pagine web ottimizzate per  i motori di ricerca e non per gli utenti, create con lo scopo di aumentare il traffico verso un determinato sito. Il meccanismo prevede nella maggior parte dei casi la creazione, tramite appositi tool, di pagine focalizzate su un’unica keyword e dunque prive di senso logico e di utilità alcuna, oppure pagine con contenuti duplicati.

Nonostante questa tecnica sia considerata spam dai motori di ricerca, è possibile lavorare alle doorway pages in maniera limpida e corretta, attraverso la realizzazione delle cosiddette landing pages, di reale utilità per gli utenti e con contenuti attinenti all’argomento del sito principale.

Testi nascosti e testi duplicati

Infine, tra le tecniche da evitare per evitare la penalizzazione è quella di influenzare artificialmente il posizionamento, troviamo a tal proposito i testi nascosti e i testi duplicati. Nel primo caso si tratta di inserire  parole chiave all’interno della parte visibile di una pagina, cioè quella rivolta agli utenti, usando lo stesso colore di fondo della pagina. I testi così realizzati diventano invisibili agli occhi degli utenti, ma visibili dagli spider che li analizzano.

Si parla invece di testi duplicati quando una porzione importante dei contenuti di un sito web è uguale tra più pagine, sia sullo stesso dominio che su domini diversi. Per combattere questo fenomeno i motori di ricerca usano dei filtri attraverso i quali è possibile individuare l’origine dei testi e la data in cui sono stati realizzati, stabilendo se si tratta di contenuti nuovi o duplicati. I testi duplicati sono frequenti nei siti di e-commerce che riportano generalmente le informazioni sui prodotti copiandole direttamente dai siti delle aziende produttrici.

Nel momento in cui l’analisi svolta dagli spider permette di riscontrare l’uso di una di queste tecniche, Google può intervenire applicando delle penalizzazioni al sito, quali:

  • l’esclusione dall’indice. Questa può essere definitiva, senza possibilità di farvi ritorno (questo tipo di esclusione è chiamata ban, dall’inglese to ban, interdire), oppure temporanea, dando al webmaster la possibilità di correggere i problemi rilevati e chiedere la reinclusione nell’indice;
  • una penalità sulla posizione nelle SERP. “Generalmente questo tipo di penalizzazione è chiamato –N penality, dove N è la posizione nella SERP al di sopra della quale il sito (o parte delle sue pagine interne) non compare.” (Toscano, 2009) Per esempio, con una penality pari a “-30”, il dominio viene escluso dalle prime tre pagine dei risultati per qualsiasi chiave; con una penality pari a “-90”, il dominio è escluso dalle prime nove pagine di risultati;
  • una diminuzione del Pagerank.
Precedente Cos'è e come funziona uno spider web dei motori di ricerca Successivo Cosa sono e come funzionano le Directory Web

Lascia un commento

*