Il SEO è sempre stato un affare complicato, non solo gli esperti devono dedicare tempo alla ricerca di parole chiave e seguendo le migliori pratiche, devono essere preparati ai cambiamenti che i motori di ricerca inevitabilmente mettono in atto.

L'anno scorso il gigante della ricerca Google ha realizzato due importanti aggiornamenti dell'algoritmo - Panda e Penguin - che hanno visto molti siti precipitare nelle classifiche, penalizzati dalle nuove regole.

Questo perché le modifiche sono state implementate al fine di classificare siti di scarsa qualità, come i content mills e link farm, e dare più peso ai siti che producono contenuti di qualità.

Ciò viene effettuato modificando il modo in cui gli spider di Google riconoscono un sito, dando migliori classifiche ai siti con qualità, contenuti ben scritti e coinvolgimento dei social media. Per i professionisti del web, questo ha creato qualcosa di panico, poiché i siti statici che non erano particolarmente ben scritti e pieni di parole chiave hanno iniziato a fallire.

Gli aggiornamenti di Penguin e Panda si basavano su un nuovo set di regole e algoritmi più complessi progettati per classificare un sito su una serie di fattori diversi.

Questi includono:

  • Contenuto: gli spider di Google ora possono sapere se un sito è scritto male, con errori ortografici e grammaticali, molti annunci e link di cattiva qualità. Questo cambiamento è visto come un benvenuto per molti professionisti SEO e digitali, poiché ha immediatamente messo in discussione i sindacati degli articoli di qualità scadente e le aziende di contenuti, in modo che l'alta qualità possa prendere il loro posto ed essere più utile agli utenti.
  • Freschezza: la "freschezza" della copia è diventata più importante per Google rispetto ai link in entrata. Ciò significa che per competere su Google, è necessario aggiungere spesso nuovi contenuti. La classifica della freschezza esamina 3 aree chiave: # 1: Argomenti di tendenza come le Olimpiadi o l'elezione degli Stati Uniti n. 2: ricorrenti eventi famosi come il Superbowl n. 3: Quanto recentemente il contenuto è stato aggiunto.
  • Contenuti unici: mai copiati e incollati alcuni contenuti in un sito Web per tagliare gli angoli? Ora taglierà anche la classifica del sito. Il contenuto originale è uno degli aspetti più importanti nel determinare la posizione. Anche i contenuti contenenti link non naturali saranno penalizzati, quindi è importante assicurarsi che i link appaiano in modo organico e siano molto pertinenti ai contenuti. Questo diventerà ancora più importante come Rank dell'autore di Google decolla.
  • Sociale: come molti di voi sapranno, social è il nuovo marketing ed è uno strumento molto potente per il SEO. Google ora utilizza social nei risultati di ricerca per determinare quanto sia utile un sito su tutta la linea. È importante ora che i professionisti del marketing online e gli esperti SEO includano i social, assicurando che tutti i colori ei loghi dei marchi siano uniformi tra i canali social e i siti web. Inoltre, è importante che la presenza sociale sia ben gestita; male, i social gestiti da bot danneggeranno le classifiche di un sito.
  • Esente da errori tecnici: questo in particolare è importante per i professionisti del Web e senza dubbio attirerà molti siti di blogging dai primi posti. Un sito con un'architettura sonora funzionerà meglio di un sito che è stato creato da modelli, Flash o ha più di due anni. Ciò significa che il codice dovrebbe essere basato su standard con tag CSS validi e metadati ordinati.

Come affrontare i problemi con la classifica di un sito

Anche alcuni dei più grandi siti sono stati interessati dalle modifiche agli algoritmi di Google, ne ho letto uno che doveva essere rimosso subito per cambiare tutte le parole chiave e le pagine duplicate.

Un sito che è scritto male dovrebbe avere tutto il suo contenuto aggiornato, preferibilmente da qualcuno che può scrivere. Questo include blog post e articoli, quindi se un sito ha un sacco di contenuti come questo, allora potrebbe essere una buona idea togliere tutto dal sito e aggiungerlo quando lo si ottiene, o contenuto diverso, scritto.

Anche i metadati devono essere puliti e in ordine e Google tende a ignorare le parole chiave e a concentrarsi sulle descrizioni qui. Ovviamente, le parole chiave hanno ancora il loro posto ed è importante garantire che queste siano ancora ben studiate e analizzate, ma è probabile che gli articoli e i blog con un'alta densità di parole chiave siano penalizzati. Questo perché le parole chiave, quando sono abusate, tendono a compromettere la qualità della scrittura.

Panda si concentrò sull'eliminazione di quei siti che tentavano di "ingannare" i suoi algoritmi con l'uso eccessivo di parole chiave e lo spamming collegato. Se hai stabilito che un sito ha link di spam puntati su di esso, usa Disavow Tool di Google , che li rimuoverà per te. Tuttavia, è importante a questo punto notare che è necessario eseguire un'accurata verifica del sito per identificare i collegamenti errati e dovrebbe essere cauto che lo strumento sia utilizzato.

Per Panda, vale anche la pena di verificare che il contenuto di un sito sia unico; deve essere al 60% unico in tutto il sito, oltre che accessibile, al fine di passare le regole di Panda.

Il pinguino si è concentrato maggiormente sul contenuto reale e entrambi gli algoritmi sono ancora aggiornati regolarmente per perfezionarli. Per la maggior parte, Penguin si concentra principalmente su keyword stuffing all'interno di articoli e link spam.

Essenzialmente, sono entrambi interessati all'accessibilità, al contenuto, alle tecniche di spamming e alle nuove regole che sono progettate per prevenire la black hat SEO.

Cos'è il SEO black hat?

Fondamentalmente, questo è un modo di tentare di manipolare i motori di ricerca in modo che essenzialmente li "induca" a pensare che un sito sia prezioso. Il cappello nero usa tattiche aggressive ed è orientato verso il motore di ricerca, piuttosto che un pubblico umano.

Oltre agli articoli in arrivo, darò un'occhiata alle tecniche di cappello nero, bianco e grigio per dare una chiara visione di quali possono essere usati in sicurezza e quali no. Il problema che molti hanno riscontrato è che alcuni "esperti" SEO, meno che rispettabili, hanno utilizzato tecniche black hat per conquistare più clienti e guadagnare rapidamente. Questo è il motivo per cui alcuni siti aziendali sono scesi come una pietra verso il basso nelle classifiche, spesso inconsapevoli di aver fatto qualcosa di sbagliato.

Le tecniche black hat includono:

  • codice di imballaggio con testo "nascosto" ;
  • collegare le farm in cui un gruppo di siti si collegano l'un l'altro per inviare spam all'indice di un motore di ricerca;
  • blog spam, utilizzando il campo commenti su blog e forum per posizionare link ad altri siti;
  • scraping, una pratica in cui un sito prende il contenuto da un altro per apparire più prezioso per i motori di ricerca;
  • pagine doorway utilizzate con l'intenzione di allettare i cercatori con frasi non correlate al contenuto del sito;
  • hosting parassitario , in cui un sito è ospitato sul server di qualcun altro senza permesso;
  • cloaking, una tecnica in cui lo spider dei motori di ricerca vede contenuti diversi all'utente finale che vede attraverso un browser.

I metodi black hat sono considerati non etici da molti professionisti del Web, poiché utilizzano tattiche che promettono rapidi ritorni, ma corrono la possibilità di danneggiare la reputazione, il sito Web e, a loro volta, i profitti dell'azienda.

L'utilizzo di metodi black hat spesso significa che un sito non deve attendere mesi per i link back, come faresti con i tradizionali metodi white hat. Tuttavia, riempie anche Internet di informazioni e spam inutili e negli anni ha seriamente compromesso la ricerca.

È anche più economico per lo stratega SEO eseguire quanto spesso, una rete di blog sarà già impostata per il collegamento e non dipende in gran parte da analisi e contenuti, come fanno le pratiche white hat.

Non solo l'utilizzo di metodi black hat spesso porta alla minaccia di azioni legali, se vengono utilizzati insieme a una campagna PPC, possono essere previste pesanti sanzioni dall'host pubblicitario.

Non è raccomandato che un sito utilizzi tecniche black hat a causa delle sanzioni previste, in termini di azione legale, reputazione e minaccia di non posizionamento. Tuttavia, non c'è dubbio che non fermerà tutti, nonostante gli aggiornamenti di Google.

Detto questo, stiamo già vedendo i laminatoi di contenuti cadere rapidamente giù per le classifiche, quindi gli aggiornamenti sono ovviamente funzionanti in quanto questa è una delle aree chiave che Google ha voluto affrontare.

Google e tutti i principali motori di ricerca hanno una visione, una che intende ripulire il Web e eliminare le cattive pratiche, portando a contenuti più utili che appaiono nella parte superiore della ricerca di tutti noi. Sia che tu usi o meno tecniche black hat è tra te e la tua coscienza, ma certamente io per primo sono contento della capacità di cercare e non di trovare una pagina piena di cianfrusaglie prima di arrivare a quello che voglio.

Quali problemi hai incontrato come risultato di Panda e Penguin? Come hai risolto le tecniche black hat utilizzate dai predecessori? Fateci sapere nei commenti.

Immagine in primo piano / miniatura, cerca immagine via Shutterstock.