Durante le nostre attività SEO, qualora esse siano basate – come quasi sempre accade – sul monitaggio di un insieme (prestabilito col cliente) di chiavi di ricerca, che alcune di esse abbiano subito un crollo improvviso o comunque non vogliano saperne di “risalire”: il problema è essenzialmente legato ad un mix di scarsa pertinenza delle pagine e, in certi casi, di strategie di backlinking errate o poco mirate. Come si interviene in questi casi?
Lo scenario attuale
La situazione in cui si verifichi un crollo apparentemente irreversibile di posizionamento è piuttosto delicata, e può essere risolta soltanto nel tempo, con un’applicazione ostinata e costante di determinati principi e, in un certo senso, con un po’ di fortuna nell’approcciare al posizionamento che Google propone volta per volta. Sappiamo che, a partire dal notissimo Hammingbird – di cui ancora mi sfugge la reale portata, a dire la verità, ma che quasi certamente sta già facendo sentire la propria influenza da qualche tempo – gli algoritmi di ranking del celebre motore non solo sono ignoti ai più, ma presentano caratteristiche dinamiche, variabili e probabilmente “adattative” che rendono vano qualsiasi tentativo di reverse engineering (tanto più se basato su idee fallaci come la celebre e malintesa correlazione statistica).
Ci troviamo quindi a lavorare al buio, abbiamo davanti una black box di cui conosciamo gli effetti senza avere alcuna idea, se non vaga, delle cause, e cerchiamo di estrapolare il meglio da ciò che riusciamo a percepire lavorando per deduzioni sensate, affinate giorno dopo giorno.
Monitoraggio delle chiavi
Questa fase avviene rilevando, in un periodo di almeno una settimana a mio avviso, il comportamento di una pagina del nostro sito rispetto ad una chiave di ricerca di nostro interesse: questa azione dovrebbe essere quotidiana, nel senso che almeno una volta al giorno, anche due nei casi più critici, dovremmo andare a monitorare in che posizione di Google ci troviamo. Per farlo, personalmente, mi trovo molto bene con SEOPanel, un software open source PHP-MySQL based che permette di inserire un numero di siti, chiavi di ricerca e quant’altro a piacere, dandovi anche la possibilità di misurare metriche quantitative (AlexaRank, PageRank) che continuano a piacere a molti clienti, nonostante siano solo numerini buttati lì che implicano poco o nulla a livello pratico. So anche che questo software viene bistrattato da parte della comunità SEO per via del suo utilizzo un po’ complesso, senza contare che non è neanche banale da configurare, e su certi hosting, a dirla tutta, funziona solo dopo adeguata configurazione: tuttavia, analizzando il codice PHP che usa per rilevare i posizionamenti dei siti, si può vedere come si tratti di uno dei pochi strumenti che misura realmente i ranking di Google.com, Google.it, Bing.com e così via, andando ad effettuare un parsing dei risultati di ricerca effettivi senza scomodare improbabili ed astratti indici di qualità o costringervi, come fa ad esempio Moz, ad implementare un motore di ricerca vostro e misurare i risultati lì dentro (cosa poco utile, a mio umile avviso, visto che stiamo parlando di cali di ranking effettivamente visibili anche dal vostro povero cliente).
Targeting delle pagine
Nell’ambito di cui si discute, molto spesso ho notato che un problema comune è che la pagina “eletta” da Google a “rappresentare” la vostra chiave di ricerca X è spesso sbagliata: faccio un esempio veloce per farmi capire. Poniamo di avere sole due pagine nel nostro sito, per semplicità, di cui una incentrata sugli hosting e l’altra sui server di PEC: si tratta di due pagine di vendita di servizi web che stiamo ottimizzando, ad esempio, per la chiave di ricerca “hosting“: andando a misurare il posizionamento ci accorgiamo che la pagina che compare in posizione 95 di Google, ad esempio, è quella relativa alla posta Certificata. Beccato il problema: si tratta di un caso di targeting chiave-pagina errato, che dovremo provare a correggere agendo in due direzioni parallele:
- da un lato dovremo assicurarci che le due pagine siano correttamente focalizzate sui temi che dichiarano di possedere, nel senso che la pagina di hosting dovrebbe descrivere nel dettaglio vantaggi, caratteristiche ed eventuali FAQ del prodotto hosting, mentre l’altra dovrebbe coprire le tematiche di sicurezza della posta, della crittografia PEC e così via. Il tutto deve avvenire senza sovrapposizioni, senza equivoci e senza ambiguità che possano confondere l’utilizzatore. Non ci sono dubbi che, in molti casi, basti utilizzare dei title sbagliati o “sovraottimizzati” (neologismo che non amo, ma è solo per capirci) perchè Google prenda fischi per fiaschi.
- dall’altro lato, inoltre, faremo in modo di linkare in modo sensato le due pagine esternamente, utilizzando le àncore testuali come se fossero “guide” per il navigatore (solitario) del web, in modo che aiutino nell’orientamento dello stesso e quindi, di riflesso, anche del motore di ricerca. I bookmark, in questi casi, oppure un bel guest post approfondito, possono essere di grande aiuto, con tutte le consuete riserve del caso.
È anche possibile, per completezza, che il lavoro in questione richieda un copy che possa andare a riscrivere i testi del sito, aggiungerne di nuovi oppure realizzare un sostanziale refactoring del sito (in termini di contenuti delle FAQ, del blog e così via), specialmente qualora la qualità dei suoi contenuti sia particolarmente scadente (scopiazzata, riciclata, poco aggiornata e così via).
Scovare eventuali penalizzazioni e link sospetti
Molte volte, anche se dubito sia una regola applicabile universalmente, un corretto targeting delle pagine aiuta naturalmente il ranking a recuperare posizioni, spesso anche di 30-40 posizioni in un solo giorno e sempre ammesso che, ovviamente, che non siate vittima di una penalizzazione automatica (non notificata da Google) o manuale (notificata nel WMT o WebMaster Tools del vostro sito). Il monitoraggio dei backlink esterni, ricordo, non riguarda solo chi ci linka dall’esterno – spesso su nostra esplicita richiesta – ma anche l’interlinking del sito, che dovrebbe essere realizzato in modo sensato cercando di aiutare l’utente a trovare più rapidamente possibile ciò che sta cercando.
Ricapitolando direi che:
- l’ottimizzazione globale impone di rivedere i link in ingresso, analizzare WMT ed analytics, identificare link sospetti, diversificare le fonti di traffico;
- l’ottimizzazione locale tende invece a farci realizzare siti web che siano realmente validi, facili da navigare e non “pesanti” per l’utente sotto alcun punto di vista.
Attenzione che le cose che ho scritto ricalcano semplicemente parte del mio modo di lavorare – visto che una parte del lavoro SEO, risaputamente, avviene su connessione SSL in modalità top-secret e rigorosamente in notturna, lontano da occhi indiscreti 😉 – e potrebbero non applicarsi ciecamente al vostro caso specifico. Vi garantisco inoltre che l’attività di recupero di ranking di scarso livello è una delle attività più difficili, ma anche più affascinanti, del nostro lavoro, per cui non arrendetevi e continuate a provare varie soluzioni, possibilmente una alla volta in modo da verificare cosa sembra funzionare, cosa lascia indifferente Google e cosa invece sembra provocare danni. Se avete osservazioni, commenti o domande aspetto le vostre considerazioni di seguito.