La Google Sandbox leggenda o realtà?
La Google Sandbox leggenda o realtà?
Prima di iniziare a spiegare cosa sia la sandbox chiariamo alcuni punti:
- si tratta di una teoria senza alcuna conferma ufficiale da parte di Google, né il beneficio di anni di osservazione, essendo un fenomeno molto recente;
- la teoria della sandbox ha avuto inizio nell’estate del 2004 ma si è confermata come fenomeno su larga scala dopo uno dei più grandi aggiornamenti dell’algoritmo di Google, avvenuto il 4 febbraio 2005 (denominato “Allegra”: un nome alquanto irridente data la disperazione di molti addetti ai lavori);
- senza poter avere la verifica assoluta della teoria, né tantomeno, potendo osservarne in modo scientifico le relative caratteristiche, è assai difficile porvi dei rimedi;
- la maggior parte di tutto quello che si legge su internet al riguardo della sandbox è pura congettura derivante dalle esperienze individuali e professionali dei maggiori esperti nel campo del SEO.
Cos è la Google SandBox?
Ci sono diverse teorie che tentano di spiegare gli effetti della sandbox. Principalmente il problema è semplice: i webmaster di tutto il mondo si sono accorti che i loro nuovi siti, superottimizzati e pronti al “lancio” sulle classifiche di Google, non riescono a posizionarsi in modo positivo su di esso per tutte le più importanti parole chiave. Tutti i siti creati dopo il mese di marzo 2004 (risentono (o hanno già risentito) degli effetti della sandbox, a differenza dei siti registrati prima di quella data.
Il fenomeno è poi cresciuto in misura esponenziale con un successivo aggiornamento dell’algoritmo di Google, nel febbraio 2005 (update Allegra). Quell’aggiornamento di Google ha determinato forti fluttuazioni che hanno visto siti ai vertici scomparire dalle graduatorie a beneficio di siti che, sbalorditi da tanta grazia, si sono trovati in posizioni di alta classifica. L’aggiornamento Allegra ha fornito la palese evidenza dell’esistenza della sandbox mediante l’”esodo” di una enorme quantità di siti verso di essa.
Chi controlla i propri files di log potrà osservare che, nel periodo in cui il sito si trova nella sandbox, lo spider GoogleBot “passa” regolarmente e visita le pagine del sito che, ciò nonostante, non riesce ad acquisire visibilità.
Durata della sandbox.
Non esiste un termine temporale certo. L’esperienza insegna che la sandbox può durare da un minimo di 6 mesi ad oltre un anno.
Possibili spiegazioni dell’introduzione della sandbox.
Una spiegazione generalmente accettata circa l’introduzione di questo filtro che penalizza de facto i siti di nuova costituzione, è quella di una “dilazione temporale” che Google imporrebbe ai nuovi siti. Si pensa che questa dilazione sia determinata dalla volontà di Google di individuare e preferire siti di buona qualità, con contenuti rilevanti e aggiornati frequentemente. L’esistenza della sandbox tende a mettere in grave difficoltà soprattutto tutti quei webmasters neofiti alle prime armi che in questo modo vengono frustrati dai risultati negativi e finiscono per abbandonare i loro sforzi nel campo del SEO. Questo è esattamente ciò che Google vuole. Ricordiamoci che l’ambizione (forse ormai un’utopia) di Google è quella di proporre all’utenza un database “democratico” ovvero che rifletta la realtà, qualitativamente parlando, dei siti e dei contenuti presenti sul web, senza subire alterazioni e manipolazioni mediante astuzie e stratagemmi da parte dei webmasters.
Occorre dire che il fenomeno non colpisce matematicamente tutti i siti, pertanto sembra esistere qualche altro motivo oltre alla “giovinezza” del sito data la sua recente creazione. In particolare i fattori che sembrano favorire l’ingresso verso la sandbox sono:
- eccessivo tasso di crescita dei links in entrata nel sito (segnale di una struttura artificiale e non naturale della link popularity del sito);
- il grado di differenziazione delle classi IP dei siti che linkano: un arco differenziato di links – con numerazioni diverse – è segnale di una struttura di links naturale, al contrario di links provenienti tutti da una stessa classe IP che può indicare il frutto di una intesa o collaborazione “off line” voluta al fine di alterare, incrementadolo, il fattore del page rank e di link popularity;
- la misura in cui i links in entrata hanno un medesimo anchor text. Se avete accesso ad altri siti cercate di variare il testo del link. Gli stessi anchor text indicano a Google che esiste una strategia studiata a tavolino per distribuire links attraverso specifici accordi commerciali. E’ infatti improbabile nella realtà che tutti i links che un sito riceve abbiano sempre lo stesso testo nell’ancoraggio.
- Tecniche di ottimizzazione “aggressiva”: doorways, cloaking, pagine con testo nascosto,ecc.
- Tecniche di ottimizzazione per le parole chiavi maggiormente richieste. Sembra, il condizionale è necessario, che la sandbox venga attivata per i siti che cercano di posizionarsi sulle keywords principali. In questo caso anche il tempo di permanenza nella sandbox risulta decisamente allungato rispetto al lasso di tempo minimo (3-4 mesi) potendo perdurare anche oltre un anno.
Questa dilazione temporale costituisce attualmente la “gavetta” che il sito deve fare su Google. Il modo per porre fine al periodo di “purgatorio” è quello di incrementare il numero di links ricevuti da altri siti (inbound). Esiste infatti una teoria denominata “link threshold” secondo la quale i webmaster, una volta che abbiano accumulato una certa quantità di links in entrata vedono il proprio sito rilasciato dalla “gabbia” della sandbox. Non è affatto consigliabile però una campagna di acquisizione di links su vasta scala in modo massiccio. Il sito deve ricevere una quantità costante e graduale di links, tempo dopo tempo, senza “esplosioni” massicce ed improvvise. Il “rilascio” dei siti presenti nella sandbox avviene generalmente su larga scala piuttosto che individualmente uno per uno. Pertanto sembra che Google rilasci improvvisamente – tutti insieme – i siti che per un certo periodo sono giaciuti nella sandbox.
I siti che vengono colpiti in modo inesorabile dalla sandbox sono quelli che, una volta creati, acquisiscono immediatamente ed in modo massiccio una grande quantità di links per poi non continuare in modo progressivo e costante ad acquisirne altri. Questo agire del webmaster, è evidentemente frutto di una ottimizzazione “spinta” e viene riconosciuta e punita da Google.
Stefano Mc Vey si occupa da molti anni di web marketing con particolare riferimento alle tecniche di ottimizzazione e di posizionamento nei motori di ricerca. La web agency di cui è direttore generale opera nel campo sin dal 1995. Potete contattare Stefano attraverso il sito ufficiale Posizionamentopro.com.
- [25/02/11] Google dichiara guerra alle content farm ed ai link sospetti
- [29/06/07] Il vostro sito è bannato da Google?
- [28/06/07] Google: guerra alla compravendita dei links!
- [26/04/07] Google aggiorna i backlinks
- [19/04/07] Quanti links ha il sito? Te lo dice Google
Un commento a "La Google Sandbox leggenda o realtà?":
Noi amiamo la sandbox che ci preserva dal capitalismo informatico. Non basta investire soldi per andare in alto, ci vogliono contenuti e credibilità!