Chi si occupa di posizionamento e/o comunque di web marketing a livello professionale, non può non essere arrivato alla conclusione che, i motori di ricerca, Google in primis, abbiano raggiunto una maturità tale da poter capire bene se un sito ha dei contenuti e per questo vada premiato, oppure se lo stesso usi sistemi più o meno avanzati di spamming, testi nascosti, network di link artificiali per cercare di ingannarli.

Senza bisogno di far intervenire i suoi Q.R (quality raters) google possiede già al momento alcuni algoritmi che possono mettere in seria difficoltà chi usa sistemi borderline, almeno quelli tradizionali 😉 e in questi ultimi mesi questa lotta ha subito una accellerazione, possiamo stabilire una data all’incirca dall’entrata in azione del Big daddy, del quale ne parlò a suo tempo anche Matt Cutt nel suo interessantissimo e autorevole blog, purtroppo con la limitazione della sola lingua inglese, per chi la mastica poco.

Anche chi vi parla non vuole certo fare l’angioletto, sfido chiunque degli addetti ai lavori a non avere usato i suoi metodi più o meno empirici e a non aver fatto i suoi test, ma questo è anche molto utile per poi capirne i vantaggi e gli svantaggi, l’importante è adeguarsi ai tempi e adattarvisi, per non rimanere ancorati a modi di pensare e di gestire il web in modo anacronistico, nonchè ormai molto rischioso.

Iniziamo a ragionare per logica: il web è composto da macchine, da server e queste macchine hanno le loro potenzialità e quindi i loro limiti. un motore di ricerca avanzato come Google, nonostante abbia mezzi e tecnologie da far rabbrividire, non sfugge di certo a questa legge e quindi ha anche lui i suoi limiti. Limiti di banda, limiti di storage di dati e di personale, nessuno ha il dono dell’onnipresenza e dell’onnipotenza e quindi, se ragioniamo nell’ottica che ogni azione di Google impegna tempo, risorse e personale, possiamo dire che ogni sua azione sia verosimilmente tesa al risparmio massimo di queste risorse.

Questo ci è stato dimostrato tempo fa, quando a ripetute richieste provenienti dallo stesso Ip, Google rispondeva con un messaggio automatico e impediva il proseguimento di richieste e ricerche ravvicinate nel tempo, perchè se non per risparmiare risorse?

Un altro segnale della impellente necessità di Google di risparmiare dappertutto si ha constatando il giro di vite che ha applicato al suo filtro anti-duplicazione che è ancora maggiormente selettivo, lasciando fuori dai suoi indici quelle pagine giudicate “troppo simili” per essere restituite nelle serp.

Non ho fatto questo discorso a casaccio come potrete immaginare, l’ho iniziato infatti per farvi capire che se noi ragioniamo con la logica di far risparmiare google, saremo premiati.

Partiamo dalla struttura delle nostre pagine: se iniziamo a costruire un sito web e usiamo una struttura antiquata, usando tabelle annidate, non usando css, infarcendo le pagine di grosse porzioni di javascript e quant’altro, renderemo sicuramente più difficile la visita dei suoi spider, se invece usiamo una leggera struttura tableless fatta a div+ css esterni, trasportiamo all’esterno i nostri file . js otteniamo il risultato di rendergli la vita facile, velocizzandone l’azione.

Secondo elemento il nostro server: un buon progetto web, necessita di essere ospitato in un buon server, che sia dotato di un buon processore e preferibilmente che abbia un suo Ip dedicato, purtroppo assistiamo ogni giorno al contrario, siti anche abbastanza impegnativi e a volte meritevoli a livello di contenuti, ospitati in hosting economici e con IP e spazi condivisi da centinaia e non di rado migliaia di altri siti web., è come se dichiarassimo a Google, mah in fondo non ci credo neppure io a questo progetto……. Vi siete domandati perchè allora dovrebbe farlo lui?

Terzo elemento i contenuti: so che avete pensato subito “e ridagli con sti contenuti” purtroppo è così, allo stato delle cose non possiamo pensare di emergere in un mare formato da miliardi di pagine se non mettiamo dei contenuti sul nostro sito e occhio, parlo di contenuti unici, quindi non di copie di altri siti, dobbiamo sforzarci di essere per Google diversi da tutti gli altri e anche in questo caso saremo premiati.

Quarto elemento la popolarità: che sta diventando di certo l’elemento portante che può fare il successo o il fallimento di qualsiasi progetto web, per ottenere una certa popolarità, il vostro sito deve poter interessare gli altri e offrire risorse interessanti affinchè arrivino link spontanei dall’esterno e si crei quel circolo virtuoso che vi permetterà di aumentare gradatamente questo importante parametro.

Gualtiero Santucci.