www.ivanobambini.it 
Nome utente:
Password:
Nuovo utente

Check your website
HOME | chi sono | portfolio | altro | dove sono | contatti | links |

pointer
I motori di ricerca
-Breve storia
-Come funzionano
-Siti dinamici, Flash, frames
-CMS e indicizzazione
-Spam e guerra agli spammer
-Sull'attendibilita'
-Segnalare un sito
pointer
La professione SEO
-SEO, cosa significa
-Costruire una campagna SEO
-WEB directory e SEO
-Gli algoritmi dei motori
-Keyword density
-Link popularity
-Doorway pages e Cloaking
pointer
Il PageRank di Google
-Introduzione
-Come funziona il PageRank
-Come si calcola il PageRank
-PageRank e struttura dei link
-Conclusioni
pointer
Strumenti utili
-Cosa vedono gli spider
-Risorse e servizi online
-Webmaster tools
-Esempio di analisi di siti web
-Glossario
pointerLa professione SEO

SEO, cosa significa

SEO: Search Engines Optimization, se riferito alle azioni che un professionista intraprende per agevolare la scalata di un sito WEB alle classifiche dei motori di ricerca. Oppure: Search Engine Optimizer, se riferito al professionista stesso.

Per alcuni, erroneamente, la professione SEO consiste nell'apprendere una serie di espedienti e tecniche particolari. Sarebbe possibile restringere a questo la professione, se le regole di funzionamento dei motori di ricerca fossero immutate nel tempo, ma non è così: basare il costrutto e i contenuti del proprio sito su un insieme di regole o trucchi che si suppone in grado di intercettare il comportamento dei motori, non dà assoluta certezza di raggiungere lo scopo. Non è sufficiente conoscere e sperimentare trucchi, in molti casi può essere addirittura fuorviante: fondamentale è riuscire a comprendere la logica applicata dai motori di ricerca. Si tratta di macchine e software, ma il loro funzionamento non è affatto elementare, anche se non paragonabile all'elasticità e alla versatilità di una mente umana. Due sono le azioni che essi compiono:

  • raccolta di informazioni dal WEB, cioè acquisizione di tutti i documenti che compongono il WEB ripercorrendo i loro percorsi
  • classificazione di tutti i documenti attraverso algoritmi per determinare la rilevanza del singolo documento
Ebbene, questi algoritmi cambiano continuamente, adattandosi alle sfide dei prodotti dell'uomo. I fattori che concorrono a questo continuo adattamento sono:
  1. I link, veicoli attraverso i quali possiamo prelevare ciò che ci serve in un determinato contesto
  2. Gli spider (robots o crawlers), che indicizzano una pagina dietro l'altra seguendo i link
  3. Il software, che tenta di emulare il più possibile il comportamento umano
Questo terzo elemento è il più complesso, in quanto deve tenere conto non solo dei fattori che determinano la priorità di un documento rispetto a un altro, ma anche neutralizzare tutti gli artifici dei webmaster per falsare i risultati di una ricerca. Per artifici, si intende una serie di espedienti che provocano la scalata di un documento ingannando l'ordine di rilevanza. I motori sono servizi rivolti agli utenti, e devono essere capaci di restituire sempre ciò che gli utenti si aspettano. Per questo devono applicare dei filtri, in grado di declassare o addirittura escludere quei documenti che contengono trucchi, o appositamente costruiti per ingannare il software. Questi software devono quindi:
  • Comprendere la rilevanza di un contenuto attraverso l'analisi dei link che puntano ad esso
  • Riuscire a decifrare il contenuto di documenti scritti con tecnologie non tradizionali (Flash o CMS)
  • Comprendere i metodi di SPAM (testi nascosti, doorway, link fasulli, etc) per penalizzare i siti coinvolti in queste pratiche.
Ogni volta che un fattore di questa continua evoluzione viene rilevato, esso viene introdotto negli algoritmi, e contribuisce a modificare e ampliare il livello di conoscenza del software: per questo motivo, i parametri cambiano e si aggiornano continuamente, ed insieme ad essi cambiano i risultati. E' questa la prima sfida che deve affrontare un SEO: non basta applicare tecniche anche sofisticate per raggiungere un posizionamento, se poi non si è in grado di mantenerlo.

Per un lungo periodo di tempo gli spammer si sono concentrati sulla densità di parole chiave, e quando questa scappatoia è stata neutralizzata, si è passati alla pratica di linkare reciprocamente reti di siti WEB per incrementare artificiosamente la link popularity. Ma attualmente neppure questa tecnica ottiene risultati. Le uniche tecniche che ottengono risultati sono le seguenti:

  • creare un sito che, rispetto all'argomento trattato, offre una grande quantità di contenuti rilevanti, e viene continuamente aggiornato e arricchito di nuovi contenuti.
  • costruire una serie di link reciproci con siti attinenti l'argomento trattato in modo da fornire all'utente la possibilità di navigare sull'argomento senza dover ricorrere continuamente al motore di ricerca.



Inizio pagina Inizio pagina
[HOME] [chi sono] [portfolio] [altro] [dove sono] [contatti] [links]

Ultimo aggiornamento pagina: 15/02/2007 10:32:30