A proposito di ricerche specifiche

No Comments »

Tanto per chiudere la settimana in allegria :-)

Da tempo si fa un gran parlare dell’evoluzione degli utenti nel modo di utilizzare e “interrogare” i motori di ricerca. La tesi, che peraltro mi trova concorde, è che le ricerche generiche (di uno o due termini) stiano lasciando il posto a query sempre più specifiche e mirate.

Ciò premesso la chiave di ricerca che mi sono trovato questa mattina tra i referer di questo blog è davvero sorprendente:

“quanto bisogna essere alte minimo per essere modelle per esempio adriana lima quanto è alta”

Non penso che l’utente (spero ragazza :-) ) abbia trovato una risposta significativa su Seotalk, però in compenso avrà scoperto l’estistenaza del SEO :-)

Che dite posso confidare sull’analisi della user experience da parte di Google, per perdere questo ottimo posizionamento acquisito? :-)

Vabbè scusate lo sclero, ma il venerdì pomeriggio tutto è concesso!

Registrazione dei domini scaduti: fine del business

No Comments »

Come molti di voi già sapranno, la registrazione di domini scaduti è diventato, in particolare negli ultimi tre anni, un vero business. Anche in Italia il fenomeno ha preso piede e, fino a poco tempo fa, alle 24.00 il nic veniva intasato di fax di lettere LAR.

Prima di continuare, faccio un breve riepilogo per chi non fosse a conoscenza del fenomeno: a causa di alcune caratteristiche dell’algoritmo di Google, quali:

  1. la link popularity
  2. l’importanza data all’età di un sito.
  3. il pagerank.

La registrazione di domini scaduti, già presenti nell’indice di Google e, quindi, già linkati da altri siti, era diventata una pratica molto comune per abbreviare i tempi di indicizzazione richiesta dai nuovi siti.
Il fenomeno, in Italia, ha interessato soprattutto aziende che, una volta registrati i siti scaduti, li utilizzavano per la pubblicazione di annunci sponsorizzati, utilizzando principalmente partership con i circuiti di Miva, Yahoo, ecc.
Google in verità aveva già parzialmente risolto il problema, diminuendo di molto il ciclo di vita (circa 30 gg.) di questi siti: un dominio scaduto, una volta “ri-registrato” può essere facilmente individuato grazie ad alcuni fattori: cambio argomenti trattati dal sito, aumento esponenziale delle pagine del sito, ecc.
Il tempo necessario a Google per l’individuazione dei suddetti elementi, rendeva comunque ancora redditizia questa pratica, a chi era riuscito ad automatizza tutte le procedure di registrazione e pubblicazione di nuovi file.

Oggi, per merito (o per colpa del nic) questo fenomeno, almeno per i “.it”, sembra giunto al termine: ho appena scoperto, infatti, che il Registro italiano ha definito nuove linee guida, in particolare ha stabilito che dopo 60 giorni dalla scadenza:”… Il Registro provvede anche a rimuovere le deleghe relative ai nameserver autoritativi per il nome a dominio in oggetto rendendo, di fatto, il nome a dominio non più raggiungibile sulla rete Internet, pur mantenendo però l’assegnazione del nome a dominio stesso al Registrante….
Semplificando, mentre prima i domini in pending erano comunque raggiungibili dagli utenti e dagli spider dei motori di ricerca (tutti voi vi sarete imbattuti nelle classiche pagine “dominio scaduto” con il logo dell’hosting di turno), ora per 30 giorni i DNS non saranno più risolvibili, ciò renderà irraggiungibili i domini in scadenza.
Questo, presumo, semplificherà di molto l’individuazione dei domini scaduti e quindi la loro esclusione dagli indici dei motori di ricerca, rendendo inutile la registrazione dei domini scaduti.

Rilevanza dei click nelle serp

No Comments »

Oggi ho deciso di parlare di uno dei tanti miti che circola nell’ambiente dei SEO: la rilevanza, ai fini del posizionamento nei risultati naturali di Google, dei click che un sito riceve nelle SERP (Search Engine Result Pages) del noto motore di ricerca.
Molti sono i SEO che sostengono la tesi secondo la quale un elevato click through rate (rapporto tra numero di click e numero di impression) possa essere benefico per il miglioramento dei posizionamenti di un sito nei risultati naturali.
La ragione della diffusione di questa tesi è data principalmente dal fatto che Google, a intervalli più o meno regolari, interpone una sua pagina di tracciamento nel passaggio dalla pagina di risultati ai siti recensiti.
Personalmente non credo molto in questa teoria, per vari motivi:

  1. I siti presenti nei primi 10 risultati sarebbero troppo avvantaggiati rispetto agli altri
  2. La mole di dati da analizzare, dato l’elevato numero di ricerche e di siti presenti in Google, sarebbe davvero impressionante.
  3. Se il click through rate fosse davvero un fattore in grado di influenzare il posizionamento di un sito, la sua rilevazione dovrebbe essere continua e non saltuaria, come oggi avviene.

Penso invece che i motivi che hanno spinto Google ad implementare questa sorta di tracciamento siano diversi e solo alcuni di essi possano essere ritenuti inerenti le logiche SEO: i dati raccolti in questa fasi, infatti, possono essere molto utili per fornire informazioni su elementi come:

  1. Il numero di risultati presi in considerazione dagli utenti.
  2. La propensione a confrontare più risultati a seconda delle aree o settori (travel, finance, educational, ecc.)
  3. La soddisfazione degli utenti: in particolare nei settori non di business, quindi non di confronto prodotti/prezzi, un elevato numero di risultati cliccati, potrebbe segnalare a Google che i siti proposti in prima pagina non hanno soddisfatto gli utenti.
  4. La diversa distribuzione di click tra la prima pagina e le successive.
  5. La diversa distribuzione dei click all’interno della pagina (non dimentichiamo che il buon Google deve comunque posizionare i suoi annunci sponsorizzati e capire fin dove spingersi con le posizioni premium).

Riassumendo: è vero che lo stesso Google afferma di voler prendere sempre in maggiore considerazione le scelte degli utenti, ed è anche vero che lo stesso analytics e la toolbar installata su moltissimi PC, possono fornire dati molto interessanti agli analisti di Mountain View.
Però credo, che le suddette informazioni, dato il loro immenso volume, possano essere utili per estrapolare delle regole generali di settore o tipologia di target, non certo per fornire elementi di ranking per ogni singolo sito presente nell’indice del motore di ricerca.

Ancora sul nofollow

No Comments »

Faccio prima una piccola premessa per i lettori meno esperti: circa verso la fine del 2004 (se non ricordo male) è stato introdotto l’attributo “rel” del tag “<a>”. Questo attributo, se valorizzato come “nofolow”, indica agli spider dei motori di ricerca di non seguire quel determinato link.

Da allora molte sono state le discussioni che si sono sviluppate su questo elemento: si è spesso affermato che la presenza del “nofollow” possa essere interpretato dai motori di ricerca come un indice di spam (del tipo: perché linki una risorsa e poi mi dici di non seguirla?), oppure che gli spider dei motori di ricerca seguono lo stesso i link (teoria supportata dai file di log), ma poi questi ultimi non vengono comunque considerati ai fini del calcolo del pagerank (semplificando il valore del pagerank di un documento web è dato dal rapporto tra i link in entrata che questo riceve e il numero di link presenti sul documento stesso).

Personalmente non nutro molta simpatia per il nofollow, ma non voglio entrare nel merito di questa discussione.

Oggi, però, consultando il pannello che Google fornisce ai webmaster, ho notato che non solo il noto motore di ricerca registra comunque tutti i link che presentano il nofollow, ma sembra(e sottolineo SEMBRA) che consideri le inclusioni mediante frame come link.


Come potete notare dallo screenshot, nel report relativo ai link in entrata che Google ha rilevato in rete al sito di Sembox, ci sono anche i link di segnalo.alice.it (il quale notoriamente utilizza l’attributo rel=nofollow).

Fin qui “diciamo” niente di strano, se non fosse che segnalo.alice non utilizza comunque link diretti,
ma adotta due differenti soluzioni:

  1. linka o ad una pagina interna che poi richiama, mediante un frame, il sito in questione (http://segnalo.alice.it/f.php?us=e6f062459540eb0663c35aebb81c8c49)
  2. Utilizza un dominio di proxy http://www.miosito.it.nyud.net:8090/

Mah, sta a vedere che per la link popularity non contano più solo i link diretti! :-)

Come ti imbroglio il web 2.0

No Comments »

Anche lo spam diventa 2.0

Ormai è da un bel po’ che si fa un gran parlare dei vantaggi e delle favolose caratteristiche del web 2.0, anche io al SES ho avuto parole di elogio per l’interattività e il valore aggiunto apportato dai contenuti inseriti dagli utenti (a proposito: qui potete scaricare le slide del mio intervento).

Oggi, però, ho deciso di scrivere un post provocatorio sui, possibili, nuovi modi di spam insiti nelle principali caratteristiche delle piattaforme di social network e di blog.
Per farlo, però, ho bisogno di fare un piccolo schema riassuntivo dei fattori che andrò ad analizzare:

  • I link hanno sempre più importanza.
  • Il tipo di comunicazione informale e l’interattività che caratterizzano i blog, favoriscono il fenomeno dei link spontanei.
  • Grazie alla facilità e alla immediatezza delle piattaforme di Blog, anche chi non ha nessuna nozione di l’html, può gestire un sito web.
  • La possibilità data agli utenti di inserire facilmente contenuti sul web ha dato vita a una mole di informazioni costantemente aggiornata.
  • I siti che ospitano informazioni interessanti o che si “prestano al commento”, acquisiscono facilmente visibilità.
  • Nel SEO, i fattori on site, hanno perso di rilevanza a favore dei fattori off site(in particolare la link popularity).

Ok, poste queste premesse, proviamo a immaginare quale forma di spam sia ora possibile:

  • Keyword density: nemmeno a parlarne, si dice che gli algoritmi dei motori di ricerca abbiano fatto un grande passo in avanti nella semantica e nell’analisi dei contenuti.
  • Keyword stuffing: peggio che andar di notte.
  • Directory e network di siti: ma non scherziamo, i motori non danno più peso alle directory, in più costruito fantastici tool e acquisito piattaforme per studiare il comportamento degli utenti e individuare i “link autentici”
  • Redirect in javascript e testo nascosto ormai non sono più nemmeno degni di nota.

Ma allora che fare ?!?! Dovremmo forse costruire una pagina “PIA” in cui dare consigli e dritte agli utenti, e poi magari linkare questa pagina con un bell’article marketing, in modo da generare link spontanei al nostro contenuto?
Oppure dovremmo immaginarci un’azione di viral marketing che generi rumor (e quindi link) sul nostro progetto?
Oppure dobbiamo distribuire gratis i nostri contenuti, mediante RSS, in modo che tanti webmasterini in cerca di contenuti da pubblicare, includano il nostro feed (e i nostri link) sui loro siti?
Ma non è che per caso dobbiamo costruirci dei bookmarks con dei link “interessanti” e poi “segnalarli” ai motori di ricerca?
Ma siamo sicuri che affidare al comportamento degli utenti e ai link, la valutazione dei nostri contenuti sia un passo in avanti?
In fondo l’essere umano è sempre stato bravo a manipolare i suoi simili, vuoi che non riusciamo a inventarci metodi per veicolare la navigazione degli utenti?
Ma poi: siamo sicuri che attribuire tanta importanza a una piccola fetta di popolazione che gestisce siti, e quindi può inserire link ad altri domini, sia giusto per determinare la rilevanza di un’informazione?
Vabbè, questa sera mi è presa così: spero comunque di aver fornito dei piccoli spunti di riflessione :-)