Sul filtro antiduplicazione

No Comments »

E poi non venitemi a dire che il filtro antiduplicazione dei contenuti funziona bene!!!

Direi che a questo punto, un malpensante potrebbe affermare che:

  • Il filtro antiduplicazione colpisce i più deboli, ma non incide sui “potenti”
  • Che se un sito autorevole duplica un sito minore, quest’ultimo viene penalizzato a vantaggio del primo (giuro negherò quest’affermazione fino alla morte :-) )

Insomma, come direbbe Andreotti, il potere (link popularity e autorevolezza di un sito) logora chi non ce l’ha :-)

Abolire la link popularity

No Comments »

In un precedente post mi è stato chiesto se voglio abolire la link popularity, La risposta per quanto mi riguarda è sicuramente si!
Diciamo che il concetto di link popularity, a mio avviso, è valido (più siti linkano uno documento, più questo documento sarà considerato valido e pieno di contenuti di qualità) però si presta ad essere manipolato troppo facilmente dando vita a molteplici fenomeni spam.
Se analizziamo cosa è successo fino ad ora, infatti, ci rendiamo conto che la link popularity nel tempo ha creato:

  • Il proliferare di directory “web posticce”
  • La nascita, lo sviluppo (e la morte?) degli article marketing e dei “comunicati stampa” farlocchi
  • La proliferazione di siti/blog posticci, incentrati su un unico tema, costruiti con l’unico intento di linkare il sito principale.

Altra cosa che poi contesto alla link popularity è di non essere “democratica”, cioè il potere di un linkare un sito non è facoltà di tutti, ma dei soli possessori di siti/blog, quindi una minuscola parte della popolazione. In più anche in questo caso si possono generare vari errori, infatti l’utente che crea il link o è troppo “smanettone”, e quindi difficilmente regala un link in modo davvero “spontaneo”, oppure è troppo poco esperto del web e rischia di linkare risorse non proprio valide. A tal riguardo vi segnalo l’ultimo caso davvero divertente che ho visto, dove un blogger di Panorama ha linkato questo arbitrage (peraltro di un mio amico, quindi anch’io gli regalo un link, tanto per dimostrare quanto valido e motivato può essere un collegamento ipertestuale :-) ) come risorsa utile per i regali di Natale.

Ma i sottodomini bannati?

No Comments »

In questi giorni si fa un gran parlare circa le ultime rivelazioni, fatte dal buon Matt Cutts, inerenti il diverso trattamento che fino a oggi Google ha riservato alle cartelle di un sito, piuttosto che ai terzi livelli dello stesso.
La novità, almeno quella che emerge dalle notizie che si susseguono in questi giorni, consisterebbe nella decisione, da parte del noto motore di ricerca, di considerare da ora in poi sia i terzi livelli che le cartelle di un sito, nello stesso modo.
Questo significa, dette in parole povere, che i molti siti che hanno utilizzato più sottodomini, per coprire le stesse keyword allo scopo di affollare le SERP dei motori di ricerca (vedi Vivastreet, Kijiji, ecc) da ora in poi non occuperanno più di due risultati (uno indentato all’altro) per pagina.
Fin qui niente da ridire, però mi chiedevo quali effetti avrà questo “accorpamento” sui siti che hanno dei terzi livelli bannati.
Fino a poco tempo fa, per quanto nessuno lo voglia ammettere, molto delle attività SEO consistevano nel farsi creare dei terzi livelli dai proprio clienti, per poi produrre n. doorway pages che redirezionavano in automatico sul dominio principale.
Nonostante siano stati bannati da tempo, on line esiste un vero e proprio cimitero di domini di terzi livelli, appartenenti anche a grandi società, caduti nel dimenticatoio delle agenzie SEO di turno. Se fino ad ora questo non ha creato nessun problema, perché un dominio di terzo livello era trattato come dominio a se stante, ora cosa succederà?
Vediamo i vari scenari:

  • I terzi livelli bannati sono ormai esclusi dall’indice di Google (anche se comunque, da qualche parte, sono ancora presenti nel suo database ) e quindi non avranno alcuna influenza in questa fase.
  • I terzi livelli bannati verranno considerati come cartelle del sito, ma questo non provocherà nessuna penalizzazione dello stesso (diciamo che il concetto di terzo livello bannato verrà sostituito dal concetto di cartella bannata)
  • I terzi livelli bannati verranno considerati come cartelle del sito e questo provocherà una seria penalizzazione per il dominio principale!?!?!

Mah, chi vivrà vedrà, nel frattempo io consiglierei di eliminare tutte le doorway dimenticate on line e di effettuare la richiesta di reinclusione dei sottodomini :-)

Abbassamento di pagerank

No Comments »

Finalmente dico la mia :-)

Come tutto il mondo SEO ormai saprà, nell’ultimo periodo, molti siti anche importanti, hanno subito notevoli abbassamenti di PageRank.
Nel mirino di questa operazione, almeno così sembra, come afferma lo stesso Matt Cutts, sono finiti in particolare i siti rei di aver venduto link a pagamento (sul come faccia poi Google a individuare i link a pagamento, ci si potrebbe scrivere su un trattato…).
Oltre ai molti portali e blog famosi, in Italia ce ne sono stati alcuni di illustri, sembra che siano stati penalizzati in particolar modo i siti di Comunicati stampa e di Article marketing.
Volendo cercare delle caratteristiche che accomunano tutti i siti che hanno visto calare il loro valore di pagerank, possiamo individuare due fattori principali:

  • Tutti sono caratterizzati dalla presenza di molti link esterni, anche se non necessariamente a pagamento (almeno a detta dei diretti proprietari)
  • L’abbassamento del PR non si è rispecchiato, sempre a detta dei diretti interessati, in un calo di visibilità nei motori di ricerca.

Dando per veritieri i suddetti fattori, l’opinione che mi sono fatto è che gli analisti di Google, non abbiano voluto penalizzare i siti che “vendono” link, o che permettono comunque facilmente l’inserimento di link esterni (forum, comunicati stampa, ecc.), ma solo togliere loro il potere di influenzare il funzionamento dell’algoritmo del motori di ricerca.
I link, e la link popularity, infatti ad oggi rappresenta la tecnica più potente per spingere un sito su Google, la logica di base, che non era poi molto sbagliata, è che più una risorsa è linkata da altri siti, più essa è valida.
L’applicazione di questo concetto, si è però dimostrata più difficile di quanto si pensasse: fenomeni come il google bombing, hanno dimostrato che l’algoritmo di Google, mediante i link, è altamente influenzabile manualmente dagli essere umani (o SEO che dir si voglia :-) ).
Insomma come al solito: fatta la legge, trovato l’inganno. Appena ci siamo accorti che i link potevano influenzare la visibilità nei motori di ricerca, sono nate 150.00000 directory free. Poi appena Google ha dato meno peso alle directory, siamo tutti diventati “giornalisti”, grazie anche alle 300.000 piattaforme di article marketing che si sono sviluppate. Ora siamo semplicemente allo step 3: Google si è reso conto che abbiamo nuovamente trovato un modo di ottenere link facilmente, e corre ai ripari. Certo le piattaforme di article marketing, i forum, ecc, a differenza delle directory, non presentano solo link, ma anche moltissimo testo da indicizzare e una frequenza di aggiornamento molto alta (cose che piacciono tantissimo a Google), quindi penalizzarle significava anche rendere meno visibile una bella massa di informazioni.
A questo punto gli analisti di Google possono aver agito nel seguente modo (e questa è la mia teoria):

  • Individuare i siti caratterizzati da molti link in uscita, ma anche molti contenuti.
  • Togliere loro la possibilità di influenzare il posizionamento di altri siti, mediante l’abbassamento del valore del pagerank.
  • Continuare comunque a includere questi siti, data la loro mole di contenuti, nei risultati dei motori di ricerca.

Non credo quindi, come molti hanno affermato, che Google abbia voluto dare un “avvertimento” a questi siti (come sostengono in molti), dandogli modo di correre ai ripari, ma solo privarli (o quanto meno limitarli) del potere di influenzare il posizionamento degli altri siti.

Come deve essere fatto un sito

No Comments »

Spesso, sempre più spesso (aggiungerei per fortuna), mi sento rivolgere la stessa domanda: come dovrebbe essere costruito un sito per far si che questo si posizioni nei motori di ricerca?
Sinceramente, soprattutto da un po’ di tempo a questa parte, rispondere con completezza a questa domanda è diventato davvero un‘impresa proibitiva, sia perché è difficile spiegare a uno sviluppatore, che il suo neonato super funzionale sito web, che, grazie alle “nuove” tecnologie (ajax, flash/xml, ecc) è capace di farti anche il caffè, verrà, molto probabilmente, considerato dai motori di ricerca come “inferiore” a un sito costruito 15 anni fa con frontpage, sia perché ci siamo davvero impegnati a costruire un vocabolario tecnico che fa concorrenza a quello degli ingegneri: link popularity, anchor text, add url, spider, Keyword stuffing, espansione della keyword, ban, doorway pages, e chi più ne ha più ne metta.
Per evitare quindi di iniziare questa impresa apocalittica, e per condividere, comunque, delle informazioni utili con il mio interlocutore, preferisco rispondere capovolgendo la domanda, trasformandola cioè in: come non deve essere fatto un sito.
Nel dettaglio, molto sommariamente, un sito non deve:

  • Essere costruito mediante frame
  • Presentare delle url kilometriche, oppure url caratterizzate dalla presenza di nomi talmente fantasiosi, la cui interpretazione risulta ostica persino al proprio inventore (questo sia ai fini di chi si trova a dover interpretare delle statistiche che per i motori di ricerca)
  • Linkare unicamente le pagine mediante menù in flash o javascript. Dico unicamente, perché se proprio vogliamo avere un menù dagli effetti stratosferici, possiamo comunque contemplare l’idea di avere un menù testuale in html nel footer della pagina.
  • Veicolare le informazioni principali unicamente mediate l’utilizzo di immagini o di flash. In pratica dobbiamo sempre ricordarci che i motori di ricerca accedono solo alle informazioni testuali delle pagine.
  • Essere sviluppato su una sola pagina: questo direi è un punto fondamentale, molte volte ho visto interi portali sviluppati su una sola pagina (siti che funzionano unicamente mediante informazioni salvate in variabili di sessione e cookie, oppure siti sviluppati come unico filmato flash). Presentare tutti i contenuti sotto la stessa url, non solo rende il sito inaccessibile ai motori di ricerca, ma toglie anche la possibilità, a chi si occupa di promuoverlo, di definire delle pagine di atterraggio diverse, a seconda dei prodotti/servizi che si vogliono pubblicizzare, rendendo, di fatto, il sito inappropriato a qualsiasi azione di web marketing.
  • Prevedere che la navigazione inizi per forza dalla home page. L’errore più comune, almeno dei “vecchi progettisti web”, è pensare che l’interazione con il sito inizi sempre partendo dalla home page. L’utente può raggiungere il sito in molteplici modi (blog, motori di ricerca, social network, banner, ecc) e atterrare sulle pagine più impensabili. Quindi tutte le pagine del sito devono:
    • Permettere di raggiungere velocemente le sezioni principali del sito.
    • Contenere almeno una minima informazione sull’azienda/ ente titolare del sito.
  • Essere “geloso” dei propri contenuti: molti siti, infatti, sono costruiti in moto tale che molte informazioni siano raggiungibili solo mediante l’utilizzo di motori di ricerca in terni al sito.

Vi assicuro che se i siti fossero già costruiti rispettando questi punti, il lavoro del seo sarebbe molto ma molto più semplice. :-)

Sulla compravendita di link

No Comments »

Sfogo personale sul “falso mondo” SEO

Ormai si parla da tempo delle penalizzazioni subite da alcuni siti che ospitano link a pagamento, a tal riguardo ho sentito e letto davvero troppe opinioni, tra l’altro devo dire tutte più o meno uguali tra loro.
Devo dire che di questo mondo ho sempre odiato quelli che chiamo i “falsi etici”, cioè le persone (davvero tante, specialmente nelle community e nei forum del settore) che sostengono che comprare un link, oppure adottare una tecnica border line non sia etico nei confronti del web e soprattutto nei confronti di Google!
Sarà che, come molti affermano, sto diventando troppo cinico e pratico, però credo davvero che le cose non “etiche” siano altre, e differiscano di molto dal seguire o meno alla lettera i dettami forniti da un’ azienda quotata in borsa.
Non sto difendendo a spada tratta le tecniche black hat e ne tanto meno promuovendo la compravendita dei link, dico soltato che le motivazioni mosse non mi sembrano davvero molto sensate.
Un giorno vorrei accendere il PC e leggere che:

  1. I seo sconsigliano la compravendita dei link, perché lega i posizionamenti nei risultati naturali dei motori di ricerca, a delle spese fisse e periodiche, rendendo pertanto il SEO del tutto simile al keyword advertising. Il vantaggio del posizionamento naturale è invece proprio quello di abbassare costantemente nel tempo i costi di acquisizione di nuovi clienti, rendendo il SEO, in un’ottica di lungo periodo, più conveniente di molte altre forme di advertising.
  2. I seo sono contro le tecniche border line, perché queste ultime lasciano il tempo che trovano, ossia se pur possono produrre in minor tempo dei vantaggi, appena scoperte causano la penalizzazione dei siti, e quindi arrecano un danno al sito cliente. Anche in questo caso la caratteristica principale del SEO, ossia essere particolarmente vantaggioso nel lungo periodo, viene meno.
  3. Le tecniche border line sono poco etiche solo quando vengono utilizzate per posizionare un sito dai contenuti poco leciti (gioco d’azzardo, porno, ecc), per termini di uso comune e non inerenti i settori sopraccitati, e non perché forzano il funzionamento di un algoritmo di un motore di ricerca. Scusatemi ma non sono convinto che produrre una doorway incentrata su “porte blindate” per promuovere un’azienda che produce porte blindate sia “poco lecito”.
  4. I seo non si lamentano più perchè nei loro posizionamenti sono stati superati da siti che utilizzano tecniche border-line, ma si chiedono come mai questo è potuto succedere, dove hanno sbagliato, e cosa possono migliorare per far in modo che questo non succeda più. Cari “SEO”, se lavorate da 1 anno su un sito, e venite superati da una doorway pages significa che non avete lavorato bene! Avete creato una buona link popularity per il vostro sito? Avete curato la navigazione dell’utente sul vostro sito? Avete eliminato tutte le barriere che impediscono allo spider di navigare il sito? Avete dato agli spider dei contenuti da indicizzare, oppure credete che il vostro sito si debba posizionare solo perchè è il vostro sito? Se la risposta a tutte queste domande è si, state sicuri che non verrete mai superati da una doorway pages, e nel caso ciò avvenisse non dovete far altro che analizzare il perchè è avvenuto, e complimentarvi con chi vi ha superato.

Scusate lo sfogo, ma quando ce vo’ ce vo’! :-)

Display advertising con i motori di ricerca

No Comments »

La differenza fondamentale tra il search marketing e il display advertising, è che il primo si rivolge agli utenti nel momento in cui questi esprimono, mediante una stringa di ricerca, un determinato bisogno. Il secondo, se implementato bene, permette di acquisire visibilità presso un determinato target.
Per esempio: essere presenti in Google per “voli vienna”, ci assicura visibilità presso un utente che in quel momento è interessato a un volo per Vienna, mentre avere un banner su un portale di viaggi (es: Turistipercaso.it), ci permette di avere visibilità presso un utente potenzialmente interessato ai voli.
Chiaro, tutti e due i tipi di visibilità sono molto importanti, sia in logica di acquisizione di nuovi clienti, che di notorietà del brand, a questo punto mi chiedo: e se facessimo display advertising con i motori di ricerca?
Mi spiego meglio: ipotizziamo che io gestisca il posizionamento di un cinema a Milano, oltre a posizionarmi per termini come “cinema Milano”, “sale cinematografiche Milano”, “cinema in via ….”, potrei provare ad acquisire visibilità nei motori di ricerca anche per “pizzerie Milano”, “pub Milano”, etc.
In questo caso renderei visibile l’attività che sto promuovendo a utenti che non sono alla ricerca di un cinema, ma che potenzialmente appartengono al target al quale si rivolge il mio cliente, senza pensare che questa “espansione della query“, potrebbe giovarmi anche nel posizionamento dei termini più incentrati sulla mia attività.
Naturalmente, prima di mettermi a costruire pagine e pagine sulle “pizzerie a Milano”, potrei testare (prestando attenzione al quality rater, e quindi costruendo delle pagine in linea con le creatività) questo processo, acquistando i suddetti termini in adwords, per poi specificare nelle creatività che sto pubblicizzando un cinema. In questo modo avrei un alto numero di impression, su utenti comunque in target, e un bassa percentuale di click e quindi un investimento minimo.
Qualcuno potrebbe obiettare che, così facendo, si mette in discussione la coerenza tra ricerca e risultati, ma a ben guardare, in questo modo, forniremmo agli utenti dei risultati affini, quindi utili, e non fuorvianti.

Tag e insiemi

No Comments »

Tempo fa ho avuto già modo, anche se in toni scherzosi, di parlare delle nuove possibili tecniche SEO praticabili “nel web 2.0″.
Oggi mi voglio soffermare sull’uso e sull’organizzazione dei tag.
Molti sono ormai i siti, non ho certo la pretesa di scoprire l’acqua calda, che fanno uso dei tag soprattutto per fini di posizionamento. Scegliere delle etichette “giuste” con le quali contrassegnare gli articoli, permette, infatti, di avere delle pagine tematizzate per le keyword che più ci interessano, es: http://www.seotalk.it/labels/SEO.html.
A ben vedere i tag ci permettono di costruire, legando tra di loro tutti i contenuti inerenti una stessa tematica, tanti insiemi di significato.


Naturalmente i post possono contenete tag appartenenti a vari insiemi, in questo caso avremmo creato delle intersezioni:


Se vogliamo, però, tutti questi Tag (insiemi) potrebbero essere legati da un tag di “2° livello”, es: Posizionamento nei motori di Ricerca


Seguendo questo ragionamento, Seotalk, potrebbe essere caratterizzato da 3 soli tag di “2° livello”: “posizionamento nei motori di ricerca”, “keyword advertising”, “web marketing”.
Quindi, attuando quando detto sopra, avremmo la seguente situazione:


O meglio, se abbiamo “taggato” con intelligenza i nostri articoli, avremmo ottenuto la seguente struttura:


Immaginiamo ora di creare un legame tra i 3 tag di 2° livello, magari prevedendo un menù che riporta, nelle pagine di ricerca di ogni tag, i link agli altri due, es:
http://www.miosito.it/tag/posizionamentoneimotodidiricerca.html, presenta tutti i post taggati con “posizionamento nei motori di ricerca” e una sezione dove vengono riportati i link a: http://www.miosito.it/tag/keywordadvertising.html e http://www.miosito.it/tag/webmarketing.html.
Avremmo così creato la seguente struttura:


Niente male come sistema di internal linking no?
Che dite mi fermo qui o vado avanti a immaginare un tag di 3° livello che racchiude tutto? :-)

Posizionamento nei motori di ricerca

No Comments »

Test sul valore dell’età e del trustrank di un sito

Come molti di voi sapranno, da un po’ di mesi, ormai 5, ho aperto una mia agenzia di Search Marketing, da allora naturalmente, purtroppo nei ritagli di tempo, ho iniziato a lavorare al posizionamento di Sembox.it.
Il comportamento finora tenuto dal sito ha rispecchiato fedelmente l’iter che ormai tocca a tutti i nuovi siti che si operano in settori molto competitivi:

  1. Fase iniziale di massima visibilità: questa fase segue immediatamente la fase di indicizzazione di un nuovo sito, in questo periodo, che possiamo definire di “prova”, il sito occupa posizionamenti insperati e assolutamente “non reali”. Molti sono le teorie su questo periodo di “prova”, alcuni affermano che in questa fase sia utile a Google per raccogliere alcune informazioni relativi al nuovo sito, es: click through rate, bounce rate, tempo di permanenza sul sito, ed altri fattori capaci di rappresentare il gradimento di un sito agli utenti. Data la complessità dell’argomento, mi ripropongo in seguito di dedicare un post a questa tematica.
  2. Fase di “apparente penalizzazione”: in questa seconda fase un nuovo sito, scompare letteralmente dalle SERP, salvo ritrovarlo in 10 pagina. Sembra quasi che dopo la prima fase di raccolta dati, Google si prenda un po’ di tempo per fare le giuste considerazioni per poi arrivare a stabilire il posizionamento reale di un sito.
  3. Terza fase: il sito ricompare nei risultati del noto motore californiano, occupando i posizionamenti che merita. E’ chiaro che poi, naturalmente, i posizionamenti sono migliorabili agendo su alcuni fattori quali: la link popularity, l’aggiunta di nuovi contenuti, l’aggiornamento frequente del sito ecc.

Sembox.it, come dicevo prima, ha rispettato, subito, fedelmente questo iter, nonostante i molti amici che mi hanno linkato spontaneamente (grazie 1000! :-) ).
Attualmente (fase 3) il sito occupa posizionamenti interessanti per alcune keyword sulle quali ho puntato la mia attività di posizionamento (“visibilità on line”, “posizionamento nei risultati naturali”, ecc.) ma è totalmente assente, e quando dico totalmente intendo non presente nemmeno in ultimissima pagina, per la keyword più competitiva del settore: “posizionamento nei motori di ricerca”.
Non credo che il mio sito sia oggetto di una “penalizzazione”, credo piuttosto che a seconda della competitività di una keyword, aumenti il peso di alcuni fattori esterni capaci di influenzare il posizionamento di un sito (età di un sito, trustrank, link popularity, ecc).
A questo punto, per testare appieno questa teoria e rendermi conto dell’effettiva competitività di questa SERP, ho deciso di testare la capacità di posizionamento di Seotalk per questa keyphrases.
Questo blog, infatti, gode di un trattamento davvero favorevole da parte di Google, basti pensare che l’articolo che ho inserito ieri alle 16, alle 19 era già indicizzato.
Ora sicuramente Seotalk tratta argomenti affini al posizionamento nei motori di ricerca e fortunatamente ha molti siti del settore che lo linkano, però Sembox.it può vantare sicuramente un’ ottimizzazione dei fattori on page più “spinta”, ed un numero di link a tema (nonostante sia un sito giovane) non indifferente.
Insomma stiamo a vedere chi vince, anche se ho paura di sapere già il risultato.
Che la gara fattori on page vs fattori off page (con le dovute eccezioni) abbia inizio!!! :-)