Chi scrive sa bene quanti sforzi e preparazione sia necessario per generare un contenuto originale. Tanto più necessita di intuizione per farsi ben volere dal lettore, sia per come lo colpisce che per come tratta l’argomento senza far addormentare.

Che sia un preparato editore online, un copywriter, un blogger professionista o un volenteroso navigatore che ha voglia di dare un contributo originale sul web, la domanda che ci si deve sempre porre è: sto scrivendo qualcosa di nuovo oppure no? Ciò non significa che scrivere bene sia di secondo piano, ma le dinamiche del web ci spingono a considerare sempre più importanti ANCHE l’unicità e la viralità dei contenuti.

Per questo sarebbe possibile stilare delle curve qualitative dei contenuti web e del loro posizionamento, posto che il CMS sottostante sia ottimizzato in tutti i casi allo stesso modo.
Ma noi sappiamo che i CMS non sono tutti uguali per una serie di fattori, che sono rappresentati maggiormente dai famosi fattori che i motori di ricerca usano per generare la posizione di un risultato per una data query; ed uno dei fattori che può generare più problemi è quello dell’unicità algoritmica dei contenuti, intesa come non-duplicazione interna ed esterna dei contenuti di un sito.

Diciamo innanzitutto che se scriviamo direttamente gli articoli è lecito credere che la memoria ci possa aiutare a ricordare se quel titolo, quel catenaccio, quell’apertura di articolo è già stato usato prima. In questo ci vengono in aiuto i webmaster tools di Google (GWT), sebbene essi abbiano un delta temporale in cui devono rilevare i problemi di duplicazione interna e comunque non danno una visione del sito dettagliata piuttosto un estratto di quello che nel sito c’è.

Altro problema è invece quello di capire se ci sono copie sparse nella rete e se consideriamo la duplicazione di un contenuto all’interno di uno stesso sito un grosso problema, il confronto con l’universo dei contenuti può disarmarci.
Uno strumento per verificare ciò è quello di lanciare una ricerca su Google attraverso un’intero periodo: con notevoli svantaggi. Primo fra tutti il fatto che i contenuti duplicati, anche e sopratutto quelli rilevati, vengono omessi e potrebbero sfuggirci. Così come può capitare che il datacenter che stiamo interrogando non sia allineato e non ci restituisca delle SERP “reali”.

Ci può aiutare il copyscape.com, un’ottimo strumento, ma come tutti gli ottimi strumenti è molto potente e poco free, infatti il meglio lo ottiene acquistando un numero finito di check dei contenuti.

Nulla di male, se non fosse che il mio caro blekko.com permette già di poter avere una voce terza e che può fornire dati aggiuntivi, se non sostitutivi, per controllare dove vanno a finire i nostri scritti, quale porzione di essi e prendere provvedimenti più diretti e approfonditi, o almeno di sapere! (Domanda: è lecito sapere dove vanno a finire i miei contenuti?)
Infatti spesso leggo di commenti molto acidi nei confronti dei servizi di aggregazione di news: mi pare giusto nella misura in cui andare a rendere fredda l’aggregazione, partendo proprio col prelevare i contenuti altrui senza nemmeno avvisare, non è certo una mossa intelligente. Non dimentichiamoci che c’è il grande aggregatore Google News, quindi del tuo aggregatore in effetti non sappiamo cosa farne… Ma quello che ogni webmaster teme è che la massa critica aggregata possa andare a penalizzare il sito principale, privandolo dell’originalità che la redazione sta difendendo con tanta energia.

Lancio proprio adesso la query: http://blekko.com/ws/http://www.andreainfusino.com/+/domainduptext ed ottengo:

Un rapporto sui contenuti interni ed esterni duplicati: il mio sito soffre un pò -le scritte rosse mi accecano e mi scoraggiano-.

108 domini che duplicano contenuto dal mio sito… forse dovrei esserne fiero. 260 sezioni duplicate fuori dal mio sito. “sezione” significa porzioni di testo.
In effetti è bene leggere il comando che ho lanciato: /domainduptext –> il che significa il numero di volte che il dominio è duplicato nel web. Questo dovrebbe significare il numero di volte che il mio nome di dominio compare nel mio sito e all’esterno del mio sito.

Grazie al comando: http://blekko.com/ws/http://www.andreainfusino.com/+/duptext invece è possibile verificare il vero e proprio testo duplicato, presente nel web. Il risultato è:

Per cui, con un pochino di fatica, andiamo a verificare un singolo articolo col comando /duptext. In particolare per il mio sito ho 2 URL duplicati in 2 pagine. Questo p vero per il secondo link elencato, in quanto su di esso ho fatto un redirect, ho cambiato categoria all’articolo, ma blekko ancora non l’ha aggiornato (è datato al 25 ottobre). Quello di buono è che per quel contenuto ne ho 0 offsite.

Quello in cui credo è che blekko è qualcosa in più di un competitor nato morto nell’eterna sfida a Google: credo che gli strumenti di analisi che almeno fin’ora ci propone sono utili per vedere sotto un’altra prospettiva i dati di qualità e lo stato di salute del nostro sito. Sarebbe perciò interessante una bella guida ufficiale del neonato, anche se i test sono da sempre la migliore palestra.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *