Indipendentemente dai singoli elementi che potrebbero aver determinato l'assegnazione di un punteggio di qualità basso (alcuni siti Web lamenterebbero perdite di traffico fino al 90%), dalle prime analisi effettuate sembrerebbe che Google Fred sia stato concepito in particolare per garantire un miglioramento della user experience.

Link, advertising e affiliazioni

Per fare un esempio riguardante i link (incoming o outgoing) esso non terrebbe in considerazione tanto il loro numero, ma la loro effettiva utilità per gli utenti.

Seguendo lo stesso ragionamento, l'algoritmo tenderebbe a penalizzare le pagine in cui gli annunci pubblicitari rappresentano un elemento disgregante a danno del flusso dei contenuti. A tal proposito basterebbe pensare a quei siti Web che introducono dei blocchi di advertising ogni 1 o 2 paragrafi, in questo caso infatti Fred sembrerebbe rilevare l'intenzione di attrarre clik su di essi e non di consentire la completa fruizione dei contenuti.

Discorso leggermente differente per i siti di affiliazione e in particolare gli affiliate ads. Google infatti non ha mai negato che tra di essi vi siano progetti di qualità, degni di un posizionamento elevato, ma questa volta l'obbiettivo dovrebbe essere quello di penalizzare le pagine che presentano contenuti duplicati e, in generale, risorse che non offrirebbero alcun valore aggiungo agli utilizzatori.

Contenuti

Concentrando l'attenzione sull'elemento principe del posizionamento, cioè la produzione dei contenuti, Fred sembrerebbe voler estremizzare l'importanza del valore aggiunto; da questo punto di vista potrebbero essere determinanti due componenti: la capacità di proporre contenuti originali, o quantomeno differenti rispetto alle modalità utilizzate dalla concorrenza, e la cura nell'offrire informazioni supplementari.

In pratica, limitarsi a ricalcare quanto già fatto con successo dai propri competitor non rappresenterebbe più una buona strategia di promozione, ammesso e non concesso che lo sia mai stata.

(Sovra)ottimizzazione

Più complesso il discorso riguardante la sovraottimizzazione, si tratta infatti di un fattore di per sé difficilmente misurabile che però potrebbe aver avuto un ruolo importante nell'implementazione di Fred; l'idea è che l'algoritmo possa penalizzare i contenuti proposti in modo "innaturale" perché adattati più per il posizionamento che per la fruizione.

Ora, limitando l'osservazione ai soli comportamenti dell'algoritmo, Fred potrebbe non presentare elementi di novità rilevanti rispetto ai suoi predecessori. In realtà però la componente più innovativa di questo aggiornamento potrebbe risiedere proprio nella sua procedura algoritmica, cioè nell'introdurre comportamenti che più difficilmente potranno essere individuati da coloro che creano siti per lo spam e contenuti di bassa qualità.

Conclusioni

Fred funzionerebbe quindi sulla base di un criterio di penalizzazione con il quale individuare i siti Web confezionati in modo da generare beneficio per chi li gestisce prima ancora che per chi li visita o ne deve indicizzare i contenuti (il motore di ricerca stesso). In sostanza, l'obbiettivo di questo update sarebbe quello di evidenziare i vantaggi per il posizionamento (e di conseguenza per la monetizzazione) dei contenuti pensati in primo luogo per coloro che dovranno fruirli.

Per approfondire: Barry Schwartz

CommentaDi' la tua

Il tuo indirizzo email non sarà mostrato pubblicamente. I campi obbligatori sono contrassegnati da *