Le capacità di crawling di Google non si fermano infatti al semplice testo accessibile su documenti in standard HTML, dicono i test, ma vanno molto oltre fino a poter indicizzare correttamente le pagine dinamiche, il codice JavaScript, i metadati e tutto quanto.

Il segreto del successo del Googlebot? La capacità di leggere il Document Object Model (DOM) di ogni singola pagina indicizzata, sostiene chi ha condotto i test, un'API standardizzata che definisce la struttura logica dei documenti in formato HTML e XML e il modo in cui potervi accedere.

Grazie all’accesso diretto al DOM, quindi, gli algoritmi di indicizzazione di Google sarebbero in grado di identificare e scansionare senza problemi i contenuti visualizzati dinamicamente (come ad esempio nel caso dei siti basati su pila LAMP, WordPress e simili), rispettando tutti i segnali tradizionalmente utilizzati in ambito SEO (metadati, titolo della pagina e tag).

Via | Search Engine Land

CommentaDi' la tua

Il tuo indirizzo email non sarà mostrato pubblicamente. I campi obbligatori sono contrassegnati da *