Crawler / Spider

Tipo di software robot (nello specifico trattasi solitamente di un bot) che esplora la rete Internet seguendo tutti i link che trova in una pagina web, legge i loro contenuti e informazioni e ne acquisisce una copia testuale. Infine, crea un indice che permette, successivamente, la ricerca e la visualizzazione di quanto raccolto.

« Torna all'indice

Carrello
Torna su