Civile.it
/internet
Osservatorio sul diritto e telecomunicazioni informatiche, a cura del dott. V. Spataro dal 1999, 9267 documenti.

Il dizionario e' stato letto volte.



Segui via: Email - Telegram
  Dal 1999   spieghiamo il diritto di internet  Store  Podcast  Dizionario News alert    
             

  


WPkit.it: privacy, formulari, check up per WordPress

Temi attuali:
Algoritmi ChatGPT Intelligenza artificiale Privacy WordPress



Dizionario 01.02.2007    Pdf    Appunta    Letti    Post successivo  

Spider: cosa significa - dizionario

Definizione

 

P

Programma che si collega ai siti internet per leggerne il contenuto e indicizzare o inserirne il contenuto nei motori di ricerca. Sono programmi che permettono, tra i vari sistemi disponibili, di ampliare la base di dati contenuta in un motore di ricerca. Se un motore di ricerca copia i contenuti di altri siti o altri motori di ricerca fa qualcosa che avviene spesso in internet, ma alla stregua delle leggi vigenti deve essere considerata un'attività almeno di concorrenza sleale e di violazione della normativa sul diritto d'autore e delle banche dati. Per questo, spesso tra le parti intervengono accordi per regolare i rapporti. Google copia in un proprio archivio le pagine che trova, elaborandole. IusSeek, invece, indicizza, cioè estrae dalle pagine che trova le informazioni che ritiene utili in base ai criteri forniti senza copiare l'intera pagina. Gli spider in generale, al di là della copia o dell'indicizzazione, visitano siti internet e operano delle elaborazioni in base ad un numero di criteri particolarmente evoluti, pur semplici, in funzione di vari parametri tecnici quali l'importanza di una pagina e la frequenza con cui è visitata. Ogni motore di ricerca rielabora i dati già forniti rielaborati dallo spider in modo da realizzare un archivio il più utile possibile. Gli spider, per ovviare ai problemi di tutela dei diritti sopra accennati, di solito prevedono la possibilità che certi files non vengano indicizzati o copiati, se contenuti in files chiamati robots.txt. La soluzione è solo tecnica e non risolve il problema giuridico. Diverso è un metamotore di ricerca che, per funzionare, consulta altri motori di ricerca e si appropria dei risultati e li rielabora secondo criteri non verificabili, spesso ma non sempre originali. Solo alcuni metamotori si limitano a consultare più motori contemporaneamente, mostrando all'utente finale le pagine così come vengono visualizzate dai costitutori le banche dati consultate dai motori di ricerca. Sono chiamati anche Web crawlers.

01.02.2007



1-bit LLM
Incidente
Social Media Manager
ARC - protocollo
Legal Product Management
Pareidolia
Violazioni minori
Reverse proxy
PECR
Pretexting



Segui le novità in materia di Dizionario su Civile.it via Telegram
oppure via email: (gratis Info privacy)





dallo store:
visita lo store








Dal 1999 il diritto di internet. I testi sono degli autori e di IusOnDemand srl p.iva 04446030969 - diritti riservati - Privacy - Cookie - Condizioni d'uso - in 0.061