Civile.it
/internet
Osservatorio sul diritto e telecomunicazioni informatiche, a cura del dott. V. Spataro dal 1999, 10185 documenti.

Il dizionario e' stato letto volte.



Segui via: Email - Telegram
  Dal 1999   spieghiamo il diritto di internet  Store  Podcast  Dizionario News alert    
             

  


WPkit.it: privacy, formulari, check up per WordPress

Temi attuali:
Algoritmi ChatGPT Intelligenza artificiale Privacy WordPress



Dizionario 29.01.2025    Pdf    Appunta    Letti    Post successivo  

RAG vs Model Distillation: cosa significa

Due tecniche AI per ottenere risposte migliori


Valentino Spataro

 

O

OpenAI accusa DeepSeek di model distillation, una tecnica per generare un nuovo modello apprendendo da un altro più grande. Il risultato è un modello più leggero che opera solo su quello che serve più spesso. E' il risultato di AI specializzate, invece della rincorsa ad ai generaliste. Le applicazioni sono varie: dal riconoscimento vocale tramite installazioni nel browser (!) a compiti molto specializzati.

E' quindi concorrenza sleale ? Sfruttamento di modelli altrui ?

Troppi i temi coinvolti. Difficile vedere dove si può finire. Ma se open ai ritiene i poter acquisire da tutti i dati grezzi, può DeepSeek accedere ai modelli altrui generandone di nuovi (magari persino migliori ai fini privacy ?).

Vedremo. Troppo aleatorio.

Nel frattempo Deep Seek può lavorare interamente in locale, OpenAi no (frase semplificata per far comprendere la differenza chiave).

Genai:

Ecco una spiegazione delle differenze tra "RAG" (Retrieval-Augmented Generation) e Model Distillation in italiano:

Retrieval-Augmented Generation (RAG)

Retrieval-Augmented Generation (RAG) è un approccio che combina la generazione di testo con la retrieval di informazioni. In pratica, il modello RAG utilizza un sistema di retrieval per recuperare documenti o informazioni pertinenti da una vasta base di dati, e poi utilizza queste informazioni per generare risposte più accurate e contestuali.

Caratteristiche principali:

  1. Integrazione di Retrieval e Generazione: RAG integra un meccanismo di retrieval con un modello di generazione di testo. Il retrieval aiuta a trovare informazioni rilevanti, mentre il modello di generazione utilizza queste informazioni per creare risposte.
  2. Accesso a Informazioni Estese: Può accedere a una vasta gamma di informazioni esterne, il che è utile quando il modello di generazione da solo non ha abbastanza conoscenze interne per rispondere a una query.
  3. Aggiornamento Dinamico: Le informazioni recuperate possono essere aggiornate dinamicamente, permettendo al modello di rimanere aggiornato con le ultime informazioni disponibili.

Model Distillation

Model Distillation è una tecnica utilizzata per trasferire le conoscenze da un modello grande e complesso (chiamato "teacher model") a un modello più piccolo e più efficiente (chiamato "student model"). L'obiettivo è creare un modello più leggero che mantenga una performance simile a quella del modello più grande.

Caratteristiche principali:

  1. Trasferimento di Conoscenze: Il modello teacher, che è più grande e più accurato, viene utilizzato per addestrare il modello student, che è più piccolo e più efficiente.
  2. Efficienza Computazionale: Il modello student risultante è più leggero e richiede meno risorse computazionali, rendendolo più adatto per applicazioni in tempo reale o su dispositivi con risorse limitate.
  3. Mantenimento della Performance: L'obiettivo è che il modello student mantenga una performance simile a quella del modello teacher, anche se con una struttura più semplice.

Differenze Chiave

  1. Obiettivo:

    • RAG: L'obiettivo è migliorare la generazione di testo integrando informazioni esterne recuperate dinamicamente.
    • Model Distillation: L'obiettivo è creare un modello più efficiente mantenendo una performance simile a quella di un modello più grande.
  2. Approccio:

    • RAG: Combina retrieval di informazioni con generazione di testo.
    • Model Distillation: Trasferisce conoscenze da un modello grande a uno più piccolo.
  3. Uso delle Informazioni:

    • RAG: Utilizza informazioni esterne (al modello ndr) recuperate dinamicamente (anche staticamente ma fornite oltre a quelle del sistema NDR).
    • Model Distillation: Utilizza le conoscenze di un modello teacher per addestrare un modello student.

29.01.2025 Valentino Spataro



Peter Fleischer
TPM e TCPA
Discriminazione algoritmica
Pretexting
Deplatforming
Typosquatting
Body shaming
Dissing
Bullying
Dongle



Segui le novità in materia di Dizionario su Civile.it via Telegram
oppure via email: (gratis Info privacy)





dallo store:
visita lo store








Dal 1999 il diritto di internet. I testi sono degli autori e di IusOnDemand srl p.iva 04446030969 - diritti riservati - Privacy - Cookie - Condizioni d'uso - in 0.062