OpenAI accusa DeepSeek di model distillation, una tecnica per generare un nuovo modello apprendendo da un altro più grande. Il risultato è un modello più leggero che opera solo su quello che serve più spesso. E' il risultato di AI specializzate, invece della rincorsa ad ai generaliste. Le applicazioni sono varie: dal riconoscimento vocale tramite installazioni nel browser (!) a compiti molto specializzati.
E' quindi concorrenza sleale ? Sfruttamento di modelli altrui ?
Troppi i temi coinvolti. Difficile vedere dove si può finire. Ma se open ai ritiene i poter acquisire da tutti i dati grezzi, può DeepSeek accedere ai modelli altrui generandone di nuovi (magari persino migliori ai fini privacy ?).
Vedremo. Troppo aleatorio.
Nel frattempo Deep Seek può lavorare interamente in locale, OpenAi no (frase semplificata per far comprendere la differenza chiave).
Genai:
Ecco una spiegazione delle differenze tra "RAG" (Retrieval-Augmented Generation) e Model Distillation in italiano:
Retrieval-Augmented Generation (RAG)
Retrieval-Augmented Generation (RAG) è un approccio che combina la generazione di testo con la retrieval di informazioni. In pratica, il modello RAG utilizza un sistema di retrieval per recuperare documenti o informazioni pertinenti da una vasta base di dati, e poi utilizza queste informazioni per generare risposte più accurate e contestuali.
- Integrazione di Retrieval e Generazione: RAG integra un meccanismo di retrieval con un modello di generazione di testo. Il retrieval aiuta a trovare informazioni rilevanti, mentre il modello di generazione utilizza queste informazioni per creare risposte.
- Accesso a Informazioni Estese: Può accedere a una vasta gamma di informazioni esterne, il che è utile quando il modello di generazione da solo non ha abbastanza conoscenze interne per rispondere a una query.
- Aggiornamento Dinamico: Le informazioni recuperate possono essere aggiornate dinamicamente, permettendo al modello di rimanere aggiornato con le ultime informazioni disponibili.
Model Distillation
Model Distillation è una tecnica utilizzata per trasferire le conoscenze da un modello grande e complesso (chiamato "teacher model") a un modello più piccolo e più efficiente (chiamato "student model"). L'obiettivo è creare un modello più leggero che mantenga una performance simile a quella del modello più grande.
- Trasferimento di Conoscenze: Il modello teacher, che è più grande e più accurato, viene utilizzato per addestrare il modello student, che è più piccolo e più efficiente.
- Efficienza Computazionale: Il modello student risultante è più leggero e richiede meno risorse computazionali, rendendolo più adatto per applicazioni in tempo reale o su dispositivi con risorse limitate.
- Mantenimento della Performance: L'obiettivo è che il modello student mantenga una performance simile a quella del modello teacher, anche se con una struttura più semplice.