Secondo quanto riportato dal Financial Times, OpenAI ritiene che i risultati generati dai suoi modelli di intelligenza artificiale possano essere stati utilizzati dalla startup cinese DeepSeek per addestrare il suo nuovo modello open-source, che ha impressionato molti osservatori e scosso i mercati finanziari statunitensi.
Aspetti principali
L’azienda che ha sviluppato ChatGPT ha dichiarato al Financial Times di aver visto alcune prove che suggeriscono che DeepSeek potrebbe aver utilizzato i suoi dati attraverso una tecnica chiamata “distillazione” — un metodo in cui i risultati generati da un modello di intelligenza artificiale più avanzato vengono utilizzati per addestrare e migliorare un modello più piccolo.
Bloomberg ha riferito che OpenAI e il suo principale sostenitore Microsoft stavano indagando se DeepSeek avesse utilizzato l’interfaccia di programmazione delle applicazioni (API) di OpenAI — che consente ad altre aziende e piattaforme di accedere al modello di intelligenza artificiale della società — per eseguire la “distillazione.”
Secondo il rapporto del Financial Times, le due aziende avevano già indagato e bloccato account che utilizzavano l’API l’anno scorso per sospetta distillazione — una violazione dei termini e condizioni di OpenAI — e che si credeva appartenessero a DeepSeek.
Il problema è stato inizialmente segnalato da David Sacks, nominato da Donald Trump come “AI Czar” (responsabile per l’intelligenza artificiale), il quale ha dichiarato a Fox News che esistono “prove sostanziali” che DeepSeek abbia distillato i risultati dai modelli di OpenAI e ha aggiunto: “Non credo che OpenAI sia molto felice di questo.”
Sacks ha anche affermato che, nei prossimi mesi, le principali aziende di intelligenza artificiale negli Stati Uniti inizieranno a prendere provvedimenti per “cercare di prevenire la distillazione,” il che “rallenterebbe sicuramente alcuni di questi modelli imitativi.”
L’applicazione ha sollevato anche preoccupazioni per la sicurezza nazionale alla Casa Bianca, e il suo impatto è attualmente in fase di revisione da parte del Consiglio di Sicurezza Nazionale, ha dichiarato la portavoce della Casa Bianca Karoline Leavitt, aggiungendo: “Questo è un campanello d’allarme per l’industria statunitense dell’intelligenza artificiale.”
Cos’è la distillazione?
La distillazione è una tecnica utilizzata dagli sviluppatori di modelli di intelligenza artificiale, in cui i risultati generati da un modello avanzato vengono impiegati per addestrare un modello più piccolo. Il modello più grande e complesso è solitamente definito modello insegnante, mentre quello più piccolo è chiamato modello studente.
L’obiettivo della distillazione è fare in modo che il modello studente raggiunga un livello di prestazioni paragonabile a quello dell’insegnante, utilizzando però meno risorse computazionali. Secondo Ben Thompson, autore di Stratechery e analista tecnologico, è probabile che la distillazione venga già utilizzata da aziende come OpenAI, Anthropic e Google per ottimizzare i loro modelli. Il processo è semplice se un’azienda possiede e gestisce sia il modello insegnante che quello studente. Tuttavia, se un modello studente di terze parti sfrutta modelli proprietari avanzati per la distillazione, si tratta generalmente di una violazione dei termini e condizioni. I termini di servizio di OpenAI vietano agli utenti di copiare i suoi servizi o di utilizzare i suoi risultati per “sviluppare modelli che competano con OpenAI.”
Come prevenirla
Le aziende come OpenAI possono prevenire l’uso della distillazione da parte di terzi limitando l’accesso ai loro modelli. Questo potrebbe includere il blocco degli account, il blocco degli indirizzi IP o l’imposizione di limiti al numero di query che terzi possono effettuare. Tuttavia, non è chiaro se questi metodi siano sufficientemente efficaci per eliminare completamente la distillazione.
La frase chiave
In risposta alle dichiarazioni di Sacks, OpenAI ha riferito a Fox News di utilizzare “contromisure” per proteggere la sua proprietà intellettuale e ha aggiunto: “Nel futuro… è di fondamentale importanza collaborare strettamente con il governo degli Stati Uniti per proteggere al meglio i modelli più avanzati dagli sforzi di avversari e concorrenti di sottrarre la tecnologia statunitense.”
Le critiche
Mike Masnick, fondatore del sito di notizie tecnologiche TechDirt, ha commentato la reazione di OpenAI alla distillazione: “Allora, guardate. Sono sicuro di essere in minoranza qui su Bluesky nel credere che addestrare sistemi di intelligenza artificiale non sia una violazione del copyright. Ma, davvero. Non c’è modo che OpenAI possa sostenere questa argomentazione senza apparire molto, molto ridicola.”
L’articolo OpenAI accusa: “DeepSeek è stata addestrata con i nostri modelli di IA” è tratto da Forbes Italia.