Nel mondo dell’intelligenza artificiale, le ultime novità non mancano mai di suscitare dibattito. Una delle più recenti, riportata da TechCrunch, ha messo al centro dei riflettori un’operazione interna di Google che potrebbe far discutere: secondo alcune fonti interne, Google starebbe eseguendo dei test comparativi tra il suo modello Gemini e il rivale Claude, sviluppato da Anthropic. Ma, al momento, Google non ha confermato se abbia ottenuto l’autorizzazione da parte di Anthropic per utilizzare il modello concorrente per questi esperimenti, sollevando interrogativi sulle pratiche legali e sulla correttezza dei metodi adottati per migliorare l’intelligenza artificiale.
Solitamente, nel mondo della tecnologia, le aziende valutano le performance dei propri modelli attraverso benchmark standard del settore, ma non si mettono a fare test diretti confrontando i loro sistemi con quelli dei concorrenti. Eppure, sembra che Google stia facendo proprio questo, mettendo a confronto direttamente Gemini con Claude. Una mossa che potrebbe violare i termini di utilizzo di Claude, i quali vietano espressamente l’utilizzo del modello per addestrare IA concorrenti o costruire servizi simili senza una preventiva autorizzazione. Un aspetto che non può passare inosservato, considerando che Google è uno dei principali investitori di Anthropic.
Per comprendere appieno la portata della situazione, è necessario dare uno sguardo ai modelli coinvolti. Gemini, il successore di Google Bard, è un chatbot evoluto, costruito su intelligenza artificiale generativa e machine learning. È stato progettato per competere direttamente con ChatGPT di OpenAI e si basa su un modello linguistico sviluppato da Google, noto anch’esso come Gemini. Questa evoluzione di PaLM (e in passato LaMDA) è stata lanciata in beta a marzo 2023, con una versione più ampiamente disponibile in 40 lingue a partire dal luglio dello stesso anno. Google, insomma, vuole ritagliarsi una fetta del mercato dei chatbot generativi, creando un modello pronto a sfidare gli altri giganti del settore.
Da parte sua, Claude rappresenta una delle proposte più avanzate nel campo dell’IA, sviluppato dalla startup Anthropic, che ha puntato molto sulla sicurezza e sull’affidabilità dei suoi modelli. La famiglia Claude, infatti, è composta da modelli pensati per rispondere a esigenze diverse: Haiku, veloce e ottimizzato per l’efficienza; Sonnet, che cerca di trovare il giusto equilibrio tra prestazioni e capacità; e Opus, l’asso nella manica per i compiti complessi che richiedono ragionamento logico e matematico. Claude si distingue soprattutto per il suo approccio prudente, rifiutando risposte quando i prompt potrebbero risultare pericolosi o eticamente problematici.
A quanto pare, i contractor di Google che si occupano dei test comparativi stanno analizzando le risposte di Gemini e Claude con un occhio a veridicità e verbosità, per determinare quale modello fornisca la risposta migliore. E qui nasce il problema: alcuni hanno notato che, in più di un’occasione, Gemini avrebbe dato risposte che potrebbero risultare meno sicure, mentre Claude tende a rifiutare di rispondere quando i prompt sollevano dubbi sulla sicurezza dei dati. Un elemento che non è passato inosservato, soprattutto in settori delicati come la salute, dove l’accuratezza delle informazioni è fondamentale.
Google, attraverso un portavoce di DeepMind, ha cercato di minimizzare la questione, dichiarando che, pur confrontando le risposte dei modelli, non avrebbe utilizzato i modelli di Anthropic per addestrare Gemini. Secondo la versione ufficiale, il confronto tra i modelli sarebbe parte di un processo di valutazione standard, ma senza l’intenzione di utilizzare direttamente le tecnologie di Claude per migliorare Gemini. Ma, se le indiscrezioni di TechCrunch fossero vere, la situazione potrebbe risultare più complessa di quanto dichiarato.
A questo punto, il dibattito si fa davvero interessante. Da una parte, c’è la necessità di migliorare costantemente i modelli di IA, e per farlo è fondamentale testare e ottimizzare le risposte. Dall’altra, però, ci sono i rischi legati alle implicazioni legali ed etiche di tali confronti, soprattutto quando si utilizzano tecnologie di un concorrente senza una chiara autorizzazione. Se ciò che è emerso fosse confermato, Google si troverebbe in una situazione piuttosto delicata, rischiando di infrangere i contratti con Anthropic. La vicenda solleva anche importanti questioni sulla trasparenza e la responsabilità nel campo dell’intelligenza artificiale. In un panorama in cui le aziende sono in continua corsa per creare i modelli di IA più avanzati, è essenziale che le pratiche di sviluppo e test siano chiare, giuste e rispettose delle normative. La domanda è: Google avrà davvero rispettato tutte le regole? E, soprattutto, come influenzerà la sicurezza e l’affidabilità delle IA del futuro questa “gara” senza regole chiare? Il tempo, come sempre, darà la risposta.
Aggiungi commento