Intelligenza artificiale (IA)
15 Dicembre 2024
12:28
Suchir Balaji ha lavorato per quattro anni a OpenAI, la società che ha sviluppato ChatGPT. Esperto di informatica, lavorava nello staff tecnico. Ad agosto del 2024 aveva rilasciato una serie di dichiarazioni al New York Times che accusavano OpenAI di aver usato dati coperti da copyright per addestrare i suoi modelli di intelligenza artificiale.
Suchir Balaji, 26 anni, fino allo scorso agosto lavorava per OpenAI, la società specializzata in intelligenza artificiale che ha creato ChatGPT. Ha lavorato qui per quattro anni, dopo i suoi studi in informatica alla University of California. Come si può vedere dal suo profilo LikedIn era un membro dello staff tecnico, specializzato in machine learning. Il suo non è stato un normale addio all’azienda. Quando ha deciso di andarsene ha rilasciato un’intervista al New York Times in cui accusava OpenAI di aver costruito i suoi modelli di intelligenza artificiale con dati protetti dal copyright.
Nelle ultime ore le autorità di San Francisco hanno rivelato che Suchir è stato ritrovato morto. Il decesso è stato scoperto il 26 novembre ma fino ad ora è stato mantenuto il silenzio. Il corpo era in un appartamento e dalle prime informazioni sembra confermato che si sia trattato di un suicidio. Gli agenti sono intervenuti dopo una telefonata in cui si chiedeva di verificare le condizioni di salute del ragazzo. La conferma del suicidio è arrivata anche dal medico legale che segue il caso.
Le accuse di Suchir Balaji a OpenAI
Secondo Suchir Balaji il problema di OpenAI sarebbe tutto nei dati scelti dall’azienda per addestrare i suoi modelli di intelligenza artificiale, nello specifico ChatGPT. È un tema che è stato ampiamente discusso dall’autunno del 2023, quando è iniziata l’era dei chatbot. La domanda è semplice: quali dati ha usato ChatGPT per imparare a rispondere così bene?
Con l’IA le previsioni meteo saranno attendibili anche a 15 giorni: come funziona il modello di Google
Per Balaji si trattava di dati coperti da copyright: “L’uso di dati protetti da copyright da parte di OpenAI per creare ChatGPT violava la legge”. E ancora: “Questo non è un modello sostenibile per l’ecosistema di Internet nel suo complesso”. Su questo fronte le cause in corso contro OpenAI sono parecchie, a partire da quella avviata nel dicembre del 2023 proprio dal New York Times.
Al momento la società si è sempre difesa dicendo invece di aver usato solo informazioni accessibili in modo libero da chiunque. Nonostante questo, nell’ultimo anno OpenAI è stata raggiunta anche da altre cause, organizzate da case editrici o da gruppi di autori a cui sarebbero stati rubati testi e pubblicazioni. Non solo, anche un gruppo di programmatori ha fatto causa a OpenAI e Microsoft con l’accusa di aver addestrato l’intelligenza artificiale di CoPilot usando parti di software open source. Al momento l’esisto, almeno quello delle cause principali, non è ancora arrivato.