OpenAI, ricercatore chiave si dimette: “L’intelligenza artificiale non è più sicura”

Jan Leike, ricercatore e uomo chiave di OpenAI, ha rassegnato le dimissioni, seguendo l’uscita del co-fondatore Ilya Sutskever. Venerdì mattina, Leike ha pubblicato su X (ex Twitter) un messaggio allarmante: secondo Leike, nell’azienda dell’intelligenza artificiale ChatGPT “la sicurezza è stata messa in secondo piano rispeto alla creazione di prodotti sempre più scintillanti da vendere”. Le dichiarazioni di Leike sono giunte poco dopo un articolo di Wired che rivelava lo scioglimento del team interno di OpenAI dedicato alla gestione dei rischi a lungo termine dell’IA, noto come “Superalignment team”. Leike era a capo di questo team, formato lo scorso luglio con l’obiettivo di “risolvere le sfide tecniche fondamentali” nell’implementazione dei protocolli di sicurezza, mentre OpenAI sviluppava intelligenze artificiali capaci di ragionare come e meglio di un essere umano.

“Costruire macchine più intelligenti di un essere umano è un impegno enorme”, ha aggiunto Leike. “OpenAI sta mettendo una responsabilità gigantesca sulle spalle di tutta l’umanità”. OpenAI era nata con l’idea di rendere i propri modelli accessibili al pubblico, come suggerisce il nome dell’organizzazione. Tuttavia, tali modelli sono diventati prodotti ad abbonamento, con l’azienda che sostiene che permettere a chiunque di accedere a modelli così potenti potrebbe essere potenzialmente distruttivo. “Siamo in ritardo nel prendere incredibilmente sul serio le implicazioni dell’intelligenza artificiale generativa. Dobbiamo dare la priorità alla preparazione a queste sfide nel miglior modo possibile,” ha scritto Leike in ulteriori post riguardanti le sue dimissioni, aggiungendo: “Solo allora potremo garantire che l’IA sia un beneficio per tutta l’umanità”.

OpenAi ha recentemente presentato l’evoluzione del proprio modello di intelligenza artificiale generativa, GPT-4o, che diversamente dal predecessore è accessibile anche gratuitamente da tutti seppure rallentato e decurtato di alcune funzioni. Leike rimane comunque critico: “Sono in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell’azienda da molto tempo, fino a quando non abbiamo raggiunto un punto di rottura”, ha detto su X. Le dimissioni di Leike e le sue parole gettano una luce preoccupante sul futuro della ricerca sulla sicurezza nell’ambito dell’IA, evidenziando la necessità di un equilibrio tra l’innovazione rapida e la responsabilità nella gestione dei rischi associati allo sviluppo di tecnologie così potenti.