OpenAI, la società dietro lo sviluppo di ChatGPT, perde un importante membro del suo team. Infatti, il responsabile sicurezza del modello di intelligenza artificiale generativa ha rassegnato le proprie dimissioni dalla fortunata startup statunitense.
L’uscita, in realtà, risale allo scorso novembre, ma solo adesso l’evento è diventato di dominio pubblico. L’ex responsabile, attraverso una serie di post su X (il fu Twitter), ha rivelato la sua fuoriuscita e ha cercato di illustrare le ragioni dietro a questa decisione radicale.
OpenAI ha perso il suo responsabile della sicurezza informatica.
Steven Adler, questo il nome dell’ex responsabile della sicurezza informatica di OpenAI, ha raccontato le ragioni che l’hanno portato a lasciare il colosso dell’intelligenza artificiale generativa con alcuni post su X, trattando incidentalmente temi come la valutazione dei rischi collegati all’AI generativa, l’identità digitale o il controllo dei sistemi di AI.

LEGGI ANCHE: OpenAi: il CEO Sam Altman è stato denunciato di abusi sessuali dalla sorella minore
Ciò che colpisce è il suo “terrore” nei confronti della corsa internazionale verso l’intelligenza artificiale e verso la velocità con cui progrediscono le ricerche sulle AI. A detta di Adler, la corsa alle AI rappresenta “una scommessa molto rischiosa” che nasconde “enormi svantaggi” collegati alla sicurezza dell’algoritmo.
Infatti, la crescente velocità di sviluppo adottata da tutte le società di tutto il mondo (si pensi, tra tutti, al caso DeepSeek e all’opera di efficientamento portata avanti dalla startup di Hangzhou) fa insorgere problematiche circa l’allineamento del modello di intelligenza artificiale.

Adler, nei post, ha osservato come, già prima della corsa all’AI, non esistessero laboratori specializzati nel cercare soluzioni per l’allineamento dell’algoritmo. In questo momento storico, dove la corsa al progresso spinge ad accelerare, si corre il forte rischio di tralasciare ancora di più la sicurezza del sistema, lasciando in piedi falle che altrimenti sarebbero state risolte.
L’ex responsabile della sicurezza di OpenAI si dice addirittura preoccupato e pessimista circa il futuro dei sistemi di intelligenza artificiale, poiché in tutte le corse al progresso, pur di arrivare prime, le società sono disposte a intraprendere “scorciatoie” pericolose.
Steven Adler non è l’unico membro del team di sicurezza ad aver rassegnato le dimissioni: già a maggio 2024 Jan Leike, allora responsabile del Superalignement Team, aveva lasciato la compagnia americana a causa di divergenze di opinioni con la dirigenza per quanto riguarda aspetti cruciali dei sistemi di AI, quali la sicurezza e il monitoraggio.