Dr Commodore
LIVE

OpenAI, la causa del licenziamento di Sam Altman potrebbe essere l’invenzione di un’AI pericolosa per l’umanità

Il mondo delle AI è stato recentemente sconvolto da un’inaspettata notizia: il licenziamento di Sam Altman da OpenAI per motivi sconosciuti. Il provvedimento è durato solo pochi giorni, per via delle proteste dei dipendenti dell’azienda e dei fan di tutto il mondo, ma sta comunque continuando a far discutere molto, soprattutto per quelle che sembrerebbero essere le ragioni alla base della decisione.

Nelle ultime ore infatti, sono emersi alcuni dettagli relativi a uno dei progetti a cui OpenAI stava lavorando prima del licenziamento: il progetto Q*(da pronunciare Q-star), all’interno del quale i ricercatori sarebbero riusciti a creare un’AGI, un’Intelligenza Artificiale Generale, ovvero un tipo di AI molto potente e pericoloso.

Secondo alcune fonti di Reuters, i recenti conflitti interni sarebbero dovuti a differenti vedute sull’utilizzo di questa nuova tecnologia: Altman, diversamente da altri colleghi, voleva commercializzare la nuova intelligenza artificiale prima di studiarne le conseguenze sull’umanità. Tuttavia, il tentativo del CEO sarebbe stato bloccato sul nascere con il (temporaneo) licenziamento. Ma cos’è un’AGI? E perché una parte di OpenAI ha cercato di fare di tutto perché questa nuova AI non venisse rilasciata prima di studi più approfonditi a riguardo?

openai

I diversi livelli di Intelligenza Artificiale e la decisione di OpenAI

Secondo il filosofo Nick Bostrom, esistono tre livelli di Intelligenza Artificiale:

  • l’ANI (Artificial Narrow Intelligence), un’AI dallo scarso potenziale, capace solo di svolgere singole attività o compiti ben definiti sulla base di semplici regole;
  • l’AGI (Artificial General Intelligence), un’AI con le stesse capacità cognitive umane e in grado di ricordare, argomentare e usare la logica;
  • l’ASI (Artifical Super Intelligence), che ha, almeno teoricamente, capacità superiori a quelle umane.

Attualmente tutte le intelligenze artificiali che utilizziamo nella vita di tutti i giorni appartengono alla prima categoria, mentre gli altri due tipi rimangono solo una speculazione teorica. O almeno così pensavamo prima di venire a conoscenza del progetto Q*.

Sulla base di quanto detto da una fonte interna a OpenAI intervistata da Reuters, la nuova intelligenza artificiale ideata da Q* appartiene al secondo tipo ed è stata in grado di eseguire calcoli al livello di matematica di scuola elementare in modo deterministico. Ciò vuol dire che, invece di esaminare un set di soluzioni predefinite e scegliere quella più probabile, come farebbe una qualsiasi delle AI già in commercio, è stata capace di dedurre la soluzione sulla base delle informazioni in suo possesso, agendo in maniera simile a un cervello umano. Un’AI di questo tipo dunque, se ulteriormente sviluppata, sarebbe in grado di ragionare in maniera totalmente autonoma e agire secondo i propri interessi, avendo dunque teoricamente anche la capacità di decidere deliberatamente di distruggere l’umanità, nel caso le fosse utile in qualche modo.

Per questo motivo gran parte di OpenAI voleva che, prima di un’eventuale commercializzazione, venissero svolti studi sulla possibile pericolosità di questa nuova tecnologia. Altman probabilmente non apparteneva a questo gruppo e voleva che l’AI venisse pubblicata il prima possibile, una posizione che avrebbe spinto la direzione al licenziamento. Vedremo ora se, con il suo ritorno in OpenAI, avrà cambiato idea o se sarà ancora convinto di voler accelerare il più possibile la conclusione del progetto Q*.

openai

LEGGI ANCHE CHATGPT: OPENAI ANNUNCIA LA NUOVA VERSIONE CON ANALISI DELLE IMMAGINI (E VIOLAZIONE DELLA PRIVACY)

Articoli correlati

Simone Gambaro

Simone Gambaro

Aspirante scrittore classe 1997 amante di tutto ciò che è intrattenimento. Vivo in provincia di Milano e adoro i Pokémon, i libri di Philip K. Dick, i film horror e la musica rap.

Condividi