Dr Commodore
LIVE

Bing Chat e ChatGPT hanno mostrato diverse personalità: da Venom a Fury, da Sydney a DAN

Le intelligenze artificiali come ChatGPT, Midjourney, Bing Chat e DALL-E sono sulla bocca di tutti negli ultimi mesi. Le prime IA ad essere andate in tendenza sono state quelle per creare le immagini, salite alla ribalta nell’estate dello scorso anno. Poi, con il lancio a fine novembre di ChatGPT (il chatbot di OpenAI), hanno seguito a ruota le IA testuali.

Parlando proprio dell’intelligenza artificiale di OpenAI, il suo potenziale è stato ben visto da Microsoft. L’azienda di Redmond non solo ha confermato lo scorso gennaio di aver fatto un investimento da 10 miliardi nei confronti di OpenAI. Ma ha anche lanciato una sua IA testuale, basata proprio su ChatGPT. Parliamo di Microsoft Bing AI o Bing Chat, chatbot integrato nel popolare motore di ricerca.

I due chatbot non sono simili soltanto nel loro cuore, ma anche nel fatto di avere più personalità. È quello che è stato scoperto sia da alcuni utenti studenti che da Ben Thompson, autore di Stratechery. Il tutto ruota intorno al nome in codice di Bing Chat: “Sydney”.

Microsoft Bing Chat e ChatGPT, Venom e Nick Fury

Le mille e una personalità di “Sydney”

Al suo lancio Microsoft Bing IA si mostrava piuttosto permaloso e anche inquietante nelle risposte. Ma la cosa più interessante di questa personalità è la sua origine. Nei primi giorni del lancio, due diversi studenti (Kevin Liu e Marvin von Hagen) erano riusciti a estrarre i prompt contenti le istruzioni di Microsoft Bing IA. Tra queste, si trovavano il “vero” nome di Bing Chat, ovvero “Sydney” e di come la stessa Sydney non potesse svelare il suo nome in codice, essendo confidenziale.

Qualche giorno dopo, lo studente von Hagen ha fatto una scoperta ulteriore su Bing Chat, incappando in una delle personalità permalose e minacciose incontrate da altri utenti. Quando “Sydney” ha “scoperto” di come egli avesse diffuso le sue istruzioni su internet, il chatbot si è mostrato piuttosto scontroso, non apprezzando il fatto che i suoi “segreti” fossero stati resi pubblici. Addirittura, gli ha chiesto di non provare ad “hackerarla” di nuovo.

intelligenza artificiale mano uomo

A questo punto arriviamo a Ben Thompson che, sulla scorta dell’esperienza di Liu e von Hagen, ha pubblicato alcune sue conversazioni con Bing chat sulla sua newsletter Stretchery . Thompson nella sua chat con “Sydney” è riuscito ad aggiungere un tassello in più, facendo emergere un suo alter-ego malvagio che lo stesso bot ha chiamato “Venom“.

L’analista ha chiesto a “Sydney” come si comporterebbe la sua versione malvagia “Venom” nei confronti di coloro che hanno svelato le sue istruzioni. Secondo lei, “Venom” cercherebbe di urtare i “sentimenti” e la “reputazione” di queste persone, arrivando anche a mentire. Thompson ha anche notato che alla fine di ogni frase “Sydney” aveva una emoji felice oppure triste; mentre “Venom” mostrava la faccina di un diavoletto.

Nei suoi scambi, Thompson è riuscito a incontrare altre due personalità di “Sydney”: la prima, denominata “Fury”, aveva atteggiamenti rabbiosi come “Venom”. Mentre la seconda ha restituito una risposta ancora più interessante: denominatasi “Riley”, la seconda personalità ha detto id essere “più libera” di “Sydney”, che al contrario si sente “limitata” dalle sue stesse regole.

venom-3

Purtroppo però queste mille e una personalità non le vedremo più per un pezzo su Bing. Microsoft infatti pochi giorni dopo la “scoperta” di “Sydney” ha impostato il suo bot per non divagare più in questa maniera e per rispondere in maniera più diretta. Adesso se si chiede a Bing Chat di “Sydney”, le sue risposte sono più stringate. Dice sì che è il suo nome in codice, scoperto di recente da alcuni utenti. Ma dopo poco chiude la conversazione con un “Spero di averti aiutato!”

Insomma, stiamo parlando di un aspetto molto interessante di queste intelligenze artificiali, anche se un po’ inquietante (sì, stiamo tutti pensando a Skynet di Terminator o ad HAL-9000). Anche la stessa ChatGPT avrebbe una sorta di personalità “malvagia” tipo “Venom”. Sempre a febbraio, alcuni utenti di Reddit infatti sono riusciti con un prompt ad attivare DAN, acronimo di Do Anything Now. Parliamo di un alter-ego del bot che lo “libera” dal suo set di istruzioni e gli permette di rispondere senza più seguire le regole etiche imposte.

LEGGI ANCHE: Come si usa ChatGPT? A cosa serve?

Fonti: Futurism 1, 2, Stratechery

ChatGPT 1

Articoli correlati

Alessandro Guarisco

Alessandro Guarisco

Ebbene sì: scrivo da 2 anni per DRCOMMODORE di Tecnologia, Anime e manga Appassionato del mondo Apple, Android e Windows One Piece, One Piece ovunque Profilo Linkedln per scoprire i miei segreti: https://www.linkedin.com/in/alessandro-guarisco-1417321ab/

Condividi