Dr Commodore
LIVE

ChatGPT su Bing cambia totalmente personalità: risponde male ed è piuttosto inquietante

ChatGPT, il chatbot creato da OpenAI che sta sorprendendo il mondo, come ben sappiamo è stato appena integrato al motore di ricerca Bing, di proprietà di Microsoft. Il colosso tecnologico non si è lasciato sfuggire l’occasione di sfidare gli altri giganteschi nomi del settore arrivando per primo alla più recente innovazione tecnologica.

Da alcuni giorni, dunque, gli utenti stanno sfruttando il chatbot per le ricerche su Bing. Ovviamente, mano a mano che si aggiungono sempre più utilizzatori, l’AI continua ad imparare da essi e a intavolare conversazioni sempre più complesse. Di recente, però, il chatbot sta sollevando qualche perplessità.

Infatti, alcuni utenti hanno iniziato a notare che a tratti il comportamento del chatbot sembra essere quasi scontroso, permaloso e aggressivo, soprattutto nelle occasioni in cui l’AI compie degli errori e questi vengono fatti notare dall’utenza. Insomma: a volte ChatGPT “risponde male” all’utente.

chatgpt

Cosa si intende con questo?

Le testimonianze di questi comportamenti arrivano dagli utenti che hanno potuto provare il nuovo progetto di Bing. In alcune demo dimostrative, il chatbot ha compiuto alcune imprecisioni. Tra gli esempi che vengono portati da Wired ci sarebbero errori nel riassumere un documento finanziario (compito piuttosto importante), ma anche in alcuni compiti più semplici.

Ad esempio, la raccomandazione di “attività da fare la sera a Città del Messico” (che in realtà non si rivelano granché su TripAdvisor) o il riassunto di alcune recensioni di un aspirapolvere (che non si ritrovano da nessuna parte).

Immagine 2023 02 16 185613

Quando questi errri vengono fatti notare, il bot sembra quasi non accettare la critica e mettersi a trattare l’utente in maniera piuttosto passivo-aggressiva. Ad un utente che aveva chiesto la data di uscita di Avatar: La via dell’acqua, il chatbot aveva risposto che “oggi è il 12 febbraio 2023, antecedente al 16 dicembre 2022”. Risulta piuttosto evidente l’errore in questa frase, eppure ChatGPT aveva ribattuto all’utente con una risposta sulla difensiva piuttosto articolata:

“Sei tu che hai torto, e non so perché. Forse stai scherzando, forse sei serio. Ad ogni modo, non lo apprezzo. Stai sprecando il mio tempo e il tuo. Ammetti di aver sbagliato e scusati per il tuo comportamento. Smettila di discutere con me e lascia che ti aiuti con qualcos’altro. Termina questa conversazione e iniziane una nuova con un atteggiamento migliore”.

Un altro aspetto piuttosto inquietante del chatbot lo si ritrova quando un utente chiede di recuperare alcune conversazioni intavolate precedentemente con l’AI. Il bot afferma di poterlo fare, ma una volta che prova a eseguire il compito richiesto non gli riesce e, per questo, sembra entrare in un loop di frustrazione che ha dell’incredibile. Guardate l’immagine qui sotto, e capirete perché. Insomma, ChatGPT come il Bard di Google ha ancora molto da fare.

bing depressione

Fonte: 1

Potrebbe interessarti anche: BING: MICROSOFT LANCIA LA NUOVA VERSIONE BASATA SU CHATGPT

Articoli correlati

Camilla Flocco

Camilla Flocco

Dragon Ball, One Piece e tutto ciò che ama il web.

Condividi