Dr Commodore
LIVE

I chatbot come ChatGPT dovrebbero agire secondo etica?

Le differenze tra uomo e macchina sono molteplici. Tra queste, risalta la morale, ossia l’insieme dei precetti spirituali che guidano l’essere umano a scegliere consapevolmente tra azioni ugualmente possibili. Con l’avvento dei chatbot di ultima generazione e, in special modo, di ChatGPT, il problema della morale nelle IA sei è fatto reale.

Queste intelligenze artificiali, infatti, sono create e addestrate per interagire in modo attivo con gli esseri umani, rispondendo con frasi di senso compiuto agli input dell’utente. I chatbot, interloquendo con gli esseri umani, vengono influenzati da questi ed evolvono di conseguenza ma non agiscono secondo gli schemi morali comuni alle persone.

ChatGPT, ma con una morale

Oggigiorno, le IA stanno sempre più entrando nelle nostre vite, ma molte persone restano scettiche. Secondo un recente studio condotto negli Stati Uniti, il 78% degli americani è preoccupato che questi software possano venir usati per scopi illeciti.

europol chatgpt criminali 1

Questi timori, lungi dall’apparire catastrofici, risultano fondati: le IA, per quanto avanzate siano, al momento attuale restano delle macchine e come tali agiscono in risposta agli stimoli dell’utente senza curarsi se ciò che stiano facendo sia moralmente giusto o sbagliato.

Per fare un esempio, un chatbot può essere “riprogrammato” dall’utente per perpetrare truffe online e tutto questo semplicemente immettendo nel software degli specifici input.

Siamo ancora lontani dal realizzare un chatbot del calibro di ChatGPT che possa agire e rispondere seguendo un’etica. Di questo avviso è Fractal, una società di analisi e consulenza che si occupa di implementare l’intelligenza artificiale nei network delle grandi aziende e che sta cercando di sviluppare una IA con una morale. La ricerca è ancora in fase embrionale.

open-ai-ChatGPT

LEGGI ANCHE: Non solo ChatGPT: 4 alternative al chatbot di OpenAI

Secondo Sray Agarwal, consulente principale di Fractal, gran parte delle persone e delle società sono propense ad utilizzare ChatGPT per generare dei contenuti. Questa propensione però cessa di colpo quando si tratta di situazioni rischiose. In questi casi i chatbot non vengono usati per via numerosi timori”. Agarwal precisa che si tratta per lo più di preoccupazioni legali conseguenti all’uso del software.

L’implementazione nelle IA di una morale, unita a una stretta regolamentazione (per il momento del tutto assente Oltreoceano e solo abbozzata in Europa) potrebbe portare a superare questo stato di diffidenza, portando al contempo ChatGPT e gli altri chatbot a un nuovo stadio evolutivo.

ChatGPT

Fonti: 1

Articoli correlati

Francesco Lanciano

Francesco Lanciano

Classe 1998, videogiocatore incallito e da sempre appassionato alla tecnologia

Condividi