Dr Commodore
LIVE
chatbot chatgpt

Chi è responsabile delle risposte dei chatbot?

I chatbot e le intelligenze artificiali (AI) costituiscono una fetta importantissima delle gioie e dei dolori dell’umanità in questo periodo di innovazione tecnologica. Servizi come ChatGPT, Bing e Bard, che emulano il parlato umano tramite dei modelli linguistici, hanno raggiunto nei mesi passati l’apice del loro successo grazie anche al loro essere tipicamente gratuiti e facilmente accessibili.

Non serve guardare troppo lontano, però, che subito ci si imbatte in articoli che annunciano come le AI stravolgeranno il mondo del lavoro e proteste di grandi e piccoli personaggi contro ChatGPT. O ancora, notizie di robot a capo di aziende e lamentele dell’UNESCO per l’utilizzo dei chatbot nelle scuole.

Tutto questo fermento sul tema ha generato diverse discussioni etiche, morali e legali sull’impiego delle varie intelligenze artificiali in tutti gli ambiti della vita quotidiana e specialmente sul lavoro. “È giusto pagare un attore una sola volta per depositare voce e volto, quando poi le AI potranno riutilizzarli per sempre?“, oppure: “È legale utilizzare opere letterarie famose per far progredire linguisticamente i chatbot?“. Dal momento che scarseggiano nel mondo delle regolamentazioni a questo riguardo, è solo giusto chiedersi anche, come da titolo, chi è responsabile delle risposte dei chatbot?

chatbot chatgpt

Il caso del chatbot di Air Canada

Un piccolo esempio, per riflettere meglio sulla questione, viene direttamente da Air Canada. Nel marzo scorso, la compagnia aerea aveva lanciato un chatbot per il suo sito in grado di gestire i numerosi piccoli intoppi quotidiani ed alleggerire il carico che gravava sulle spalle degli addetti al suo call center. Ritardi, cancellazioni o variazioni inaspettate? Ci pensa l’AI!

Questo sistema stava diventando così affidabile e vantaggioso che il CIO di Air Canada (il responsabile dei sistemi informativi) Mel Crocker aveva dichiarato in un’intervista come fosse più economico ed efficiente lasciare che il chatbot si occupasse di questi piccoli inconvenienti piuttosto che pagare dei centralinisti umani per farlo. In questo modo, stando alle sue parole, il cliente avrebbe avuto addirittura un‘esperienza migliore, soprattutto col progredire di questa tecnologia.

chatbot air canada

Così non è stato però per Jake Moffatt, passeggero che intendeva avvalersi della politica di “viaggio per lutto” di Air Canada, il giorno in cui un suo affetto venne a mancare. Incerto di come funzionasse questa loro policy, Moffatt si era rivolto al chatbot per dei chiarimenti su un volo da Vancouver a Toronto. La macchina gli aveva prontamente risposto di procedere con l’acquisto del biglietto per poi richiedere un rimborso parziale entro 90 giorni dall’emissione.

Nonostante l’aver seguito le direttive del chatbot, però, il cliente si sarebbe poi visto negare con grande sorpresa la richiesta, in quanto le politiche della compagnia non prevedrebbero alcun rimborso una volta effettuata la prenotazione del volo. Da quell’evento, Moffatt avrebbe provato per mesi a convincere Air Canada che un rimborso sarebbe stato d’obbligo, condividendo con loro lo screenshot del dialogo avuto con l’AI.

chatbot air canada

Dal canto suo, la compagnia aerea non poté fare altro che offrire un coupon da 200 dollari e promettere di aggiornare il bot, ma questo a Moffatt non andò giù e la vicenda finì in tribunale. Lì, Air Canada si sarebbe difesa dicendo che il cliente non si sarebbe mai dovuto fidare solo del chatbot, e che la compagnia non dovrebbe essere ritenuta responsabile per il comportamento della macchina, in quanto essa sarebbe: “un’entità giuridica a parte che è responsabile delle proprie azioni“.

Naturalmente questa difesa non ebbe alcun effetto e Moffatt si vide accordare un risarcimento di 650 dollari canadesi, insieme ad ulteriori 1.640 dollari per coprire danni e spese giudiziarie. Mentre per certi versi ci si continua a interrogare su chi abbia realmente la responsabilità delle risposte di un chatbot che impara da solo, quello di Air Canada parrebbe essere stato disattivato dal sito della compagnia senza ulteriori spiegazioni.

chatbot

Rischi di un chatbot sul posto di lavoro

Quella di Air Canada e storie affini hanno fatto crescere una serie di timori su come i dipendenti possano utilizzare questi strumenti sul posto di lavoro e di come questi potrebbero compromettere l’azienda invece che aiutarla. Le preoccupazioni spaziano dalla riservatezza e privacy all’accuratezza, dal bullismo/ molestie sul posto di lavoro alla proprietà del prodotto lavorativo.

Abbiamo già parlato infatti di come l’inesattezza di alcune informazioni abbia provocato danni sia alla compagnia che al cliente che si avvaleva di un chatbot, ma cosa potrebbe accadere nel momento in cui, ad esempio, un simile strumento che immagazzina informazioni sul suo utilizzatore è causa di una fuga di dati involontaria? Queste ad altre domande sono state alla base delle perplessità del Garante della Privacy che ha portato al ban temporaneo di ChatGPT in Italia nel marzo del 2023.

chatgpt chatbot

Un altro grande problema non ancora regolato, affine a quello della privacy, è quello della proprietà di ciò che viene prodotto o immesso sui chatbot. Un autore di testi letterari o codici di programmazione potrebbe chiedere aiuto a ChatGPT per la stesura di uno dei due, ma a quel punto la domanda sorge spontanea: il lavoro svolto si potrebbe veramente considerare di proprietà dell’umano? O è frutto del lavoro della macchina, e come tale essa ne detiene i diritti? Per non tralasciare la grave possibilità che suddetti testi vengano “riciclati” in risposta ad altri utenti, con tutte le implicazioni del caso.

Purtroppo si sa, internet non è solo pieno di persone dalle buone intenzioni, e l’uso malevolo degli strumenti AI potrebbe finire per arrecare danni e molestie sul posto di lavoro. Nelle mani sbagliate, infatti, questi servizi possono generare contenuti diffamatori come false biografie, dichiarazioni pubbliche inventate o immagini inappropriate dei propri colleghi. Anche quest’ambito, per quanto assurdo possa sembrare, non è stato ancora del tutto regolamentato.

chatbot

Come proteggere se stessi e gli altri

In questi casi, un semplice corso d’aggiornamento per i mestieri più a “rischio chatbotpotrebbe non bastare. Certo, sarebbe buona norma educare i lavoratori di tutto il mondo ad utilizzare questi nuovi strumenti tecnologici che stanno sconvolgendo il mondo, mostrandone le capacità e le vulnerabilità, gli input da utilizzare e quelli da evitare completamente; ma la mossa migliore sarebbe unire queste iniziative a delle regolamentazioni fisse a seconda del posto di lavoro, con tanto di conseguenze disciplinari che possano applicarsi all’utilizzo dannoso di questi strumenti.

Dato poi il rapido sviluppo dei chatbot e delle AI in generale, è importante che i datori di lavoro effettuino costanti revisioni al loro sistema ed alle linee guida, assicurandosi che siano aggiornate di pari passo. Una persona addetta al controllo del chatbot di un’azienda potrebbe prevedere lo sviluppo di una certa vulnerabilità ed evitare futuri errori di incongruenza come quello di Air Canada. E chissà, magari così facendo, oltre a creare nuovi posti di lavoro con l’AI, riusciremo anche a trovare un equilibrio per conviverci.

chatgpt chatbot

Fonti: Lexology, Ars Technica

LEGGI ANCHE: OpenAI, rimossi i divieti sull’uso militare di ChatGPT

Articoli correlati

Matteo Zazza

Matteo Zazza

Scrittore e favolista dal 1997, a quanto pare (chi sono io per contraddire Google?). Autore di: "Manuale di Difesa e Protezione dalle Creature delle Favole" e "La Ballata di Irontray".

Condividi