fbpx
News Tech

L’Europa ha redatto le prime linee guida sull’intelligenza artificiale

L’Europa non sarà al primo posto per la ricerca e lo sviluppo di intelligenze artificiali, campo in cui invece eccellono la Cina e gli Stati Uniti. Ma è forse la prima a manifestare concretamente la volontà di educare alle intelligenze artificiali. Grazie a un team di 52 esperti selezionati dal mondo accademico, industriale e civile, l’Europa ha redatto un primo codice etico sull’intelligenza artificiale. Non una lista di ciò che le IA possono o non possono fare, quanto piuttosto una guida sui principi che dovrebbero regolare lo sviluppo e l’uso di queste tecnologie.

Leggendo il documento, si può avvertire l’entusiasmo dell’Unione nei confronti delle intelligenze artificiali. Il team infatti ne riconosce i benefici sulla vita dell’uomo, ma mette in guardia anche dai possibili rischi che possono derivare dal loro uso; lo scopo è, quindi, quello di massimizzare i benefici e minimizzare i rischi. Per questo viene adottato un approccio cosiddetto “umano-centrico”, ovvero focalizzato ad una creazione che possa portare solo che benefici alla vita dell’uomo.
Nasce così l’idea di intelligenza artificiale “degna di fiducia”, accessibile e vicina al cittadino.

iCub, il robot esperimento famoso in tutto il mondo dell’Istituto Italiano di Tecnologia

Quali sono le caratteristiche di un’intelligenza artificiale “degna di fiducia”?

Secondo l’Europa, un’intelligenza artificiale del genere dovrebbe rispettare due requisti.
Innanzitutto, per essere degna di fiducia questa deve rispettare i diritti umani fondamentali, i princìpi e i valori sociali, nell’ottica di un “fine etico”. Deve poi essere tecnicamente “robusta”, ovvero costruita in modo tale da essere in grado di affrontare errori e riuscire a gestire eventuali esiti erronei. Affidabilità, riproducibilità, accuratezza e resistenza agli attacchi sono altre caratteristiche che devono essere prese in considerazione durante lo sviluppo delle intelligenze artificiali.

Un riassunto

Il documento, articolato in tre capitoli e 37 pagine, analizza nel dettaglio le iniziative proposte dall’Unione. Noi vi proponiamo una lista riassuntiva dei punti fondamentali delle linee guida, riprendendo alcuni dei punti già esposti e ampliandoli.

Capitolo 1: assicurare il “fine etico”.

  • Fare in modo che le IA siano umano-centriche. Ciò vuol dire che devono essere sviluppate nel rispetto dei diritti fondamentali e valori della società, riassumibili in Beneficenza (ovvero fare del bene), Non-Maleficenza, Autonomia degli umani, Giustizia ed essere spiegabili.
  • Basarsi sui diritti fondamentali per valutare i possibili effetti delle IA sugli esseri umani e il bene comune. Nello sviluppo delle IA bisogna fare infatti attenzione a situazioni che possono coinvolgere gruppi vulnerabili (bambini, minorità o disabili), o in cui siano presenti asimmetrie di potere e informazione.
  • Essere sempre coscienti del fatto che le IA possono avere anche un impatto negativo sugli umani e sulla società.

Capitolo 2: creare un’IA “degna di fiducia”

  • Integrare i requisiti di fiducia già dalle primissime fasi di progettazione. Tra questi ci sono l’accessibilità a tutti dell’IA, la non discriminazione, il rispetto per l’autonomia umana e la privacy, la sicurezza e la trasparenza.
  • Pensare a metodi tecnici e non tecnici per assicurare l’inserimento di questi valori nel sistema delle IA. Questi dovrebbero essere presi in considerazione durante la creazione del team di lavoro (che dovrebbe essere il più vario possibile) e nel momento in cui le potenziali applicazioni dell’IA vengono testati.
  • Fornire in maniera chiara le informazioni sull’IA ai soggetti interessati (che possono essere compagnie, clienti, dipendenti, ecc) riguardo le sue capacità e i suoi limiti, rendendo possibile fare aspettative realistiche del suo funzionamento.
  • Rendere l’idea di IA “degna di fiducia” parte della cultura di una certa organizzazione
  • Coinvolgere i soggetti interessati nella progettazione e nello sviluppo dell’IA
  • Prevedere una formazione ed educazione sull’idea di IA “degna di fiducia”.

L’Unione Europea incoraggia inoltre chiunque lavori con le intelligenze artificiali di adottare un approccio “analitico”, mettendole continuamente alla prova e assicurando esiti sempre migliori lungo tutto il ciclo vitale delle IA.

Appare chiaro come quindi l’Unione Europea non voglia “imbrigliare” il funzionamento delle intelligenze artificiali in uno schema di regole, quanto piuttosto educare i cittadini, ma soprattutto gli sviluppatori, ad un utilizzo cosciente di questa tecnologia, che può davvero fare del bene a tutti.

FONTE

Per rimanere informati sul mondo nerd, continuate a seguirci sul nostro sito DrCommodore.it e su FacebookInstagramTelegramYouTubeDiscord e Twitch.

Facebook Comments

Eleonora Amenta

Eleonora, 21 anni, (quasi sempre) da Roma.
Studio lingue, ma trovo sempre tempo per appassionarmi a qualcosa di nuovo.