Orientamenti etici per un'IA affidabile dalla Commissione Europea

Pdf dalla Commissione Europea su Orientamenti Etici per Un'IA Affidabile. Il Materiale, destinato a studenti universitari di Informatica, presenta gli orientamenti etici per un'IA affidabile, includendo una lista di controllo per la valutazione e la governance, fornendo un quadro per lo sviluppo responsabile dell'intelligenza artificiale.

Mostra di più

52 pagine

GRUPPO INDIPENDENTE
DI ESPERTI AD ALTO LIVELLO
SULL'INTELLIGENZA ARTIFICIALE
ISTITUITO DALLA COMMISSIONE EUROPEA NEL GIUGNO 2018
ORIENTAMENTI ETICI
PER UN'IA AFFIDABILE
ORIENTAMENTI ETICI PER UN'IA AFFIDABILE
Gruppo di esperti ad alto livello sull'intelligenza artificiale
Il presente documento è stato redatto dal gruppo di esperti ad alto livello sull'intelligenza artificiale (IA).
Sebbene i membri di tale gruppo, menzionati nel presente documento, sostengano il quadro di riferimento
generale per un'IA affidabile illustrato nei presenti orientamenti, non necessariamente essi condividono ogni
singola affermazione contenuta nel documento stesso. .
La lista di controllo per la valutazione dell'affidabilità dell'IA presentata nel capitolo III del presente documento
sarà sottoposta ai portatori di interessi affinché la sperimentino (fase pilota) e forniscano un riscontro pratico.
All'inizio del 2020 sarà presentata alla Commissione europea una versione di tale lista di controllo riveduta
tenendo in considerazione i riscontri raccolti durante la fase pilota.
Il gruppo di esperti ad alto livello sull'intelligenza artificiale è indipendente ed è stato istituito dalla Commissione europea
nel giugno 2018.
Referente: Nathalie Smuha - Coordinatrice del gruppo di esperti ad alto livello sull'IA
E-mail: CNECT-HLG-AI@ec.europa.eu
Commissione europea
B-1049 Bruxelles
Documento reso pubblico il 8 aprile 2019.
Un primo progetto del presente documento, pubblicato il 18 dicembre 2018, è stato sottoposto a una consultazione
pubblica durante la quale oltre 500 partecipanti hanno fornito il proprio riscontro. Il gruppo desidera esprimere un vivo
ringraziamento a tutti coloro che hanno fornito un riscontro sul primo progetto di documento. Tali riscontri sono stati
presi in considerazione durante la preparazione della presente versione riveduta.
La Commissione europea, o qualsiasi soggetto che agisce in suo nome, non sarà ritenuta in alcun modo responsabile
dell'uso che può essere fatto delle informazioni che seguono. I contenuti del presente documento di lavoro ricadono sotto
l'esclusiva responsabilità del gruppo di esperti ad alto livello sull'IA. Sebbene il personale della Commissione sia stato
coinvolto per agevolare la preparazione degli orientamenti, le opinioni espresse nel presente documento riflettono il
parere del gruppo di esperti ad alto livello sull'IA e non possono in alcun caso essere considerate come una posizione
ufficiale della Commissione europea.

Visualizza gratis il Pdf completo

Registrati per accedere all’intero documento e trasformarlo con l’AI.

Anteprima

GRUPPO INDIPENDENTE DI ESPERTI AD ALTO LIVELLO SULL'INTELLIGENZA ARTIFICIALE

ISTITUITO DALLA COMMISSIONE EUROPEA NEL GIUGNO 2018

AI

ORIENTAMENTI ETICI PER UN'IA AFFIDABILE

Gruppo di esperti ad alto livello sull'intelligenza artificiale

Il presente documento è stato redatto dal gruppo di esperti ad alto livello sull'intelligenza artificiale (IA). Sebbene i membri di tale gruppo, menzionati nel presente documento, sostengano il quadro di riferimento generale per un'IA affidabile illustrato nei presenti orientamenti, non necessariamente essi condividono ogni singola affermazione contenuta nel documento stesso. .

La lista di controllo per la valutazione dell'affidabilità dell'IA presentata nel capitolo III del presente documento sarà sottoposta ai portatori di interessi affinché la sperimentino (fase pilota) e forniscano un riscontro pratico. All'inizio del 2020 sarà presentata alla Commissione europea una versione di tale lista di controllo riveduta tenendo in considerazione i riscontri raccolti durante la fase pilota.

Il gruppo di esperti ad alto livello sull'intelligenza artificiale è indipendente ed è stato istituito dalla Commissione europea nel giugno 2018.

Referente

Nathalie Smuha - Coordinatrice del gruppo di esperti ad alto livello sull'IA E-mail: CNECT-HLG-AI@ec.europa.eu

Commissione europea B-1049 Bruxelles

Documento reso pubblico il 8 aprile 2019.

Un primo progetto del presente documento, pubblicato il 18 dicembre 2018, è stato sottoposto a una consultazione pubblica durante la quale oltre 500 partecipanti hanno fornito il proprio riscontro. Il gruppo desidera esprimere un vivo ringraziamento a tutti coloro che hanno fornito un riscontro sul primo progetto di documento. Tali riscontri sono stati presi in considerazione durante la preparazione della presente versione riveduta.

La Commissione europea, o qualsiasi soggetto che agisce in suo nome, non sarà ritenuta in alcun modo responsabile dell'uso che può essere fatto delle informazioni che seguono. I contenuti del presente documento di lavoro ricadono sotto l'esclusiva responsabilità del gruppo di esperti ad alto livello sull'IA. Sebbene il personale della Commissione sia stato coinvolto per agevolare la preparazione degli orientamenti, le opinioni espresse nel presente documento riflettono il parere del gruppo di esperti ad alto livello sull'IA e non possono in alcun caso essere considerate come una posizione ufficiale della Commissione europea.Ulteriori informazioni sul gruppo di esperti ad alto livello sull'intelligenza artificiale sono disponibili online (https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence).

La politica relativa al riutilizzo dei documenti della Commissione europea è disciplinata dalla decisione 2011/833/UE (GU L 330 del 14.12.2011, pag. 39). Per utilizzare o riprodurre foto o altro materiale libero da copyright dell'UE, occorre l'autorizzazione diretta del titolare del copyright.

SOMMARIO

SINTESI 2

A. INTRODUZIONE 5

B. UN QUADRO DI RIFERIMENTO PER UN'IA AFFIDABILE 7

I. Capitolo I - Basi di un'IA affidabile 10

1. I diritti fondamentali come titolarità di diritti morali e giuridici 10

2. Dai diritti fondamentali ai principi etici 11

II. Capitolo II - Realizzare un'IA affidabile 15

1. Requisiti di un'IA affidabile 15

2. Metodi tecnici e non tecnici per realizzare un'IA affidabile 23

III. Capitolo III - Valutazione di un'IA affidabile 28

C. ESEMPI DI OPPORTUNITÀ E SERIE PREOCCUPAZIONI DERIVANTI DELL'IA 39

D. CONCLUSIONI 43

GLOSSARIO 45

1

SINTESI

(1) L'obiettivo degli orientamenti è promuovere un'IA affidabile. Un'IA affidabile si basa su tre componenti che dovrebbero essere presenti durante l'intero ciclo di vita del sistema: a) legalità, l'IA deve ottemperare a tutte le leggi e ai regolamenti applicabili, b) eticità, l'IA deve assicurare l'adesione a principi e valori etici, e c) robustezza, dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali. Ciascuna componente in se è necessaria ma non sufficiente per realizzare un'IA affidabile. Idealmente le tre componenti operano armonicamente e si sovrappongono; qualora, nella pratica, si dovessero verificare tensioni tra di esse la società dovrebbe adoperarsi per risolverle.

(2) I presenti orientamenti definiscono il quadro di riferimento per realizzare un'IA affidabile. Esso non affronta esplicitamente la prima componente (legalità dell'IA1), ma offre piuttosto orientamenti per promuovere e garantire l'eticità e la robustezza dell'IA (la seconda e la terza componente). I presenti orientamenti sono rivolti a tutti i portatori di interessi e intendono offrire qualcosa in più di un semplice elenco di principi etici, fornendo indicazioni su come tali principi possano essere resi operativi in sistemi sociotecnici. Essi sono forniti su tre livelli di astrazione, dal più astratto capitolo I al più concreto capitolo III, e si concludono con esempi di opportunità e di serie preoccupazioni generate dai sistemi di IA.

Capitolo I: Principi etici e valori correlati

I. Il capitolo I, partendo da un approccio basato sui diritti fondamentali, individua i principi etici e i valori correlati che devono essere rispettati nello sviluppo, nella distribuzione e nell'utilizzo dei sistemi di IA.

Indicazioni chiave tratte dal capitolo I

  • Sviluppare, distribuire e utilizzare sistemi di IA aderendo ai seguenti principi etici: rispetto dell'autonomia umana, prevenzione dei danni, equità ed esplicabilità. Riconoscere e risolvere le potenziali tensioni tra questi principi.
  • Prestare particolare attenzione alle situazioni che coinvolgono gruppi più vulnerabili, come i bambini, le persone con disabilità e altri gruppi storicamente svantaggiati o a rischio di esclusione e alle situazioni caratterizzate da asimmetrie di potere o di informazione, ad esempio tra datori di lavoro e lavoratori o tra imprese e consumatori2.
  • Riconoscere e tenere presente che i sistemi di IA, pur offrendo vantaggi concreti agli individui e alla società, comportano anche dei rischi e possono avere effetti negativi, anche difficili da prevedere, individuare o misurare (ad esempio sulla democrazia, sullo Stato di diritto, sulla giustizia distributiva o sulla stessa mente umana). Se necessario, adottare provvedimenti adeguati ad attenuare tali rischi, in modo proporzionato alla loro portata.

Capitolo II: Realizzare un'IA affidabile

II. Attingendo al capitolo I, il capitolo II fornisce indicazioni su come realizzare un'IA affidabile elencando sette requisiti che i sistemi di IA dovrebbero soddisfare e per la cui attuazione possono essere utilizzati metodi tecnici e non tecnici.

Indicazioni chiave tratte dal capitolo II

  • Garantire che lo sviluppo, la distribuzione e l'utilizzo dei sistemi di IA soddisfino i requisiti di un'IA affidabile: 1) intervento e sorveglianza umani, 2) robustezza tecnica e sicurezza, 3) riservatezza e governance dei dati, 4) trasparenza, 5) diversità, non discriminazione ed equità, 6) benessere sociale e ambientale e 7) accountability.

1 Tutte le affermazioni normative del presente documento intendono rispecchiare le indicazioni per il raggiungimento della seconda e terza componente di un'IA affidabile (eticità e robustezza). Pertanto, tali affermazioni non intendono fornire né pareri giuridici né indicazioni su come ottemperare alle leggi vigenti, sebbene vada riconosciuto che molte di tali affermazioni sono in qualche misura già presenti nelle leggi vigenti. A tal proposito, cfr. paragrafo 21 e seguenti. 2 Cfr. articoli da 24 a 27 della Carta dei diritti fondamentali dell'Unione europea, che trattano dei diritti del minore, dei diritti degli anziani, dell'inserimento delle persone con disabilità e dei diritti dei lavoratori. Cfr. anche articolo 38 che tratta della protezione dei consumatori. 2

  • V Prendere in considerazione metodi tecnici e non tecnici per garantire l'attuazione di tali requisiti.
  • v Favorire la ricerca e l'innovazione a sostegno della valutazione dei sistemi di IA e del raggiungimento del rispetto dei requisiti; diffondere i risultati e le domande aperte al grande pubblico e formare sistematicamente una nuova generazione di esperti in etica dell'IA.
  • V Informare in modo chiaro e proattivo i portatori di interessi in merito alle capacità e ai limiti del sistema di IA, creando così aspettative realistiche, e in merito ai modi in cui i requisiti sono attuati. Essere trasparenti circa il fatto che si sta interagendo con un sistema di IA.
  • V Agevolare la tracciabilità e la verificabilità dei sistemi di IA, in particolare in contesti o situazioni critiche.
  • v Coinvolgere i portatori di interessi durante l'intero ciclo di vita del sistema di IA. Promuovere la formazione e l'istruzione affinché tutti i portatori di interessi siano formati e informati in merito all'IA affidabile.
  • V Essere consapevoli che vi potrebbero essere tensioni fondamentali tra i diversi principi e i diversi requisiti. Individuare, valutare, documentare e comunicare costantemente le soluzioni di compromesso.

Capitolo III: Valutazione dell'affidabilità dell'IA

III. Il capitolo III fornisce una lista di controllo concreta ma non esaustiva per la valutazione dell'affidabilità dell'IA volta a rendere operativi i requisiti enunciati nel capitolo II. Tale lista di controllo dovrà essere adattata agli specifici casi d'uso del sistema di IA3.

Indicazioni chiave tratte dal capitolo III

  • V Adottare la lista di controllo per la valutazione dell'affidabilità dell'IA nelle fasi di sviluppo, distribuzione o utilizzo dei sistemi di IA e adattarla allo specifico caso d'uso in cui il sistema è applicato.
  • V Tenere presente che tale lista di controllo per la valutazione non sarà mai esaustiva. Garantire che un'IA affidabile non sia una questione di caselle da spuntare, ma un processo continuo di individuazione e attuazione dei requisiti, valutazione delle soluzioni e miglioramento dei risultati durante l'intero ciclo di vita del sistema di IA, e di coinvolgimento dei portatori di interessi in tale processo.

(3) Nella sezione finale del documento viene data forma concreta alle questioni toccate nel quadro di riferimento, offrendo esempi di opportunità vantaggiose che dovrebbero essere perseguite e di serie preoccupazioni che i sistemi di IA suscitano e che dovrebbero essere attentamente considerate.

(4) Il proposito dei presenti orientamenti è quello di offrire indicazioni relative alle applicazioni di IA in generale, realizzando così una base orizzontale per ottenere un'IA affidabile, tuttavia situazioni differenti danno vita a sfide differenti. Si dovrebbe pertanto esaminare se, oltre a tale quadro di riferimento orizzontale, non sia necessario anche un approccio settoriale, data la specificità contestuale dei sistemi di IA.

(5) I presenti orientamenti non intendono sostituire eventuali azioni politiche o di regolamentazione attuali o future, ne hanno lo scopo di scoraggiarne l'adozione. Dovrebbero essere considerati come un documento vivo da rivedere e aggiornare nel corso del tempo, al fine di garantirne la costante pertinenza di pari passo con l'evoluzione della tecnologia, dei nostri ambienti sociali e della nostra conoscenza. Il presente documento è 3 In linea con l'ambito di applicazione del quadro di riferimento descritto al paragrafo 2, la lista di controllo non fornisce orientamenti su come garantire la conformità giuridica (legalità dell'IA), ma si limita a offrire indicazioni per soddisfare la seconda e la terza componente di un'IA affidabile (eticità e robustezza dell'IA). 3

Non hai trovato quello che cercavi?

Esplora altri argomenti nella Algor library o crea direttamente i tuoi materiali con l’AI.