Pdf dalla Commissione Europea su Orientamenti Etici per Un'IA Affidabile. Il Materiale, destinato a studenti universitari di Informatica, presenta gli orientamenti etici per un'IA affidabile, includendo una lista di controllo per la valutazione e la governance, fornendo un quadro per lo sviluppo responsabile dell'intelligenza artificiale.
Mostra di più52 pagine


Visualizza gratis il Pdf completo
Registrati per accedere all’intero documento e trasformarlo con l’AI.
ISTITUITO DALLA COMMISSIONE EUROPEA NEL GIUGNO 2018
AI
Il presente documento è stato redatto dal gruppo di esperti ad alto livello sull'intelligenza artificiale (IA). Sebbene i membri di tale gruppo, menzionati nel presente documento, sostengano il quadro di riferimento generale per un'IA affidabile illustrato nei presenti orientamenti, non necessariamente essi condividono ogni singola affermazione contenuta nel documento stesso. .
La lista di controllo per la valutazione dell'affidabilità dell'IA presentata nel capitolo III del presente documento sarà sottoposta ai portatori di interessi affinché la sperimentino (fase pilota) e forniscano un riscontro pratico. All'inizio del 2020 sarà presentata alla Commissione europea una versione di tale lista di controllo riveduta tenendo in considerazione i riscontri raccolti durante la fase pilota.
Il gruppo di esperti ad alto livello sull'intelligenza artificiale è indipendente ed è stato istituito dalla Commissione europea nel giugno 2018.
Nathalie Smuha - Coordinatrice del gruppo di esperti ad alto livello sull'IA E-mail: CNECT-HLG-AI@ec.europa.eu
Commissione europea B-1049 Bruxelles
Documento reso pubblico il 8 aprile 2019.
Un primo progetto del presente documento, pubblicato il 18 dicembre 2018, è stato sottoposto a una consultazione pubblica durante la quale oltre 500 partecipanti hanno fornito il proprio riscontro. Il gruppo desidera esprimere un vivo ringraziamento a tutti coloro che hanno fornito un riscontro sul primo progetto di documento. Tali riscontri sono stati presi in considerazione durante la preparazione della presente versione riveduta.
La Commissione europea, o qualsiasi soggetto che agisce in suo nome, non sarà ritenuta in alcun modo responsabile dell'uso che può essere fatto delle informazioni che seguono. I contenuti del presente documento di lavoro ricadono sotto l'esclusiva responsabilità del gruppo di esperti ad alto livello sull'IA. Sebbene il personale della Commissione sia stato coinvolto per agevolare la preparazione degli orientamenti, le opinioni espresse nel presente documento riflettono il parere del gruppo di esperti ad alto livello sull'IA e non possono in alcun caso essere considerate come una posizione ufficiale della Commissione europea.Ulteriori informazioni sul gruppo di esperti ad alto livello sull'intelligenza artificiale sono disponibili online (https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence).
La politica relativa al riutilizzo dei documenti della Commissione europea è disciplinata dalla decisione 2011/833/UE (GU L 330 del 14.12.2011, pag. 39). Per utilizzare o riprodurre foto o altro materiale libero da copyright dell'UE, occorre l'autorizzazione diretta del titolare del copyright.
SINTESI 2
A. INTRODUZIONE 5
B. UN QUADRO DI RIFERIMENTO PER UN'IA AFFIDABILE 7
I. Capitolo I - Basi di un'IA affidabile 10
1. I diritti fondamentali come titolarità di diritti morali e giuridici 10
2. Dai diritti fondamentali ai principi etici 11
II. Capitolo II - Realizzare un'IA affidabile 15
1. Requisiti di un'IA affidabile 15
2. Metodi tecnici e non tecnici per realizzare un'IA affidabile 23
III. Capitolo III - Valutazione di un'IA affidabile 28
C. ESEMPI DI OPPORTUNITÀ E SERIE PREOCCUPAZIONI DERIVANTI DELL'IA 39
D. CONCLUSIONI 43
GLOSSARIO 45
1
(1) L'obiettivo degli orientamenti è promuovere un'IA affidabile. Un'IA affidabile si basa su tre componenti che dovrebbero essere presenti durante l'intero ciclo di vita del sistema: a) legalità, l'IA deve ottemperare a tutte le leggi e ai regolamenti applicabili, b) eticità, l'IA deve assicurare l'adesione a principi e valori etici, e c) robustezza, dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali. Ciascuna componente in se è necessaria ma non sufficiente per realizzare un'IA affidabile. Idealmente le tre componenti operano armonicamente e si sovrappongono; qualora, nella pratica, si dovessero verificare tensioni tra di esse la società dovrebbe adoperarsi per risolverle.
(2) I presenti orientamenti definiscono il quadro di riferimento per realizzare un'IA affidabile. Esso non affronta esplicitamente la prima componente (legalità dell'IA1), ma offre piuttosto orientamenti per promuovere e garantire l'eticità e la robustezza dell'IA (la seconda e la terza componente). I presenti orientamenti sono rivolti a tutti i portatori di interessi e intendono offrire qualcosa in più di un semplice elenco di principi etici, fornendo indicazioni su come tali principi possano essere resi operativi in sistemi sociotecnici. Essi sono forniti su tre livelli di astrazione, dal più astratto capitolo I al più concreto capitolo III, e si concludono con esempi di opportunità e di serie preoccupazioni generate dai sistemi di IA.
I. Il capitolo I, partendo da un approccio basato sui diritti fondamentali, individua i principi etici e i valori correlati che devono essere rispettati nello sviluppo, nella distribuzione e nell'utilizzo dei sistemi di IA.
II. Attingendo al capitolo I, il capitolo II fornisce indicazioni su come realizzare un'IA affidabile elencando sette requisiti che i sistemi di IA dovrebbero soddisfare e per la cui attuazione possono essere utilizzati metodi tecnici e non tecnici.
1 Tutte le affermazioni normative del presente documento intendono rispecchiare le indicazioni per il raggiungimento della seconda e terza componente di un'IA affidabile (eticità e robustezza). Pertanto, tali affermazioni non intendono fornire né pareri giuridici né indicazioni su come ottemperare alle leggi vigenti, sebbene vada riconosciuto che molte di tali affermazioni sono in qualche misura già presenti nelle leggi vigenti. A tal proposito, cfr. paragrafo 21 e seguenti. 2 Cfr. articoli da 24 a 27 della Carta dei diritti fondamentali dell'Unione europea, che trattano dei diritti del minore, dei diritti degli anziani, dell'inserimento delle persone con disabilità e dei diritti dei lavoratori. Cfr. anche articolo 38 che tratta della protezione dei consumatori. 2
III. Il capitolo III fornisce una lista di controllo concreta ma non esaustiva per la valutazione dell'affidabilità dell'IA volta a rendere operativi i requisiti enunciati nel capitolo II. Tale lista di controllo dovrà essere adattata agli specifici casi d'uso del sistema di IA3.
(3) Nella sezione finale del documento viene data forma concreta alle questioni toccate nel quadro di riferimento, offrendo esempi di opportunità vantaggiose che dovrebbero essere perseguite e di serie preoccupazioni che i sistemi di IA suscitano e che dovrebbero essere attentamente considerate.
(4) Il proposito dei presenti orientamenti è quello di offrire indicazioni relative alle applicazioni di IA in generale, realizzando così una base orizzontale per ottenere un'IA affidabile, tuttavia situazioni differenti danno vita a sfide differenti. Si dovrebbe pertanto esaminare se, oltre a tale quadro di riferimento orizzontale, non sia necessario anche un approccio settoriale, data la specificità contestuale dei sistemi di IA.
(5) I presenti orientamenti non intendono sostituire eventuali azioni politiche o di regolamentazione attuali o future, ne hanno lo scopo di scoraggiarne l'adozione. Dovrebbero essere considerati come un documento vivo da rivedere e aggiornare nel corso del tempo, al fine di garantirne la costante pertinenza di pari passo con l'evoluzione della tecnologia, dei nostri ambienti sociali e della nostra conoscenza. Il presente documento è 3 In linea con l'ambito di applicazione del quadro di riferimento descritto al paragrafo 2, la lista di controllo non fornisce orientamenti su come garantire la conformità giuridica (legalità dell'IA), ma si limita a offrire indicazioni per soddisfare la seconda e la terza componente di un'IA affidabile (eticità e robustezza dell'IA). 3