Dossier di Progettazione
1
Corso di Laurea Magistrale in Media Education per le
Discipline Letterarie e l'Editoria
A.A. 2023/24
Debora Dosi - matr. 181759
Diritto
delle
tecnologie
digitali
e educazione
civica
Dossier a supporto della progettazione per il Project Work
Questo documento identifica le sezioni necessarie per lo sviluppo della
progettazione per l'esame del corso "Diritto delle tecnologie digitali e educazione
civica".
Obiettivo del Project Work
Obiettivo
Progettare una unità di apprendimento di almeno 6 ore da realizzare
attraverso lezioni svolte in classe, in presenza.
Organizzazione del Dossier
Organizzazione
Sezione 1.
Definizione e obiettivi della progettazione
Sezione 2.
Descrizione puntuale del progetto di UDA (organizzata in lezioni, segmenti
di lezione e attività autonomie)
Sezione 3.
Descrizione degli elementi di innovazione didattica
Sezione 1. Definizione e obiettivi della progettazione
Nome dell'UDA
Nome dell'UDA
Al: cos'è e come usarla consapevolmente.
Abstract dell'UDA
Abstract
L'avvento dell'Intelligenza Artificiale (AI) sta trasformando il nostro modo di vivere,
lavorare e interagire. Tuttavia, questo rapido sviluppo fa emergere domande
sull'etica e sulle implicazioni morali legate all'uso di queste tecnologie. Questa
Unità Didattica inizia introducendo i concetti base dell'AI, esaminando i suoi campi
di utilizzo. Successivamente, analizzeremo le sfide etiche che emergono
dall'impiego dell'AI quali la privacy, la sicurezza e il potenziale bias algoritmico,
cercando di portare gli studenti a sviluppare un approccio critico all'Al e fornendo
un quadro comprensivo delle sfide e delle opportunità.
Infine, partendo dalla loro esperienza personale, gli studenti saranno incoraggiati
a riflettere sull'uso responsabile di questa tecnologia a scuola.
Target dell'UDA
Target
L'UDA è destinata agli studenti di una classe Seconda del Liceo delle Scienze
Umane.
Gli alunni sono stati sorpresi ad abusare degli strumenti di AI allo scopo di sottrarsi
al lavoro domestico e, per questa ragione, è stato deciso di affrontare questo
tema.
2
Ambito tematico dell'UDA
Ambito tematico
L'UDA interdisciplinare verrà svolta dal docente di Diritto ed Economia all'interno
del curriculo di Educazione Civica.
Analisi di Contesto
Analisi di Contesto
Contesto classe / didattico
Contesto classe / didattico
Le lezioni si terranno in un'aula didattica dotata di PC desktop a cui è collegata
una LIM interattiva e touch.
Il contesto classe è positivo e composto da 24 studenti, generalmente interessati,
motivati e partecipi alle lezioni. Gli alunni conoscono l'Al e ne fanno abitualmente
uso, in particolare ChatGPT, che impiegano per svolgere il lavoro domestico
assegnato. L'UDA è stata organizzata proprio per questo motivo: l'obiettivo non è
demonizzarne l'uso, ma rendere gli studenti consapevoli di potenzialità e rischi
anche nel campo dell'educazione. Il tutto verrà svolto fornendo loro anche un
quadro normativo di riferimento.
Politiche di riferimento
Politiche di riferimento
L'intelligenza artificiale (AI) è un campo in rapida evoluzione e il panorama
normativo è in continua definizione. Tuttavia, ci sono diversi riferimenti chiave che
forniscono una base per la regolamentazione e lo sviluppo responsabile di essa.
- Linee Guida Etiche per un'Al affidabile: sono state pubblicate ad Aprile 2019
ed elaborate dal Gruppo di Esperti di Alto Livello sull'Intelligenza Artificiale
(AI HLEG) della Commissione Europea. Vengono delineati i principi
fondamentali per lo sviluppo e l'utilizzo responsabile dell'intelligenza
artificiale in Europa. Secondo le linee guida, un'AI affidabile dovrebbe essere
conforme a tre principi chiave:
- Legalità: l'AI deve rispettare tutte le leggi e i regolamenti applicabili.
- Eticità: l'AI deve essere sviluppata e utilizzata rispettando i principi etici.
3- Robustezza: l'AI deve essere robusta sia dal punto di vista tecnico che
sociale, in modo da garantire sicurezza e affidabilità.
Le Linee Guida identificano sette requisiti chiave per un'AI affidabile:
- Intervento e sorveglianza umana: L'AI deve essere progettata in modo da
consentire un intervento e una sorveglianza umana appropriati.
- Robustezza tecnica e sicurezza: l'IA deve essere progettata, sviluppata e
implementata in modo da garantire la sua robustezza tecnica e la sua
sicurezza.
- Riservatezza e governance dei dati: l'IA deve essere progettata in modo da
rispettare i principi di riservatezza e governance dei dati.
- Trasparenza: l'AI deve essere progettata in modo da essere trasparente e
consentire una comprensione chiara delle sue capacità e dei suoi limiti.
- Diversità, non discriminazione ed equità: l'IA deve essere progettata in
modo da evitare la discriminazione e promuovere la diversità e l'equità.
- Benessere sociale e ambientale: l'Al deve essere progettata in modo da
promuovere il benessere sociale e ambientale.
- Responsabilità: deve essere definita una chiara responsabilità per lo
sviluppo, l'implementazione e l'utilizzo dell'AI.
Le Linee Guida sottolineano l'importanza di un approccio multi-stakeholder, in
quanto tutti gli attori coinvolti nello sviluppo e nell'utilizzo dell'AI hanno la
responsabilità di garantire che essa sia affidabile e conforme ai principi etici.
Queste Linee Guida non sono vincolanti, ma forniscono una cornice di riferimento
per lo sviluppo e l'utilizzo dell'AI in Europa.
- Linee guida sull'AI (OCSE): pubblicate nel 2019 dall'Organizzazione per la
Cooperazione e lo Sviluppo Economico, queste linee guida forniscono
indicazioni per l'uso responsabile dell'intelligenza artificiale da parte di
governi, imprese e della società civile. Ciò significa che queste figure devono
collaborare per garantire che l'AI sia sviluppata e utilizzata in modo
responsabile e a beneficio di tutti.
Le linee guida dell'OCSE sono state adottate da 42 governi e sono diventate
un punto di riferimento importante per le politiche e le regolamentazioni
sull'AI in tutto il mondo.
- Libro bianco sull'intelligenza artificiale: documento pubblicato dalla
Commissione Europea nel 2020, delinea la visione strategica dell'UE per lo
sviluppo e l'utilizzo responsabile dell'AI, promuovendo l'innovazione e la
competitività in questo settore. Il documento si concentra sulla promozione
dell'Al a beneficio dell'uomo, investendo in ricerca e innovazione e
sviluppando le competenze sul tema. Inoltre, sottolinea l'importanza di un
approccio antropocentrico, che ponga al centro l'uomo e i suoi valori.
L'obiettivo è quello di sviluppare un'AI che sia sicura, affidabile, etica e che
risponda alle esigenze e alle sfide della società europea.
4
- Raccomandazioni sull'etica dell'intelligenza artificiale (UNESCO): sono
state pubblicate a Novembre 2021, dopo due anni di preparazione che ha
coinvolto esperti e sviluppatori. Per raggiungere l'obiettivo 4 dell'Agenda
2030 "garantire un'istruzione di qualità inclusiva ed equa e promuovere
opportunità di apprendimento permanente per tutti" l'UNESCO ha indicato
queste linee guida etiche per lo sviluppo e l'uso dell'Al, enfatizzando il
rispetto dei diritti umani, l'equità e la non discriminazione. Le
raccomandazioni stabiliscono una serie di norme e pratiche che si basano
su 4 principi fondamentali: l'IA deve essere sviluppata e utilizzata in modo
responsabile, etico e trasparente; l'IA deve promuovere i diritti umani e le
libertà fondamentali (il diritto alla privacy, all'uguaglianza e alla non
discriminazione); l'IA deve essere accessibile a tutti e non deve essere usata
per discriminare o escludere; l'IA deve essere utilizzata per promuovere lo
sviluppo sostenibile e l'inclusione sociale.
- Piano d'azione per l'istruzione digitale (2021-2027): è un'iniziativa politica
dell'Unione europea (UE) che definisce una visione comune di un'istruzione
digitale di alta qualità, inclusiva e accessibile in Europa e punta a sostenere
l'adeguamento dei sistemi di istruzione e formazione degli Stati membri
all'era digitale. Invita ad una maggiore cooperazione a livello europeo in
materia di istruzione digitale per prospettare opportunità per la comunità
dell'istruzione e della formazione (insegnanti e studenti), i responsabili
politici, il mondo accademico. Queste figure devono possedere almeno una
conoscenza di base dell'utilizzo dell'Al. Gli educatori devono dare prova di
consapevolezza e verificare se i sistemi di IA che utilizzano sono affidabili,
equi e sicuri; devono inoltre garantire che la gestione dei dati relativi
all'istruzione sia sicura.
- Regolamento sull'Intelligenza Artificiale (AI ACT): la prima proposta risale
ad Aprile 2021 e poi approvato a Marzo 2024 dal Parlamento Europeo,
stabilisce un quadro giuridico per l'AI nell'Unione Europea, classificando i
sistemi di AI in base al livello di rischio di danni che possono causare e
stabilendo requisiti per il loro sviluppo, utilizzo e immissione sul mercato.
Nel 2023, tuttavia, questo regolamento è stato aggiornato perché nel
frattempo si è diffusa l'Al generativa. L'obiettivo di questo Regolamento è
ridurre al minimo i rischi per la salute, la sicurezza e i diritti fondamentali.
Trattandosi di un regolamento, è vincolante e direttamente applicabile negli
Stati membri dell'Unione, garantendo uniformità di applicazione.
A un rischio più alto corrispondono obblighi più stringenti. È stata quindi
pensata una «piramide di rischio», nella quale le pratiche e gli impieghi
specifici sono classificati sulla base di quattro diversi livelli di rischio.
5
- Sistemi a rischio inaccettabile: l'utilizzo dell'Al è incompatibile con i
valori dell'UE. Vi rientrano, ad esempio, i sistemi di valutazione delle
persone mediante attribuzione di un «punteggio sociale» (cd. social
scoring) oppure i sistemi che individuano gli stati emotivi delle
persone sul posto di lavoro e nel settore dell'istruzione. L'uso di
questi sistemi è sempre vietato.
- Sistemi ad alto rischio: l'utilizzo di questi sistemi è consentito solo
nel rispetto di specifici obblighi che mirano alla mitigazione del
rischio. Rientrano in questa categoria, ad esempio i sistemi
valutazione dell'affidabilità creditizia delle persone fisiche.
- Sistemi a rischio limitato: l'utilizzo dell'Al in questi sistemi è
consentito nel rispetto degli obblighi di trasparenza. Includono quei
sistemi che permettono alle persone fisiche di interfacciarsi all'Al,
come le chatbot.
- Sistemi a rischio minimo: in questa categoria l'utilizzo dell'Al non
presenta rischi significativi, come ad esempio filtri antispam o
applicazioni per videogiochi basate sull'Al. L'utilizzo è libero.
Questo Regolamento si applica:
a) ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA
nell'Unione
b) agli utenti dei sistemi di IA situati nell'Unione;
c) ai fornitori e agli utenti di sistemi di Al situati in un paese terzo, allorché l'output
prodotto dal sistema sia utilizzato nell'Unione.
Il modello adottato in Europa è quello regolatorio: si intende non soltanto normare
e disciplinare i nuovi fenomeni, le nuove tecnologie e i nuovi beni, ma anche fare
sì che il modello europeo divenga un riferimento globale e possa essere adottato
nelle altre regioni geopolitiche (il cosiddetto "effetto Bruxelles").
6