Dossier a supporto della progettazione per il Project Work universitario

Documento dall'Università sulla progettazione per il Project Work. Il Pdf delinea le sezioni necessarie per lo sviluppo della progettazione, gli obiettivi di apprendimento e l'organizzazione delle lezioni per un Project Work universitario in Educazione civica, focalizzandosi sull'uso consapevole dell'AI.

Mostra di più

17 pagine

1
Corso di Laurea Magistrale in Media Education per le
Discipline Letterarie e l’Editoria
A.A. 2023/24
Debora Dosi matr. 181759
Diritto delle tecnologie digitali e educazione civica
Dossier a supporto della progettazione per il Project Work
Questo documento identifica le sezioni necessarie per lo sviluppo della
progettazione per l’esame del corso “Diritto delle tecnologie digitali e educazione
civica”.
Obiettivo
Progettare una unità di apprendimento di almeno 6 ore da realizzare
attraverso lezioni svolte in classe, in presenza.
Organizzazione
Sezione 1.
Definizione e obiettivi della progettazione
Sezione 2.
Descrizione puntuale del progetto di UDA (organizzata in lezioni, segmenti
di lezione e attività autonomie)
Sezione 3.
Descrizione degli elementi di innovazione didattica
2
Sezione 1. Definizione e obiettivi della progettazione
Nome dell’UDA
AI: cos’è e come usarla consapevolmente.
Abstract
L'avvento dell'Intelligenza Artificiale (AI) sta trasformando il nostro modo di vivere,
lavorare e interagire. Tuttavia, questo rapido sviluppo fa emergere domande
sull'etica e sulle implicazioni morali legate all'uso di queste tecnologie. Questa
Unità Didattica inizia introducendo i concetti base dell'AI, esaminando i suoi campi
di utilizzo. Successivamente, analizzeremo le sfide etiche che emergono
dall'impiego dell'AI quali la privacy, la sicurezza e il potenziale bias algoritmico,
cercando di portare gli studenti a sviluppare un approccio critico all’AI e fornendo
un quadro comprensivo delle sfide e delle opportunità.
Infine, partendo dalla loro esperienza personale, gli studenti saranno incoraggiati
a riflettere sull’uso responsabile di questa tecnologia a scuola.
Target
L’UDA è destinata agli studenti di una classe Seconda del Liceo delle Scienze
Umane.
Gli alunni sono stati sorpresi ad abusare degli strumenti di AI allo scopo di sottrarsi
al lavoro domestico e, per questa ragione, è stato deciso di affrontare questo
tema.

Visualizza gratis il Pdf completo

Registrati per accedere all’intero documento e trasformarlo con l’AI.

Anteprima

Dossier di Progettazione

1
Corso di Laurea Magistrale in Media Education per le
Discipline Letterarie e l'Editoria
A.A. 2023/24
Debora Dosi - matr. 181759
Diritto
delle
tecnologie
digitali
e educazione
civica
Dossier a supporto della progettazione per il Project Work
Questo documento identifica le sezioni necessarie per lo sviluppo della
progettazione per l'esame del corso "Diritto delle tecnologie digitali e educazione
civica".

Obiettivo del Project Work

Obiettivo
Progettare una unità di apprendimento di almeno 6 ore da realizzare
attraverso lezioni svolte in classe, in presenza.

Organizzazione del Dossier

Organizzazione
Sezione 1.
Definizione e obiettivi della progettazione
Sezione 2.
Descrizione puntuale del progetto di UDA (organizzata in lezioni, segmenti
di lezione e attività autonomie)
Sezione 3.
Descrizione degli elementi di innovazione didattica

Sezione 1. Definizione e obiettivi della progettazione

Nome dell'UDA

Nome dell'UDA
Al: cos'è e come usarla consapevolmente.

Abstract dell'UDA

Abstract
L'avvento dell'Intelligenza Artificiale (AI) sta trasformando il nostro modo di vivere,
lavorare e interagire. Tuttavia, questo rapido sviluppo fa emergere domande
sull'etica e sulle implicazioni morali legate all'uso di queste tecnologie. Questa
Unità Didattica inizia introducendo i concetti base dell'AI, esaminando i suoi campi
di utilizzo. Successivamente, analizzeremo le sfide etiche che emergono
dall'impiego dell'AI quali la privacy, la sicurezza e il potenziale bias algoritmico,
cercando di portare gli studenti a sviluppare un approccio critico all'Al e fornendo
un quadro comprensivo delle sfide e delle opportunità.
Infine, partendo dalla loro esperienza personale, gli studenti saranno incoraggiati
a riflettere sull'uso responsabile di questa tecnologia a scuola.

Target dell'UDA

Target
L'UDA è destinata agli studenti di una classe Seconda del Liceo delle Scienze
Umane.
Gli alunni sono stati sorpresi ad abusare degli strumenti di AI allo scopo di sottrarsi
al lavoro domestico e, per questa ragione, è stato deciso di affrontare questo
tema.
2

Ambito tematico dell'UDA

Ambito tematico
L'UDA interdisciplinare verrà svolta dal docente di Diritto ed Economia all'interno
del curriculo di Educazione Civica.

Analisi di Contesto

Analisi di Contesto

Contesto classe / didattico

Contesto classe / didattico
Le lezioni si terranno in un'aula didattica dotata di PC desktop a cui è collegata
una LIM interattiva e touch.
Il contesto classe è positivo e composto da 24 studenti, generalmente interessati,
motivati e partecipi alle lezioni. Gli alunni conoscono l'Al e ne fanno abitualmente
uso, in particolare ChatGPT, che impiegano per svolgere il lavoro domestico
assegnato. L'UDA è stata organizzata proprio per questo motivo: l'obiettivo non è
demonizzarne l'uso, ma rendere gli studenti consapevoli di potenzialità e rischi
anche nel campo dell'educazione. Il tutto verrà svolto fornendo loro anche un
quadro normativo di riferimento.

Politiche di riferimento

Politiche di riferimento
L'intelligenza artificiale (AI) è un campo in rapida evoluzione e il panorama
normativo è in continua definizione. Tuttavia, ci sono diversi riferimenti chiave che
forniscono una base per la regolamentazione e lo sviluppo responsabile di essa.

  • Linee Guida Etiche per un'Al affidabile: sono state pubblicate ad Aprile 2019
    ed elaborate dal Gruppo di Esperti di Alto Livello sull'Intelligenza Artificiale
    (AI HLEG) della Commissione Europea. Vengono delineati i principi
    fondamentali per lo sviluppo e l'utilizzo responsabile dell'intelligenza
    artificiale in Europa. Secondo le linee guida, un'AI affidabile dovrebbe essere
    conforme a tre principi chiave:
    • Legalità: l'AI deve rispettare tutte le leggi e i regolamenti applicabili.
    • Eticità: l'AI deve essere sviluppata e utilizzata rispettando i principi etici.
    3- Robustezza: l'AI deve essere robusta sia dal punto di vista tecnico che
    sociale, in modo da garantire sicurezza e affidabilità.
    Le Linee Guida identificano sette requisiti chiave per un'AI affidabile:
    1. Intervento e sorveglianza umana: L'AI deve essere progettata in modo da
      consentire un intervento e una sorveglianza umana appropriati.
    2. Robustezza tecnica e sicurezza: l'IA deve essere progettata, sviluppata e
      implementata in modo da garantire la sua robustezza tecnica e la sua
      sicurezza.
    3. Riservatezza e governance dei dati: l'IA deve essere progettata in modo da
      rispettare i principi di riservatezza e governance dei dati.
    4. Trasparenza: l'AI deve essere progettata in modo da essere trasparente e
      consentire una comprensione chiara delle sue capacità e dei suoi limiti.
    5. Diversità, non discriminazione ed equità: l'IA deve essere progettata in
      modo da evitare la discriminazione e promuovere la diversità e l'equità.
    6. Benessere sociale e ambientale: l'Al deve essere progettata in modo da
      promuovere il benessere sociale e ambientale.
    7. Responsabilità: deve essere definita una chiara responsabilità per lo
      sviluppo, l'implementazione e l'utilizzo dell'AI.
    Le Linee Guida sottolineano l'importanza di un approccio multi-stakeholder, in
    quanto tutti gli attori coinvolti nello sviluppo e nell'utilizzo dell'AI hanno la
    responsabilità di garantire che essa sia affidabile e conforme ai principi etici.
    Queste Linee Guida non sono vincolanti, ma forniscono una cornice di riferimento
    per lo sviluppo e l'utilizzo dell'AI in Europa.
  • Linee guida sull'AI (OCSE): pubblicate nel 2019 dall'Organizzazione per la
    Cooperazione e lo Sviluppo Economico, queste linee guida forniscono
    indicazioni per l'uso responsabile dell'intelligenza artificiale da parte di
    governi, imprese e della società civile. Ciò significa che queste figure devono
    collaborare per garantire che l'AI sia sviluppata e utilizzata in modo
    responsabile e a beneficio di tutti.
    Le linee guida dell'OCSE sono state adottate da 42 governi e sono diventate
    un punto di riferimento importante per le politiche e le regolamentazioni
    sull'AI in tutto il mondo.
  • Libro bianco sull'intelligenza artificiale: documento pubblicato dalla
    Commissione Europea nel 2020, delinea la visione strategica dell'UE per lo
    sviluppo e l'utilizzo responsabile dell'AI, promuovendo l'innovazione e la
    competitività in questo settore. Il documento si concentra sulla promozione
    dell'Al a beneficio dell'uomo, investendo in ricerca e innovazione e
    sviluppando le competenze sul tema. Inoltre, sottolinea l'importanza di un
    approccio antropocentrico, che ponga al centro l'uomo e i suoi valori.
    L'obiettivo è quello di sviluppare un'AI che sia sicura, affidabile, etica e che
    risponda alle esigenze e alle sfide della società europea.
    4
  • Raccomandazioni sull'etica dell'intelligenza artificiale (UNESCO): sono
    state pubblicate a Novembre 2021, dopo due anni di preparazione che ha
    coinvolto esperti e sviluppatori. Per raggiungere l'obiettivo 4 dell'Agenda
    2030 "garantire un'istruzione di qualità inclusiva ed equa e promuovere
    opportunità di apprendimento permanente per tutti" l'UNESCO ha indicato
    queste linee guida etiche per lo sviluppo e l'uso dell'Al, enfatizzando il
    rispetto dei diritti umani, l'equità e la non discriminazione. Le
    raccomandazioni stabiliscono una serie di norme e pratiche che si basano
    su 4 principi fondamentali: l'IA deve essere sviluppata e utilizzata in modo
    responsabile, etico e trasparente; l'IA deve promuovere i diritti umani e le
    libertà fondamentali (il diritto alla privacy, all'uguaglianza e alla non
    discriminazione); l'IA deve essere accessibile a tutti e non deve essere usata
    per discriminare o escludere; l'IA deve essere utilizzata per promuovere lo
    sviluppo sostenibile e l'inclusione sociale.
  • Piano d'azione per l'istruzione digitale (2021-2027): è un'iniziativa politica
    dell'Unione europea (UE) che definisce una visione comune di un'istruzione
    digitale di alta qualità, inclusiva e accessibile in Europa e punta a sostenere
    l'adeguamento dei sistemi di istruzione e formazione degli Stati membri
    all'era digitale. Invita ad una maggiore cooperazione a livello europeo in
    materia di istruzione digitale per prospettare opportunità per la comunità
    dell'istruzione e della formazione (insegnanti e studenti), i responsabili
    politici, il mondo accademico. Queste figure devono possedere almeno una
    conoscenza di base dell'utilizzo dell'Al. Gli educatori devono dare prova di
    consapevolezza e verificare se i sistemi di IA che utilizzano sono affidabili,
    equi e sicuri; devono inoltre garantire che la gestione dei dati relativi
    all'istruzione sia sicura.
  • Regolamento sull'Intelligenza Artificiale (AI ACT): la prima proposta risale
    ad Aprile 2021 e poi approvato a Marzo 2024 dal Parlamento Europeo,
    stabilisce un quadro giuridico per l'AI nell'Unione Europea, classificando i
    sistemi di AI in base al livello di rischio di danni che possono causare e
    stabilendo requisiti per il loro sviluppo, utilizzo e immissione sul mercato.
    Nel 2023, tuttavia, questo regolamento è stato aggiornato perché nel
    frattempo si è diffusa l'Al generativa. L'obiettivo di questo Regolamento è
    ridurre al minimo i rischi per la salute, la sicurezza e i diritti fondamentali.
    Trattandosi di un regolamento, è vincolante e direttamente applicabile negli
    Stati membri dell'Unione, garantendo uniformità di applicazione.
    A un rischio più alto corrispondono obblighi più stringenti. È stata quindi
    pensata una «piramide di rischio», nella quale le pratiche e gli impieghi
    specifici sono classificati sulla base di quattro diversi livelli di rischio.
    5
    1. Sistemi a rischio inaccettabile: l'utilizzo dell'Al è incompatibile con i
      valori dell'UE. Vi rientrano, ad esempio, i sistemi di valutazione delle
      persone mediante attribuzione di un «punteggio sociale» (cd. social
      scoring) oppure i sistemi che individuano gli stati emotivi delle
      persone sul posto di lavoro e nel settore dell'istruzione. L'uso di
      questi sistemi è sempre vietato.
    2. Sistemi ad alto rischio: l'utilizzo di questi sistemi è consentito solo
      nel rispetto di specifici obblighi che mirano alla mitigazione del
      rischio. Rientrano in questa categoria, ad esempio i sistemi
      valutazione dell'affidabilità creditizia delle persone fisiche.
    3. Sistemi a rischio limitato: l'utilizzo dell'Al in questi sistemi è
      consentito nel rispetto degli obblighi di trasparenza. Includono quei
      sistemi che permettono alle persone fisiche di interfacciarsi all'Al,
      come le chatbot.
    4. Sistemi a rischio minimo: in questa categoria l'utilizzo dell'Al non
      presenta rischi significativi, come ad esempio filtri antispam o
      applicazioni per videogiochi basate sull'Al. L'utilizzo è libero.
    Questo Regolamento si applica:
    a) ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA
    nell'Unione
    b) agli utenti dei sistemi di IA situati nell'Unione;
    c) ai fornitori e agli utenti di sistemi di Al situati in un paese terzo, allorché l'output
    prodotto dal sistema sia utilizzato nell'Unione.
    Il modello adottato in Europa è quello regolatorio: si intende non soltanto normare
    e disciplinare i nuovi fenomeni, le nuove tecnologie e i nuovi beni, ma anche fare
    sì che il modello europeo divenga un riferimento globale e possa essere adottato
    nelle altre regioni geopolitiche (il cosiddetto "effetto Bruxelles").
    6

Non hai trovato quello che cercavi?

Esplora altri argomenti nella Algor library o crea direttamente i tuoi materiali con l’AI.