In principio era Chat GPT: evoluzione del pensiero umano e IA generativa

Documento da Sapienza - Università di Roma su In Principio Era Chat GPT. Il Pdf esplora l'impatto dell'intelligenza artificiale sul pensiero umano, l'arte e il diritto d'autore, analizzando concetti come il remix culturale e l'open access nel campo dell'Informatica universitaria.

Mostra di più

14 pagine

In principio era chat GPT
Internet e Social Media Studies (Sapienza - Università di Roma)
Scan to open on Studocu
Studocu is not sponsored or endorsed by any college or university
In principio era chat GPT
Internet e Social Media Studies (Sapienza - Università di Roma)
Scan to open on Studocu
Studocu is not sponsored or endorsed by any college or university
Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)
lOMoARcPSD|56290478
In principio era chat GPT:
Capitolo 1: L'Avvento del Pensiero Esterno: Da Muscoli a Menti Artificiali
Il capitolo iniziale del libro "In principio era ChatGPT" invita a riflettere sulla nostra differente
reazione all'automazione del lavoro fisico rispetto a quella del lavoro intellettuale. Mentre
abbiamo accolto senza riserve le macchine per alleggerire la fatica fisica, l'idea di
"automatizzare" il pensiero con strumenti come ChatGPT suscita una forte resistenza.
Questa paura nasce dal timore che la mancanza di sforzo mentale possa indebolire le
nostre capacità cognitive, minando ciò che consideriamo distintivo dell'essere umano: la
razionalità e la capacità di pensare. Si radica nella convinzione che l'apprendimento richieda
fatica e nella nostra profonda stima per le facoltà intellettuali, in particolare il linguaggio.
L'autore propone un parallelo illuminante con l'invenzione della scrittura, presentata come la
prima tecnologia creata intenzionalmente per la memoria e la longevità del pensiero. La
scrittura, complessa da apprendere e padroneggiare, ha segnato un'esternalizzazione del
pensiero dal corpo fisico, rendendolo accessibile e trasmissibile nel tempo e nello spazio.
Proprio come la scrittura non è innata ma una tecnologia appresa, l'autore suggerisce che le
preoccupazioni riguardo a un software di scrittura che ci privi di facoltà umane vanno
riconsiderate.
Questa esternalizzazione del pensiero attraverso la scrittura viene paragonata a un
momento di discontinuità simile alla potenziale singolarità tecnologica. Lasciando tracce
scritte del nostro sapere, abbiamo separato il pensiero dal corpo, un processo analogo a ciò
che l'IA sta iniziando a fare con il ragionamento e la generazione di idee. In sintesi, il primo
capitolo ci invita a comprendere la nostra complessa relazione con l'IA, suggerendo che
l'esternalizzazione delle capacità cognitive non è un fenomeno inedito e potrebbe
rappresentare un'evoluzione del pensiero umano più che una minaccia. La nostra resistenza
riflette la profonda identificazione con l'intelletto, ma la storia della scrittura ci insegna che
nuove tecnologie per la gestione del pensiero possono portare a trasformazioni significative.
Oggi, con GPT-4, la capacità di interagire con vastissimi corpora di testi e di migliorare i
concetti espressi evidenzia ulteriormente questa evoluzione.
Le Biblioteche: Il Primo "Training" Disperso del Sapere Umano
Questo paragrafo paragona l'acquisizione della conoscenza umana attraverso l'esposizione
a un vasto "dataset" di informazioni, rappresentato principalmente da libri e biblioteche, al
processo di "training" delle intelligenze artificiali. L'autore evidenzia come il nostro
apprendimento sia un percorso lungo, influenzato dalle esperienze individuali e
potenzialmente limitato dai nostri schemi mentali automatici.
Anche noi umani subiamo una forma di "training" imparando il linguaggio e interagendo con i
"dataset strutturati" dei libri. La nostra interpretazione di questi testi è profondamente
influenzata dall'esperienza personale, creando filtri mentali che condizionano le nuove
informazioni. L'autore introduce il concetto di "pilota automatico" mentale, un modo di
pensare automatico che si sviluppa con l'età, e la possibilità di adottare un pensiero più
riflessivo. Nei libri, la visione del mondo degli autori è sempre una prospettiva limitata,
sottolineando l'importanza di coltivare un'"enciclopedia massimale" di informazioni
interconnesse. La biblioteca rappresenta il "deep learning" umano degli autori, formando la
loro comprensione del mondo.
Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)
lOMoARcPSD|56290478

Visualizza gratis il Pdf completo

Registrati per accedere all’intero documento e trasformarlo con l’AI.

Anteprima

In principio era chat GPT

Internet e Social Media Studies (Sapienza - Università di Roma) Scan to open on Studocu Studocu is not sponsored or endorsed by any college or university Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)In principio era chat GPT:

L'Avvento del Pensiero Esterno: Da Muscoli a Menti Artificiali

Il capitolo iniziale del libro "In principio era ChatGPT" invita a riflettere sulla nostra differente reazione all'automazione del lavoro fisico rispetto a quella del lavoro intellettuale. Mentre abbiamo accolto senza riserve le macchine per alleggerire la fatica fisica, l'idea di "automatizzare" il pensiero con strumenti come ChatGPT suscita una forte resistenza. Questa paura nasce dal timore che la mancanza di sforzo mentale possa indebolire le nostre capacità cognitive, minando ciò che consideriamo distintivo dell'essere umano: la razionalità e la capacità di pensare. Si radica nella convinzione che l'apprendimento richieda fatica e nella nostra profonda stima per le facoltà intellettuali, in particolare il linguaggio. L'autore propone un parallelo illuminante con l'invenzione della scrittura, presentata come la prima tecnologia creata intenzionalmente per la memoria e la longevità del pensiero. La scrittura, complessa da apprendere e padroneggiare, ha segnato un'esternalizzazione del pensiero dal corpo fisico, rendendolo accessibile e trasmissibile nel tempo e nello spazio. Proprio come la scrittura non è innata ma una tecnologia appresa, l'autore suggerisce che le preoccupazioni riguardo a un software di scrittura che ci privi di facoltà umane vanno riconsiderate. Questa esternalizzazione del pensiero attraverso la scrittura viene paragonata a un momento di discontinuità simile alla potenziale singolarità tecnologica. Lasciando tracce scritte del nostro sapere, abbiamo separato il pensiero dal corpo, un processo analogo a ciò che l'IA sta iniziando a fare con il ragionamento e la generazione di idee. In sintesi, il primo capitolo ci invita a comprendere la nostra complessa relazione con l'IA, suggerendo che l'esternalizzazione delle capacità cognitive non è un fenomeno inedito e potrebbe rappresentare un'evoluzione del pensiero umano più che una minaccia. La nostra resistenza riflette la profonda identificazione con l'intelletto, ma la storia della scrittura ci insegna che nuove tecnologie per la gestione del pensiero possono portare a trasformazioni significative. Oggi, con GPT-4, la capacità di interagire con vastissimi corpora di testi e di migliorare i concetti espressi evidenzia ulteriormente questa evoluzione.

Le Biblioteche: Il Primo "Training" Disperso del Sapere Umano

Questo paragrafo paragona l'acquisizione della conoscenza umana attraverso l'esposizione a un vasto "dataset" di informazioni, rappresentato principalmente da libri e biblioteche, al processo di "training" delle intelligenze artificiali. L'autore evidenzia come il nostro apprendimento sia un percorso lungo, influenzato dalle esperienze individuali e potenzialmente limitato dai nostri schemi mentali automatici. Anche noi umani subiamo una forma di "training" imparando il linguaggio e interagendo con i "dataset strutturati" dei libri. La nostra interpretazione di questi testi è profondamente influenzata dall'esperienza personale, creando filtri mentali che condizionano le nuove informazioni. L'autore introduce il concetto di "pilota automatico" mentale, un modo di pensare automatico che si sviluppa con l'età, e la possibilità di adottare un pensiero più riflessivo. Nei libri, la visione del mondo degli autori è sempre una prospettiva limitata, sottolineando l'importanza di coltivare un'enciclopedia massimale" di informazioni interconnesse. La biblioteca rappresenta il "deep learning" umano degli autori, formando la loro comprensione del mondo. This document is available on studocu Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)Se la scrittura ha reso il sapere indipendente dal singolo individuo, il libro e la biblioteca lo hanno democratizzato, rendendolo accessibile a tutti. La storia ci mostra una paura ricorrente di chi detiene il potere verso la diffusione della conoscenza. La resistenza attuale al "training" delle IA non è solo economica, ma anche legata a un'antica volontà di preservare il sapere per una cerchia ristretta. L'autore invita a riflettere su questa motivazione, considerando un punto di vista diverso. Infine, ricorda che il dibattito sulla "morte dell'autore" precede l'IA, invitando a riconsiderare la situazione alla luce dell'impatto di Internet sulla società. In sintesi, questo paragrafo paragona l'apprendimento umano al training delle IA, sottolineando l'influenza dell'esperienza e mettendo in guardia contro la limitazione dell'accesso alla conoscenza, un tema ricorrente nella storia e attuale nel dibattito sull'IA.

Vita e Studio Senza Internet

Prima della rivoluzione digitale degli anni '90, la vita era più localizzata, con scelte limitate e marcate differenze regionali. La televisione era la principale forza di omogeneizzazione, offrendo poche alternative. La "normalità" sembrava la norma, rendendo più difficile distinguersi. L'avvento di internet ha rappresentato una risposta al desiderio di superare questi confini ed esprimere l'individualità, suggerendo che la "normalità" pre-digitale potesse essere una forma di costrizione. Anche lo studio era limitato dalla difficoltà di reperire informazioni e materiali, un ostacolo oggi superato dalla facilità di accesso online. Il lavoro senza internet era più lento, dall'impaginazione dei libri alle mansioni d'ufficio, che potevano essere svolte solo in sede. Oggi, la tecnologia permette di lavorare da remoto, ampliando le possibilità. Trovare lavoro senza internet era semplice solo per chi aveva già una carriera avviata o ereditava un'attività familiare, con barriere all'ingresso molto alte per gli altri.

L'Impatto dell'Intelligenza Artificiale sul Lavoro e la Medicina

La riflessione sull'impatto dell'IA sul lavoro deve considerare sia la potenziale perdita di posti che la creazione di nuove opportunità, come già avvenuto con le precedenti rivoluzioni tecnologiche. L'IA promette risparmi sui costi e crescita economica, ma il suo impatto dipenderà dalla sua effettiva capacità e velocità di adozione. È cruciale evitare di idealizzare il passato e frenare il progresso per timori futuri, rinunciando a benefici significativi. La medicina emerge come un settore in cui l'IA sta già dimostrando un potenziale trasformativo, in particolare nella diagnostica.

La Natura dell'Intelligenza Artificiale

È fondamentale comprendere che software come ChatGPT operano su un piano diverso rispetto all'intelligenza umana. Essi imparano pattern linguistici senza realmente "capire" il significato profondo delle parole, un po' come imparare a memoria una poesia senza coglierne l'essenza. L'intelligenza umana è più ampia e complessa, andando oltre la manipolazione del linguaggio. Sebbene il Deep Learning abbia portato a notevoli progressi, Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)queste intelligenze generative non possiedono coscienza e i loro errori derivano dalla natura statistica del loro apprendimento e dalla distanza da una vera comprensione del mondo. Questo ridefinisce il ruolo delle IA come strumenti di collaborazione e assistenza, piuttosto che come sostituti diretti della creatività umana. Invece di concorrenti, dovremmo pensarle come partner capaci di generare "semilavorati" che necessitano dell'intervento umano per diventare contenuti di valore. L'autore le utilizza quotidianamente come alternative al processo di ricerca creativo, sfruttando la loro capacità di suggerire connessioni inaspettate. Anche nell'analisi del "mainstream", possono definire un punto di partenza per un discorso originale. L'autore apprezza persino le risposte neutre dell'IA su argomenti polarizzanti. La critica che definisce gli LLM come "pappagalli stocastici" è contestata, poiché anche la produzione di testi umani si basa sulla probabilità di distribuzione di parole. L'IA è vista come uno strumento capace di aiutarci a migliorare le nostre idee, partendo da diverse prospettive e con la potenziale onestà di ammettere la propria ignoranza. L'autore ci invita a superare vecchie concezioni sull'IA e a comprenderne il vero potenziale per migliorare il nostro modo di descrivere e lavorare.

Introduzione ai Large Language Model LLM e ai transformer-based Text-to-image TTI e Text to video TTV

Significati Acronimi

  • LLM: Sta per Large Language Model. In italiano significa Modello Linguistico di Grandi Dimensioni.
  • TTI: Sta per Text-to-Image. In italiano significa Testo-in-Immagine.
  • TTV: Sta per Text-to-Video. In italiano significa Testo-in-Video.

Breve Introduzione all'Argomento del Capitolo

Il Capitolo 2, intitolato "Introduzione ai Large Language Model LLM e ai transformer-based Text-to-image TTI e Text to video TTV", si addentra nel cuore delle tecnologie che alimentano le moderne intelligenze artificiali generative. In particolare, il capitolo si focalizzerà su due categorie principali di modelli:

  • I Large Language Model (LLM): Questi sono modelli di intelligenza artificiale capaci di comprendere e generare testo in modo sorprendentemente simile a quello umano. Hanno rivoluzionato la nostra interazione con le macchine, permettendo conversazioni naturali, la creazione di contenuti testuali complessi e molto altro. Il capitolo introdurrà i concetti fondamentali alla base del loro funzionamento.
  • I modelli transformer-based Text-to-Image (TTI) e Text-to-Video (TTV): Questi rappresentano un'altra frontiera dell'IA generativa, con la capacità di trasformare This document is available on studocu Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)descrizioni testuali in immagini dettagliate e persino in brevi video. Il capitolo esplorerà come questi modelli, spesso basati sulla stessa architettura "transformer" degli LLM, interpretano il linguaggio umano per creare contenuti visivi, aprendo nuove possibilità creative e comunicative.

In sintesi, questo capitolo fornirà le basi per comprendere come funzionano i potenti modelli linguistici che stanno dietro a strumenti come ChatGPT e come la stessa tecnologia "transformer" sia stata adattata per generare contenuti visivi a partire dal testo. E' essenziale, come ripete il libro piu volte, che tutto ciò che ce scritto è in continua evoluzione , per questo non ha alcun senso deridere queste macchine se producono qualcosa che si sembra brutto o insensato. E' molto piu importante acquisire il metodo e lavorare sul loro funzionamento per immaginare cosa ne faremo in futuro, e in relazione alla creazione di immagini e capire quelle vere e quello no, è importante chiarire come fare per riconoscerle e non parlare subito di "deepfake" accentuando la componenete negativa, ma dobbiamo concentarti sugli aspetti positivi. (Dire a un'immagine creata con IA "deepfake" significa (etichettarla come un prodotto di intelligenza artificiale che è stata manipolata o generata per apparire come qualcosa di reale, spesso con l'intento di ingannare o rappresentare falsamente una persona che dice o fa qualcosa che non ha mai detto o fatto. Il 2022 ha segnato una svolta con l'emergere di immagini create dall'intelligenza artificiale, che in breve tempo sono diventate onnipresenti, così come gli strumenti per generarle. La reazione iniziale è stata spesso di allarme, percependo queste macchine come pericolose per la loro capacità di produrre immagini in modo rapido e con un realismo tale da rendere incerta la distinzione tra vero e falso, una sfida che potrebbe complicare il lavoro degli storici futuri. Tuttavia, il capitolo sottolinea che la possibilità di falsificazione non è una prerogativa delle moderne IA. Vengono citati esempi storici come le manipolazioni del governo egiziano o la mostra italiana su Tutankhamon L'approccio corretto nei confronti dei modelli TTI e TTV non dovrebbe essere di ostilità, ma di riconoscimento del loro potenziale come validi alleati per i creatori. Queste tecnologie non sono comparse improvvisamente; sono il risultato di un lungo percorso evolutivo nel campo dell'intelligenza artificiale e della computer grafica. Comprendere questa evoluzione è fondamentale per superare la paura iniziale e iniziare a esplorare le opportunità che offrono. Invece di percepire i modelli TTI e TTV come una minaccia al lavoro creativo, è più produttivo considerarli come nuovi strumenti che possono amplificare le capacità umane. Possono automatizzare compiti ripetitivi, generare idee iniziali, fornire nuove prospettive visive e persino rendere la creazione di contenuti multimediali accessibile a un pubblico più ampio. Downloaded by Lorenzo Terracciano (lorenzoterracciano1999@gmail.com)

Non hai trovato quello che cercavi?

Esplora altri argomenti nella Algor library o crea direttamente i tuoi materiali con l’AI.