Documento di Università sul Diritto Privato nei Mercati Digitali. Il Pdf esplora la distinzione tra analogico e digitale, l'evoluzione di internet e del web, la proprietà intellettuale del software, le licenze Creative Commons e i beni digitali, inclusi i dati personali e il GDPR, per la materia di Diritto.
Mostra di più30 pagine


Visualizza gratis il Pdf completo
Registrati per accedere all’intero documento e trasformarlo con l’AI.
Le tecnologie digitali sono innovazioni il cui potenziale si manifesta in più ambiti dell'economia e della società. Il momento in cui l'innovazione tecnologica ha assunto un ruolo da protagonista nella trasformazione dei processi produttivi e dei mercati è identificato con l'invenzione della macchina a vapore con la prima rivoluzione industriale (1760- 1840). La seconda rivoluzione industriale (1870-1900) con l'acqua corrente ed energia elettrica. La terza rivoluzione industriale (1960- 1990) con i computer ed internet. Oggi ci troviamo nel pieno della quarta rivoluzione industriale dove gioca un ruolo importante l'intelligenza artificiale e il machine learning e si utilizza il termine Industria 4.0.
La distinzione tra analogico e digitale è fondamentale per capire il cambiamento che stiamo vivendo. La rivoluzione digitale rappresenta il passaggio dalle tecnologie analogiche a quelle digitali. Il termine digitale deriva da "digit", che significa numero. Nel sistema digitale, qualsiasi messaggio viene tradotto in sequenze numeriche. Il sistema binario è alla base del digitale e composto da sequenze di due valori (0 e 1). Questo sistema consente di codificare ogni lettera o cifra con un numero binario, utilizzando il codice ASCII. Le immagini digitali, invece, vengono suddivise in pixel, e ogni pixel è rappresentato da un certo numero di bit. Questo permette di convertire immagini e informazioni in dati digitali, mantenendo una qualità perfetta e consentendo una trasmissione veloce e senza costi elevati. All'inizio della rivoluzione digitale, i computer non erano in grado di processare ogni tipo di informazione. Tuttavia, la trasformazione digitale ha reso possibile l'elaborazione e la trasmissione di dati di vario tipo, portando a un'economia di bit, ovvero a una gestione ottimizzata delle informazioni (rapida, precisa ed economica).
Per comprendere meglio il fenomeno della digitalizzazione si introduce il concetto di datazione ovvero, la trasformazione delle informazioni in dati digitali. La digitalizzazione e la datificazione sono due operazioni distinte:
Negli anni 70 i computer erano dispositivi ingombranti e costosi, accessibili solo a pochi. La situazione cambia con la nascita dei personal computer come quelli di Apple (1977). Grazie a costi più accessibili, diventa possibile utilizzare i computer per operazioni domestiche visto che fino a pochi anni prima erano riservate a pochi privilegiati. Inoltre, la rivoluzione dei computer non si ferma con la nascita del pc. Negli anni i processori diventano sempre più piccoli, al punto di diventare tascabili.
Internet è una rete globale di collegamenti informatici che permette a computer e dispositivi (nodi) di connettersi e scambiare dati, utilizzando collegamenti fisici (cavi) o wireless. La sua origine risale a un progetto del dipartimento della difesa usa chiamato ARPANET, ideato per creare una rete distribuita che consentisse la comunicazione tra computer senza dipendere da un unico nucleo centrale. Successivamente, sono state sviluppate altre reti, ma per farle dialogare tra loro è stata introdotta una metalingua comune, il protocollo TCP/IP, chi ha consentito l'interconnessione globale. Internet e web non sono sinonimi:
World Wide Web significa rete di ampiezza mondiale. Esso è Ehi uno dei principali servizi di Internet che permette di navigare e usufruire di un insieme molto vasto di contenuti collegati tra loro attraverso collegamenti (link).L'adozione di protocolli standard come HTML (per le pagine web), HTTP (per la comunicazione tra server e client), URL (per l'identificazione univoca dei documenti) ha reso possibile questa comunicazione globale.
Un algoritmo è una sequenza di istruzioni chiare e univoche per risolvere un problema in una serie di passaggi elementari (Una caratteristica fondamentale dell'algoritmo è l'univocità; Per essere eseguibile da una macchina non deve contenere ambiguità), mentre il coding traduce queste istruzioni in comandi per il computer. L'intelligenza artificiale e la capacità delle macchine di svolgere compiti che richiederebbero intelligenza umana. Essa nasce con il Turing Test (1950) Eh si sviluppa negli anni 50 con i primi Expert System, ovvero sistemi progettati per eseguire compiti complessi che richiedevano conoscenze specialistiche. Oggi l'intelligenza artificiale include il machine learning, una tecnologia che consente alle macchine di apprendere dall'esperienza. Una sua evoluzione è il deep learning, basato su un apprendimento più profondo. Entrambi i metodi si fondano su l'elaborazione di grandi quantità di dati.
Nell'economia digitale, i dati sono una risorsa centrale, responsabili della smaterializzazione della ricchezza, che si sposta da beni tangibili a intangibili. Questo fenomeno ha generato nuove figure professionali come i data specialist, e ha trasformato intere industrie, supportate dall'uso di software e sensori innovativi.
Le Tecnologie Distributed Ledger (DLT) sono sistemi che si basano su un registro elettronico distribuito geograficamente su una rete di nodi, dove tutti possiedono una copia dello stesso database. I dati, sono raccolti in blocchi collegati secondo una sequenza temporale, sono protetti da crittografia, risultando inalterabili e legati allo storico delle transazioni precedenti. La blockchain è un tipo particolare di DLT in cui ogni modifica al registro è regolata da algoritmi di consenso virgola che verificano e approvano le nuove informazioni. Questa tecnologia è particolarmente resistente agli attacchi informatici grazie alla sua struttura decentralizzata. L'impiego più noto della blockchain è legato alla nascita delle criptovalute, con il Bitcoin come esempio principale e più rilevante.
la manifattura digitale segna una rivoluzione industriale, anche nel mondo fisico, grazie a tecnologie come la stampa 3D, che utilizza laser e crea oggetti attraverso strati sottili. Gli oggetti vengono prima progettati digitalmente con programmi di prototipazione 3D, riducendo i costi e accelerando i processi. Questo approccio si inserisce nel contesto dell'industria 4.0, un nuovo modello produttivo e gestionale che punta a innovazioni digitali per aumentare efficienza, ridurre sprechi e ottenere vantaggi significativi.
L'innovazione non si limita alla tecnologia, ma coinvolge anche la sfera economica e sociale, portando effetti positivi per la società. Tuttavia, per misurare l'impatto dell'innovazione, è fondamentale valutarne gli effetti, assicurandosi che rispettino i principi etici della società. Alcune innovazioni, infatti, potrebbero entrare in conflitto con tali principi, rendendo necessario l'intervento del diritto per regolare e governare i processi innovativi.
Le nuove tecnologie richiedono un'analisi per cogliere benefici e limitare i rischi. Possiamo individuare due ordini di valutazioni per il diritto:
l'analisi costi-benefici deve valutare rischi, benefici e probabilità. A tal proposito, molto affermato e il principio di precauzione secondo il quale quando si versa in condizioni di incertezza è necessario anticipare le cautele contro possibili rischi, in caso di pericoli irreversibili, vietare l'applicazione della tecnologia in questione. Alcuni criticano il principio perché potrebbe impedire lo sviluppo e l'adozione di tecnologie che offrono benefici significativi. Si auspica un approccio più equilibrato, con interventi giustificati da prove certe o di ridimensionamento dell'intervento pubblico, Affidandosi a strumenti ex post del diritto come, ad esempio, regole poste adozione. Oltre agli aspetti tecnici, è importante considerare le valutazioni di carattere etico e morale nel decidere sull'adozione di tecnologie.
L'innovazione si divide in:
Il primo studioso ad essersi occupato dell'innovazione tecnologica nell'economia e stato Schumpeter che identifica l'innovazione come motore del progresso economico, evidenziando il legame con la distruzione creativa. In tempi più recenti, si è affermata una visione collettivistica che valorizza il contributo degli utenti e la diversità dei contributi collaborativi. L'intervento pubblico è cruciale per sostenere la ricerca e lo sviluppo, poiché le imprese private tendono a evitare rischi elevati. Quindi l'innovazione richiede un equilibrio tra competizione moderata, collaborazione e il supporto del settore pubblico.