Documento dall'Università su Ict e Società Dell'informatica. Il Pdf esplora la storia dell'informatica, dai fondamenti teorici come l'algoritmo e l'algebra booleana, alle moderne infrastrutture hardware e software, con un focus sul sistema binario, utile per lo studio universitario di Informatica.
Mostra di più31 pagine


Visualizza gratis il Pdf completo
Registrati per accedere all’intero documento e trasformarlo con l’AI.
Laura Pedroni
ICT E SOCIETÀ DELL'INFORMATICA
I primi fondamenti teorici nacquero nel 3 secolo A.C., ad opera di Eucide, un matematico greco ed uno
dei più grandi matematici mai vissuti che, inconsapevolmente, mosse il primo passo verso il fondamento
dell'informatica.
Egli definì il metodo per calcolare il massimo comun divisore, noto come MCD, di due numeri e lo
descrisse come metodo da passi. Un metodo a passi è di fatto un algoritmo e un algoritmo è calcolabile
con un programma, i primi programmi per computer usavano metodi a passi.
Quasi 1000 anni dopo un matematico persiano Abu Ja Far Muhammad pubblicò un metodo a passi per
risolvere equazioni di 2 grado, metodo che nella traduzione del nome in latino chiamò algoritmo.
Gli algoritmi sono il fondamento della programmazione.
Si parte da un concetto e poi si arriva a una soluzione.
Dal III secolo a.C., nuove innovazioni. Arriviamo al 1834 dove Charles Baddage, matematico e filosofo
inglese, ebbe l'idea di concepire un calcolatore programmabile che chiamò macchina differenziale. Non
riuscì a realizzarla perché gli mancarono alcune fondamentali componenti tecnologiche.
Nel 1991, invece, utilizzando i progetti originali (con gli schemi di Baddage) e seguendo gli standard di
fabbricazione e i materiali dell'epoca, fu costruita una macchina differenziale funzionante. Ciò ha
dimostrato che il progetto di Sir Baddage era corretto ed una simile macchina avrebbe potuto funzionare.
Nello stesso periodo, Joseph Henry, un fisico americano, inventa il relè, un dispositivo che azionato a
corrente chiudeva i morsetti, allo spegnimento della corrente i morsetti restavano aperti. È il sistema
On/Off alla base del funzionamento del computer. dispositivo che tramite il passaggio della corrente si
attivava, per aprire o chiudere i morsetti.
Si trattava proprio di quelle componenti tecnologiche che servivano a Babbage.
Qualche anno dopo, George Boole, matematico britannico, inventò una particolare algebra che usa due
soli numeri: "0" (o "falso") e "1" (o "vero") algebra binaria. Con due soli numeri riuscì a sviluppare
un'intera matematica e fu lui a comprendere come il dispositivo inventato da Henry avrebbe consentito di
sviluppare una macchina capace non solo di calcolare, ma anche di ragionare: "vero" e "falso" sono le
basi della logica matematica sulla quale si sviluppa la programmazione.
Nel 1888 William Seward Burroughs lasciò l'impiego in banca e fondò una società per produrre le sue
macchine calcolatrici, le Burroughs. Nel 1986 tramite una operazione tra la Sperry Corporation e la
Burroughs, venne costruita la Unisys, tuttora operativa, con un fatturato da 2,83 miliardi di dollari (2018).
macchine che risolvevano i problemi e non solo calcoli matematici.
Nel 1906, Lee Dee Forest inventò il triodo, più performante del relè, in quanto a differenza di
quest'ultimo, non ha parti meccaniche in movimento. Il triodo, detto anche valvola termoionica, è
composto da tre elettrodi: anodo, catodo e griglia. il relè a lungo andare dava dei problemi, perché le
parti meccaniche in continuo movimento si arrugginivano.
Nel 1929, Vladimir, ingegnere americano di origini russe, inventò il tubo catodico migliorato, precursore
della televisione, la tecnologia con la quale, un po' di anni dopo, si sarebbe realizzati i primi monitor
(monitor computer grandi).
Negli stessi anni, Pieter Zeeman, un fisico olandese che ottenne il premio Nobel nel 1902 per i suoi studi
effetti dei campi magnetici sulla luce, scoprì e approfondì le proprietà del Silicio come materiale
semiconduttore.Un semiconduttore è un materiale che permette alla corrente di "passare" in un senso ma in non in
quello inverso. Quindi se associo a "corrente che passa" il valore 1 e "corrente che non passa" valore 0,
il semiconduttore è il materiale che permette di sviluppare l'algebra booleana in "modalità elettronica".
Se il triodo fu il dispositivo che sostituì il relè, il transitor sarà il dispositivo che sostituirà il triodo.
Bisognerà tuttavia attendere la fine degli anni '50 per riuscire a sfruttare appieno il cilicio come
semiconduttore.
Al giorno d'oggi viene usato per costruire computer e telefoni.
Digitale deriva da digit "cifra, numero". "0" e "1" sono digit, quindi tutto ciò che è codificato con "0" e "1" è
digitale. È una sorta di onda. Tutto il resto che noi vediamo in naturale è analogico, come la lunghezza
d'onda, le tensioni elettriche, le trasmissioni meccaniche ...
Digitalizzare quindi significa portare qualcosa di analogico in digitale. Es. voce è analogica, ma se si
registra diventa digitale.
Nel 1936, Konrad Zuse, ingegnere tedesco, a soli 26 anni costruì la Z1, la prima macchina calcolatrice
digitale brevettata. Durante la seconda guerra mondali, Alan Turing, matematico, logico, crittografo e
filosofo britannico e omossessuale, motivo per cui venne discriminato. Studiò e sviluppo la Macchina
Turing, uno strumento teorico che rappresenta un modello astratto di un computer attraverso la teoria
degli algoritmi e della computabilità. Consentiva di decifrare i messaggi, le comunicazioni in tempo di
guerra. Essa consiste in:
Alonzo Church, matematico e logico americano, definì il concetto computazionale di decidibile e
indicibile.
DECIDIBILE (si dice anche ricorsivo): è un problema per il quale è possibile trovare un algoritmo che lo
calcoli e lo risolve.
Le affinità con la macchina Turing sono notevoli, perché entrambi erano interessati a definire e
dimostrare una modalità che inquadrasse l'universo delle funzioni computabili. Può sembrare un vezzo
da matematici, in realtà la teoria della computabilità sta all'informatica come il teorema di Pitagora sta
alla geometria: la possibilità di dimostrare che un algoritmo è calcolabile è il fondamento teorico per la
realizzazione di programmi che, banalmente funzionino. se io dimostro che un algoritmo è calcolabile,
posso teorizzare e creare programmi che funzionino.
C'è ora tutto il necessario: teoria e strumenti. La guerra, nella sua drammatica, fa da volano agli
investimenti e imprime fortissime accelerazioni alle innovazioni.
Nel 1941 venne costruita la Z3, dotata di 2600 relè, il primo calcolatore elettromagnetico digitale
realmente funzionante, capace di memorizzare 64 byte ed eseguire una moltiplicazione in circa 4
secondi.
un pc di oggi di media potenza è in grado di eseguire la stessa operazione in 1 miliardesimo di secondo
uno smartphone di fascia media ha una capacità di memoria 500 milioni di volte quella della Z3.
Nel 1911 viene costruita l'IBM, tuttora un colosso dell'informatica mondiale e protagonista della maggiori
innovazioni nell'ICT, nel 1948 costruì il SSEC, un calcolatore dotato di 13.500 valvole, 21.400 relè con
una memoria di 50 kb.
NOVITÀ:Questa macchina aveva, oltre a una potenza di calcolo avveniristica per quei tempi, anche la possibilità
di memorizzare i programmi con i quali eseguire le operazioni. Costosa e difficile da usare, fu utile solo
per impieghi militari e di ricerca.
Inizialmente le macchine prima di tutto venivano sviluppate e create per scopi militari e bellici, poi
vengono utilizzate da università, banche e grandi imprese. Infine, per poi arrivare al comune cittadino.
Intorno agli anni 60, inizia la convergenza ICT, si mettono insieme tutte quelle che sono le tecnologie
della telecomunicazione, i monitor, la tecnologia televisiva di produzione delle immagini; l'elettronica, lo
sviluppo dei transitor, che sfrutta le proprietà semiconduttrici (la corrente passa in un senso "1" ma non in
quello inverso "0") del silicio, lo sviluppo delle memorie e delle tecniche di assemblaggio, per le unità di
calcolo; l'algoritmica, la programmazione per realizzare applicazioni. Tutto questo insieme v a formare
quella che è l'information & communication tecnology.
I primi "utenti comuni" furono le banche e le aziende di maggiori dimensioni, per gestire le operazioni
contabili, l'automazione dei magazzini e il controllo della produzione
1969 la NASA si avvalse dei computer per portare il primo uomo sulla Luna, sebbene il regolo
calcolatore fosse ancora molto utilizzato nelle operazioni di routine degli ingegneri. Il sistema guida
dell'Apollo 11 era computerizzato grazie all'AGC, Apollo Guidance Computer, probabilmente il primo
minicomputer della storia perché in considerazione delle dimensioni dei computer dell'epoca, "scatoloni"
di qualche metro di lato (occupavano tutta la stanza), era piccolo e potente. 61x32x17 ed un peso di
32kg., dotato di 152KB di memoria e frequenza di calcolo di 2 MHz. All'epoca realmente un computer
"spaziale", oggi se lo confrontiamo ad un Pc acquistabile a qualche centinaio di euro in un negozio di
informatica ne servirebbero 50/60.000 per riuscire ad ottenere prestazioni di calcolo paragonabili. Le
aziende iniziarono a produrre computer di taglio più piccolo grazie allo sviluppo dell'AGC.
Per far funzionare un computer fino agli anni '60, ci voleva una persona che era addetta alla
programmazione, che sapeva e conosceva il linguaggio della programmazione stessa. Era una sorta di
meccanico che controllava che tutti i collegamenti e le valvole funzionassero.
1970 gli anni '70 vedono la trasformazione dell'ICT da tecnologia per pochi a tecnologia per molti
(sebbene non ancora alla portata di tutti). Nacquero i linguaggi cosiddetti "di alto livello" utili
Nasce così l'industria del software, che diventa in breve tempo un importantissimo settore economico e
strategico, capace di creare milioni di posti di lavoro nel ventennio successivo.
1970 ICT inizia a diffondersi, si assiste alla nascita dei "mostri sacri". Nel 1974: Intel, nata nel 1968 per
fabbricare componenti elettriche ed elettroniche delle prime macchina calcolatrici, realizza il primo
microprocessore commerciale con il quale equipaggia l'Altair 8800, un computer il cui costo di 495 dollari
era alla portata di tutti. Intel oggi ha 106.000 dipendenti e fattura 70,8 miliardi di dollari.
Il microprocessore è un circuito elettronico miniaturizzato che costruisce l'unità di calcolo dei computer.
1975 La storia della Microsoft Corporation ha inizio nel 1975, quando Bill Gates e Paul Allen propongono
alla Micro Instrumentation and Telemetry System (MITS), società che ha sviluppato uno dei primi
microcomputer, l'Altair 8800, di utilizzare il linguaggio di programmazione BASIC che secondo Allen e
Gates funziona su quella macchina. In effetti la versione del Basic sviluppata da Allen e Gates funziona
e nel febbraio dello stesso anno la diedero in licenza alla MITS, dalla quale Paul Allen diventa direttore
del software.