Slide su Dati, Web e Contenuti Digitali, che esplora i fondamenti dell'informatica, dalla definizione all'elaborazione dei dati. Il Pdf approfondisce la codifica dell'informazione, i concetti di bit e byte, le unità di misura e la sicurezza informatica, inclusi malware, DDoS, firewall e VPN, con strategie di backup. Questo documento universitario di Informatica introduce anche la gestione dei dati sul web, con focus sui database NoSQL e la scalabilità.
Ver más68 páginas
Visualiza gratis el PDF completo
Regístrate para acceder al documento completo y transformarlo con la IA.
26.09.2023 Informatica = Infor(mation) (auto)matique L'informatica è la scienza che studia l'elaborazione delle informazioni e le sue applicazioni: si occupa della rappresentazione, dell'organizzazione e del trattamento automatico delle informazioni o, più specificamente, dell'elaborazione di dati per mezzo di calcolatori elettronici
-> alcune parole chiave e concetti avanzati che mostrano l'importanza della interdisciplinarietà tra mediazione linguistica e scienze informatiche
02.10.23 L'informatica è l'elaborazione automatica dell'informazione -> informazione, dal latino, significa "dare forma alla mente', "insegnare" ed è un concetto astratto che definisce un concetto, idea, dato che fornisce (trasmette) conoscenza su un fatto, argomento, fenomeno Per essere utilizzata (da una persona o da un elaboratore), l'informazione deve essere rappresentata in maniera appropriata. Esempi: la lingua parlata permette di comunicare (trasmettere l'informazione) attraverso il suono e la scrittura e il disegno permettono di trasmettere l'informazione tramite documenti e libri La codifica è l'insieme di convenzioni e di regole da adottare per trasformare un'informazione in una sua rappresentazione
La stessa informazione può essere codificata in modi (rappresentazioni) diverse, a seconda del contesto (culturale, tecnologico) Un codice è:
Nel contesto della elaborazione automatica da parte di un calcolatore, la codifica utilizzata per l'informazione è determinata dal concetto di bit (binary digit) = l'unità minima di informazione memorizzabile o elaborabile da un calcolatore che può assumere solo due valori, come convenzione "0" e "1" . Di conseguenza, ogni elemento di informazione che deve essere elaborato da un calcolatore, viene codificato usando la codifica binaria · basata su un alfabeto composto da 2 soli simboli (k = 2) · viene quindi rappresentato da una sequenza di "0" e "1" Esempio 1 -> codice binario per i nomi delle stagioni (primavera, estate, autunno, inverno) · alfabeto = {0,1}, k=2 · N = 4 · quanto deve essere la lunghezza dei messaggi (cioè, quanti bit servono per codificare tutti i messaggi)? - avevamo visto: N = k^L -> se ci serve L -> L = Ilogk NI . dove le 2 "parentesi" indicano la funzione di ceiling (che ritorna il più piccolo numero intero non minore dell'argomento) . quindi L = log2 4 = 2 = 2 -> 2 bit bastano a rappresentare tutte e 4 le stagioni codifica binaria -> primavera 00, estate 01, autunno 10, inverno 11
Memoria di massa e bit -> L'informazione in forma di sequenza di bit è memorizzata dentro un calcolatore su una memoria di massa, pronta a essere letta e elaborata
-> La soluzione (?): prefissi binari! . nel 1998, la Commissione elettrotecnica internazionale (IEC) ha istituito una serie di prefissi da utilizzare per i multipli di byte espressi su base 2 · l'indicazione era di interrompere l'uso dei prefissi SI · questi nuovi prefissi non sono in pratica stati adottati, e ancora esiste l'ambiguità nell'utilizzo dei prefissi su base 10 in contesti non formalmente corretti Ma, in fondo, quale sarebbe il problema? · l'errore di calcolo tra le due notazioni, che diventa rilevante al crescere del multiplo · questo porta a una discrepanza notevole, a parità di bytes, nel descrivere la capacità effettiva di una memoria, o la dimensione di un file · fatto utilizzato anche in fase di "marketing" dai produttori di memoria di massa, che indicano la capacità utilizzando la notazione in base 10, per "gonfiare" un po' la capacità effettiva del dispositivo . inoltre, confusione tra indicazioni tra SO che usano base 10 (macOs, Linux) e SO che usano base 2 (Windows) la motivazione originale della scelta dei prefissi SI nasce da qui: · ai tempi, la capacità di memoria era limita solo alle migliaia di byte · la differenza tra 1000 e 1024 era stata considerata trascurabile, di fronte al beneficio di adottare una metrica "universale" come quella del SI · utilizzata già in ambito telecomunicazioni per misurare la velocità di trasmissione (bit-rate) in multipli di bit al secondo
Noi utilizziamo la numerazione araba in base 10, rappresentati in notazione posizionale · ogni cifra assume un peso diverso in base alla posizione che assume . 1977: 1 migliaia, 9 centinaia, 7 decine, 7 unità · Numero espresso in notazione posizionale: · si legge da destra a sinistra, moltiplicando ogni cifra per una potenza crescente della base · 1977 = 1*103 + 9*102 + 7*101 + 7*100 = 1000 + 900 + 70 + 7
Conversione - da base 10 a base 2 Si divide ripetutamente il numero per 2 fino ad arrivare a quoziente nullo e si prendono i resti a partire dall'ultimo 197710 = 111101110012 quoziente resto 1977 / 2 988 1 988 / 2 494 0 494 /2 247 0 247 / 2 123 1 123 / 2 61 1 61 / 2 30 1 30 / 2 15 0 15 /2 7 1 7 / 2 3 1 3 / 2 1 1 1 / 2 0 1
- da base 2 a base 10 Usiamo la notazione posizionale che abbiamo visto prima, ma usando la base 2 111101110012 = 1*210 + 1*29 + 1*28 + 1*27 + 0*26 + 1*25 + 1*24 + 1*23 + 0*22 + 0*21 + 1*20 = 1024 + 512 + 256 + 128 + 0 + 32 + 16 + 8 + 0 + 0 + 1 = 197710
Codifica di numeri interi: sistema ottale e esadecimale Oltre a binario e decimale, in informatica si usano anche il sistema a base 8 e a base 16
03.10.23 Per quanto riguarda i caratteri, la codifica di solito prevede:
American Standard Code for Information Interchange (ASCII) -> uno degli standard più noti per la codifica dei caratteri: