origini
Le origini dell'informatica ma non solo.
Fabio Radrizzani su informatica e accessibilità, 07\12\2013, h. 19.42.

comi a proporvi un articolo sulle origini dell'informatica, ma non solo.
Questo articolo sarà suddiviso in varie parti.
Le origini dell'informatica.
L'uomo si è posto nell'andare del tempo di costruire uno strumento che era in grado di soddisfare 
alcune operazioni a lui noiose e complesse, soprattutto la cosa è nata dainumerosi calcoli 
matematici che ci si ritrovava a fare.
Da qui nascono i primi calcolatori, che non possiamo giudicare veri e propri computer, anche se 
essi sono sicuramente la base, questi calcolatori infatti non sanno fare altro che calcoli 
matematici.
Dopo unpo' di tempo si inizia a fare dei macchinari per i disegni su tela e questi macchinari hanno 
la caratteristica di funzionare con delle schede forate, in base a dove c'è il foro o meno la 
macchina traccia quel disegno.
Da qui prende lo spunto per la progettazione dei computer, che sono tutt'oggi in continua 
evoluzione.
Ma cosa si nascondeva dietro a queste schede forate che è ancora presente nei nostri pc?
Semplice si nascondeva il linguaggio binario, che sta alla base di tutto, un linguaggio basato solo 
su 2 valori 0 e 1 che mischiati in miliardi di combinazioni possono comporre tutto ciò che vediamo. 
Ma non solo dal linguaggio binario in particolare dai 2 numeri 0 e 1 prende il nome della unità 
principale che sta alla base di tutte che è il bit, che sta ad indicare appunto questi 2 valori, un 
insieme di bit che si è definito 8 bits forma il byte che è il vero e proprio carattere, al dilà di 
cosa esso sia, se è una lettera, numero, simbolo, o carattere speciale (alcunelingue richiedono il 
famoso dobluebyte poi che 8bits non sono a sufficienza per rappresentare i diversi caratteri).
Dal byte, nascono le diverse misure, che servono a determinare la capacità di archiviazione o di 
trasferimento, o a volte anche per altre molteplici misure, che sono più o meno conosciute. Abbiamo 
i kilo bytes  detti anche KB che sono esattamente 1024 bits per arrivare a questo numero dobbiamo 
prendere il numero 2 he è appunto un bits e elevarlo alla 10^, quindi per ottenere un kb bisogna 
fare 2^10. Poi abbiamo un mega bytes (1MB) che è 2^20 1 gigabytes (1GB) 2^30,  1 therabytes (1TB) 
che equivale a 2^40.
Cisono ancoraltre misure ma non andiamo ad identificarle tutte.
Dal fatto che per scrivere dei testi in diverse lingue servivano delle diverse codifiche, si è 
dovuto ricorrere a delle codifiche standard che racchiudessero un po' tutti i simboli in generali, 
la prima codifica che forse è anche la  più famosa che ancora oggi è un po' usata è la codifica 
ASCII. Che andremo a vedere nei dettagli successivamente.
Ricordo che un insieme di bytes elaborati e messi in modo ordinato e archiviati viene definito 
file, e un insieme di file cartelle, e un insieme di cartelle con la loro radice si definisce unità 
di archiviazione.

***
Eccoci con la seconda parte sulle origini dell'informatica.
Oggi ci occupiamo delle codifiche dei caratteri che vengono utilizzate.
La prima codifica riconosciuta è la codifica ASCII (American Standard Code Information Interchange. 
ovvero codifica americana standard per lo scambio di informazioni).
Questa codifica nasce nel 1968, a quei tempi inizia con uno standard di 7 bit, ma poi ben presto ci 
si accorge che non è sufficiente quindi si passa a quella 8 bit, come detto nello scorso articolo 8 
bit equivalgono nell'informatica ad un byte cioè un carattere.
I problemi comunque alla fine si presentano lo stesso, soprattutto con lingue complesse come il 
cinese, il coreano ecc., e quindi ci si accorge che 8 bit per queste lingue non sono in grado di 
rappresentare tutti i vari simboli.
Così alla fine si decide per una nuova codifica che tra l'altro è la codifica che sta rimpiazzando 
l'ASCII e si tratta cioè della codifica UTF-8 (Unicode Transformation 8 bit, ovvero trasformazione 
unicode a 8 bit).
Questa nuova codifica è in grado di supportare addiritura per una lettera fino a 4 bytes, anche di 
più in realtà, ma è stata ufficialmente bloccata sullo standard a 4 bytes che riesce a 
rappresentare tutte le lingue più complesse in un'unica codificaa. Ovviamente questa codifica non 
comprende solo le lingue più complesse, ma anche gli alfabeti più comuni, tra i quali c'è il nostro 
alfabeto.
Questa codifica con l'andare del tempo si sta trasformando, e a volte nascono delle codifiche 
diverse da quella ufficiale, ciò nonostante l'UTF-8 riconosciuto realmente è quello definito nello 
standard RFC 3629.
LUTF-8 è particolarmente usato e richiesto dallo standard IETF (Internet Engineering Task Force) su 
internet proprio per evitare una cattiva rappresentazione delle diverse lingue.
Torna all'indice