origini Le origini dell'informatica ma non solo. Fabio Radrizzani su informatica e accessibilità, 07\12\2013, h. 19.42. comi a proporvi un articolo sulle origini dell'informatica, ma non solo. Questo articolo sarà suddiviso in varie parti. Le origini dell'informatica. L'uomo si è posto nell'andare del tempo di costruire uno strumento che era in grado di soddisfare alcune operazioni a lui noiose e complesse, soprattutto la cosa è nata dainumerosi calcoli matematici che ci si ritrovava a fare. Da qui nascono i primi calcolatori, che non possiamo giudicare veri e propri computer, anche se essi sono sicuramente la base, questi calcolatori infatti non sanno fare altro che calcoli matematici. Dopo unpo' di tempo si inizia a fare dei macchinari per i disegni su tela e questi macchinari hanno la caratteristica di funzionare con delle schede forate, in base a dove c'è il foro o meno la macchina traccia quel disegno. Da qui prende lo spunto per la progettazione dei computer, che sono tutt'oggi in continua evoluzione. Ma cosa si nascondeva dietro a queste schede forate che è ancora presente nei nostri pc? Semplice si nascondeva il linguaggio binario, che sta alla base di tutto, un linguaggio basato solo su 2 valori 0 e 1 che mischiati in miliardi di combinazioni possono comporre tutto ciò che vediamo. Ma non solo dal linguaggio binario in particolare dai 2 numeri 0 e 1 prende il nome della unità principale che sta alla base di tutte che è il bit, che sta ad indicare appunto questi 2 valori, un insieme di bit che si è definito 8 bits forma il byte che è il vero e proprio carattere, al dilà di cosa esso sia, se è una lettera, numero, simbolo, o carattere speciale (alcunelingue richiedono il famoso dobluebyte poi che 8bits non sono a sufficienza per rappresentare i diversi caratteri). Dal byte, nascono le diverse misure, che servono a determinare la capacità di archiviazione o di trasferimento, o a volte anche per altre molteplici misure, che sono più o meno conosciute. Abbiamo i kilo bytes detti anche KB che sono esattamente 1024 bits per arrivare a questo numero dobbiamo prendere il numero 2 he è appunto un bits e elevarlo alla 10^, quindi per ottenere un kb bisogna fare 2^10. Poi abbiamo un mega bytes (1MB) che è 2^20 1 gigabytes (1GB) 2^30, 1 therabytes (1TB) che equivale a 2^40. Cisono ancoraltre misure ma non andiamo ad identificarle tutte. Dal fatto che per scrivere dei testi in diverse lingue servivano delle diverse codifiche, si è dovuto ricorrere a delle codifiche standard che racchiudessero un po' tutti i simboli in generali, la prima codifica che forse è anche la più famosa che ancora oggi è un po' usata è la codifica ASCII. Che andremo a vedere nei dettagli successivamente. Ricordo che un insieme di bytes elaborati e messi in modo ordinato e archiviati viene definito file, e un insieme di file cartelle, e un insieme di cartelle con la loro radice si definisce unità di archiviazione. *** Eccoci con la seconda parte sulle origini dell'informatica. Oggi ci occupiamo delle codifiche dei caratteri che vengono utilizzate. La prima codifica riconosciuta è la codifica ASCII (American Standard Code Information Interchange. ovvero codifica americana standard per lo scambio di informazioni). Questa codifica nasce nel 1968, a quei tempi inizia con uno standard di 7 bit, ma poi ben presto ci si accorge che non è sufficiente quindi si passa a quella 8 bit, come detto nello scorso articolo 8 bit equivalgono nell'informatica ad un byte cioè un carattere. I problemi comunque alla fine si presentano lo stesso, soprattutto con lingue complesse come il cinese, il coreano ecc., e quindi ci si accorge che 8 bit per queste lingue non sono in grado di rappresentare tutti i vari simboli. Così alla fine si decide per una nuova codifica che tra l'altro è la codifica che sta rimpiazzando l'ASCII e si tratta cioè della codifica UTF-8 (Unicode Transformation 8 bit, ovvero trasformazione unicode a 8 bit). Questa nuova codifica è in grado di supportare addiritura per una lettera fino a 4 bytes, anche di più in realtà, ma è stata ufficialmente bloccata sullo standard a 4 bytes che riesce a rappresentare tutte le lingue più complesse in un'unica codificaa. Ovviamente questa codifica non comprende solo le lingue più complesse, ma anche gli alfabeti più comuni, tra i quali c'è il nostro alfabeto. Questa codifica con l'andare del tempo si sta trasformando, e a volte nascono delle codifiche diverse da quella ufficiale, ciò nonostante l'UTF-8 riconosciuto realmente è quello definito nello standard RFC 3629. LUTF-8 è particolarmente usato e richiesto dallo standard IETF (Internet Engineering Task Force) su internet proprio per evitare una cattiva rappresentazione delle diverse lingue.Torna all'indice