Storia di una cifra inafferrabile, lo “Zero”

Lo zero era ignoto ai Greci ed ai Romani. Giunse in Occidente, nel Medioevo, attraversi gli Arabi che, a loro volta, ne avevano appreso la nozione dagli Indiani.

A titolo di cronaca, la storia ci dice che, intorno al 300 а.С., i Babilonesi iniziarono ad usare un semplice sistema di numerazione in cui si impiegavano due cunei per marcare uno spazio vuoto, avente la funzione di segnaposto. Un po’ come quando si contano, ancor oggi, le carte da gioco, facendo gruppetti da dieci, od i soldi, in cui si fanno le mazzette di uno stesso importo.

Sembra, infatti, che l’origine del segno “o”, sia d attribuire alla forma dell’impronta, lasciata sulla sabbia, da un ciottolo tonto, dopo essere stato rimosso, perché le conte si facevano con le pietre, come, ancor oggi, con i sassi, per la viabilità delle strade, od il numero degli armenti.

Ma l’uso dello zero, come numero in sé, si deve ai matematici indiani esattamente al matematico Brahmagupta, intorno al 628 d.C.

Gi arabi appresero dagli Indiani il sistema di numerazione decimale, e lo chiamarono “sifr” che nel 1202, Leonardo Fibonacci, nel suo libro “Liber Abaci”, tradusse “zefirus”, poi “zevero”, e quindi “Zero”, dal dialetto veneziano.

L’arabo Hhwuarismi, infatti, nell’ anno 850, scrisse, traducendo gli scritti di matematici indiani, alcuni dei quali erano arrivati alla corte di Bagdad, un libretto di aritmetica, nel quale spiegava l’uso dei nuovi numeri.

Il libro, tradotto in latino, verso il 1120, ebbe grande diffusione e contribuì a far conoscere, agli Europei, il nuovo sistema di numerazione, anche se dello zero si ebbero, all’inizio, interpretazioni diverse.

Gli indiani, ebbe a scrivere il Fibonacci, nel citato libro, disegnarono le figure di nove numeri, ma a questi aggiunsero uno “cephirum”, un vuoto, lo zero, al posto della lettera X, romana, dieci, in modo da poter scrivere qualsiasi grande numero.

Il vantaggio, per i matematici che usavano carta e matita erano evidenti, molto meno per la stragrande maggioranza delle persone abituate ad usare l’abbaco, od usare, come a Roma, le lettere L, equivalente a cinquanta, C, a cento, D, a cinquecento, M, a mille.

La eccezionale idea, la cifra del niente, a dire il vero, s’infiltrò in Occidente attraverso le terre infedeli dell’Andalusia e della Sicilia, con molte resistenze, e solo dall’epoca, detta del Rinascimento, conquistò l’Europa che, allora, viveva, ancora, secoli bui.

Lo “zero operator”, posto dalla destra di u numero, per esempio 3, lo moltiplicava per dieci, 30, finché il grande matematico indiano: Mahavira, intuì che quel simbolo poteva assumere la dignità di un vero numero come tutti gli altri. Lo zero, simbolo 0, diventò, quindi, il primo dei numeri e fu da considerarsi pari. Inoltre, aveva molte proprietà davvero strane. Se lo si aggiungeva ad un qualsiasi numero, per esempio ancora 3, questi non aumentava, 3+0=3. Se lo si sottraeva, questo non diminuiva 3-0=3. Se, invece, veniva moltiplicato 3×0=0, rimaneva zero, se lo si divideva, 3/0=0, questo comunemente restava zero, mentre , nella matematica pura il risultato era l’infinito.

Il numero zero, nella penna dei matematici indiani, produceva, quindi, due grandi prodigi dava un valore numerico, se aggiunto, se diviso, generava l’infinito, fino a diventare nel XVII secolo, la base del calcolo che, da Newton e da Leibniz in poi, fu lo strumento con cui si realizzò la matematizzazione della fisica, base delle imprese scientifiche contemporanee.

Alla numerazione romana, che partiva dalla combinazione delle dita della mano e dalle lettere, non restava che immortalarsi nei monumenti, nelle iscrizioni, ma non più nei calcoli.

C’è di più. Lo zero, con il sistema binario, usato dai computer, ebbe a creare la nostra era digitale.

Quando un computer deve, infatti, farci conoscere i risultati, o ricevere da noi dei dati, per mezzo di tastiere che provvedono ad una adeguata conversione, si serve del sistema binario; 0-1, acceso spento, in cui ogni segale si chiama “bit”, binary digit. Un insieme di otto bit è chiamato”byte”, necessario per 128 combinazioni diverse, da 0 a 127, mentre , con quattro bit, 16 combinazioni, da 0 a 15.

Divertiamoci a contare i primi numeri dallo zero al quindici, in versione decimale:

00=0000
01=0001
02=0010
03=0011
04=0100
05=0101
06=0110
07=0111
08=1000
09=1001
10=1010
11=1011
12=1100
13=1101
14=1110

Ovviamente, questo risultato, con quattro bit. Se accendessimo invece altri otto bit, avremmo da esprimere, da 0 a 127, 128 combinazioni diverse. L’insieme di otto bit, come abbiamo già detto, è stato chiamato “byte”, ed è diventata l’unità di misura dei computer. Siccome muovere un solo byte alla volta, è bastato più, sono stati creati PC, personal computer, o elaboratori, prima con 16 bit, poi con 32 bit, ed ora, anche 64 bit, per spostare contemporaneamente, in un a sola volta, più velocemente, cifre maggiori, con la velocità della luce.

E così abbiamo il kilobyte, 2 alla potenza 10, il megabyte, 2 alla potenza 20, il gigabyte, 2 alla potenza 30, e via di seguito, in funzione degli HardDisk che oggi sono comunemente in vendita sino ai giga voluti. Commercialmente sino a 300.000 giga.

Che serve dire di più dello 0, che non varrebbe niente, ed ha risolto, invece, ogni possibilità di calcolo meccanico, elettronico, e su cui si basa ora ogni ricerca scientifica?

Ed è anche questo il motivo per cui si laureano in India, tantissimi ingegneri che,lavorano,in Internet, con le ditte Usa, approfittando anche della diversità dei fusi orari.