Bit

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento daExabit)
Vai alla navigazione Vai alla ricerca
Disambiguazione– "Binary digit" rimanda qui. Se stai cercando cifra binaria, vedisistema numerico binario.
Disambiguazione– Se stai cercando altri significati, vediBit (disambigua).
Il lancio di una moneta: un tipo di evento il cui esito può essere descritto con un singolo bit di informazione

Ininformaticae nellateoria dell'informazione,ilbitè l'unità standard di misura dell'entropia, meglio nota comequantità di informazione.[1]

Il nome è unaparola macedoniadei termini inglesi "binary "(binario) e" digit"(cifra).[2] Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo dicifra binaria,che però formalmente è un concetto distinto.[3] Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultima codifica esattamente 1 bit di informazione.

Il concetto di bit è stato introdotto nel 1948 daClaude Shannon,fondando lateoria dell'informazione.[4][5] In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.[6] Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.[7]

Lo stesso argomento in dettaglio:Entropia (teoria dell'informazione).

Nel suo articolo "A Mathematical Theory of Communication"Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto. In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.[5]
Da questa considerazione deriva l'intuizione della naturaprobabilisticadell'incertezzae quindi, dualmente, dell'informazione.

Dato il modello matematico di una sorgente di informazione discreta, risulta interessante potermisuraree quindi definire unagrandezzaper quanta informazione viene emessa da questa. Shannon affronta questo problema introducendo il concetto diquantità di informazione,o anche entropia per via della similarità con alcune formulazioni del concetto dientropia in meccanica statistica. [8]


Espressione dell'entropia di una sorgente d'informazione.Convenzionalmente si assumee. [9] [10]

Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare comecorollarioche1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi,come ad esempio l'esito del lancio di una moneta.[11]In simboli:

Siauna coppia di eventi indipendenti equiprobabili ()


Interpretazione

[modifica|modifica wikitesto]

Una quantità in bit può essere interpretata in 2 modi differenti: [12]

Le due interpretazioni sono duali. Per esempio assumiamo di avere undatola cui entropia è pari abit:

Se il valore del dato non è conosciuto allora è ragionevole interpretare l'entropia come misura di incertezza: ovvero il valore del dato potrebbe essere uno qualsiasi in un set di dimensione.[5]

Per rimuovere completamente questa incertezza sarà necessario accertarsi del valore effettivo del dato, e cioè equivalentemente scegliere un singolo valore tra quelli possibili.[5] Questa operazione implica riceverebit di informazione. Alternativamente si può dire che il valore esatto "trasporta"( o" possiede ", o" rappresenta ")bit di informazione.

Multipli e alternative

[modifica|modifica wikitesto]
Le singole voci sono elencate nellaCategoria:Unità di informazione.
Lo stesso argomento in dettaglio:Ordini di grandezza (dati).
Multipli delbit
Prefissi SI Prefissi binari
Nome Simbolo Multipli Nome Simbolo Multipli
chilobit kbit 103 kibibit Kibit 210
megabit Mbit 106 mebibit Mibit 220
gigabit Gbit 109 gibibit Gibit 230
terabit Tbit 1012 tebibit Tibit 240
petabit Pbit 1015 pebibit Pibit 250
exabit Ebit 1018 exbibit Eibit 260
zettabit Zbit 1021 zebibit Zibit 270
yottabit Ybit 1024 yobibit Yibit 280

Essendo il bit un'unità di scala relativamente piccola risulta spesso poco ergonomica nel descrivere le quantità di informazione con cui spesso si ha a che fare nel mondo reale. Specialmente se si considerano i continui sviluppi della tecnologia e dell'era dell'informazione. Per questo motivo si è soliti adottare unità derivate che a vario titolo meglio si adattano a determinati usi.

Multipli diretti

[modifica|modifica wikitesto]

Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'ingegneria delle telecomunicazionie deisegnalipiù in generale.

Lo stesso argomento in dettaglio:Nibble.

Ilnibbleè un'unità equivalente a 4 bit. Questa unità è spesso utilizzata nella rappresentazioneesadecimale,poiché un nibble contiene la stessa quantità di informazione di una cifra esadecimale.[13]

Lo stesso argomento in dettaglio:Byte.

Ilbytecon i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione diinternet. Questo è dovuto alla popolarità delle piattaformePCorientate ai byte, che tuttora rappresentano la tipologia dominante.

Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia, assume sempre il significato di otto bit. Un byte può quindi rappresentare 28= 256 distinti valori, come ad esempio i numeri interi tra 0 e 255, o tra -128 e 127. Lo standardIEEE 1541-2002stabilisce che "B" (lettera maiuscola) è il simbolo che indica il byte. I Byte, ed i multipli di essi, sono sempre utilizzati per indicare la grandezza di file e la capacità di memorizzazione di computer.

Lo stesso argomento in dettaglio:Parola (informatica).

Nell'architettura dei calcolatorilaParola( in ingleseWord) è la minima quantità di informazione processabile atomicamente da unprocessore. Il numero di bit all'interno di una parola è legata alla grandezza deiregistridellaCPUed alla larghezza dei bus usati per il trasferimento dei dati. Alcune architetture possono operare atomicamente su sequenze di più parole.[14]

Blocchi o pagine

[modifica|modifica wikitesto]
Lo stesso argomento in dettaglio:Memoria virtualeeMemoria cache.

Nell'ambito dell'architettura dei calcolatoried in particolare della gerarchia delle memorie si è soliti ragionare in termini diblocchiopagine. La definizione precisa dei due termini dipende strettamente dall'architettura del calcolatore di riferimento.[15]

Lamemorie cachedi un computer generalmente opera su blocchi di memoria che consistono di diverse "parole" consecutive. Queste unità sono chiamate "blocchi" o "linee" di cache.[16] Il sistema dimemoria virtualepartiziona la memoria principale del computer in unità ancora più grandi, tradizionalmente chiamate "pagine".[17] Sulle moderne architetture PC è tipico trovare pagine di 4 KiB.[18]

  1. ^Bit,inTreccani.it – Enciclopedie on line,Roma, Istituto dell'Enciclopedia Italiana.
  2. ^Mackenzie 1980.
  3. ^Bit,inTreccani.it –Vocabolario Treccanion line,Roma, Istituto dell'Enciclopedia Italiana.
  4. ^History of Computing 1984.
  5. ^abcdShannon 2001,p. 1.
  6. ^History of Computing 1984,pp. 154-155.
  7. ^ (EN)Binit,suOxford English Dictionary.URL consultato il 24 ottobre 2023;
    Binit,suCollins English Dictionary.URL consultato il 24 ottobre 2023;
    (EN)Binit,suMerriam-Webster Dictionary,Merriam-Webster.URL consultato il 24 ottobre 2023;
    (EN) J. C. Hancock e J. L. Holsinger,Some Useful Coding Techniques for Binary Communication Systems,Lafayette, Indiana, Purdue University, 1º gennaio 1962.URL consultato il 24 ottobre 2023;
    Anna Morpurgo e Annamaria Zanaboni,Lezione 2. Rappresentazione delle informazioni(PDF), in Stefano Andreon (a cura di),Slide dell'insegnamento di "Laboratorio di Informatica",Osservatorio Astronomico di Brera, 2002.URL consultato il 24 ottobre 2023.
  8. ^Shannon 2001,pp. 9-14.
  9. ^ Il parametronon ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. (Shannon 2001,p. 10)
    Nella pratica non viene mai usato come parte della formula dell'entropia, ma compare spesso all'esterno come costante di conversione: ad esempioper convertire da bit abyte.
  10. ^ La scelta didetermina l'uso del bit come unità di misura. (Shannon 2001,p. 1)
    Sebbene Shannon ipotizzi anche l'uso di basi e quindi di unità alternative, la scelta del bit risulta particolarmente sensibile poiché ben si adatta all'uso oramai universale della teoria dell'informazione applicata aisistemi elettronici digitali.
  11. ^Shannon 2001,p. 19.
  12. ^ "Grandezze della forma[...] giocano un ruolo centrale nella teoria dell'informazione come misure di informazione, scelta e incertezza ". (Shannon 2001,p. 10);
    Scelta ed incertezza sono misure equivalenti.
  13. ^ Nate Williams,What Is a Nibble in Computing, and What Does It Equal?,suhistory-computer.com,History-Computer.URL consultato il 30 settembre 2023.
  14. ^Patterson, Hennessy 2015,p. 57.
  15. ^Patterson, Hennessy 2015,capitolo 5.
  16. ^Patterson, Hennessy 2015,p. 325.
  17. ^Patterson, Hennessy 2015,pp. 374-375.
  18. ^Patterson, Hennessy 2015,p. 376.

Collegamenti esterni

[modifica|modifica wikitesto]
Controllo di autoritàGND(DE)4145760-2