C’est quoi, un bit ?
Le mot bit fait partie du vocabulaire de l’informatique. Il désigne une unité de mesure qui correspond à une quantité élémentaire d’information. Celle-ci est représentée par un chiffre qui peut prendre deux valeurs, en l’occurrence 0 et 1.
Pour coder des informations plus volumineuses que juste 0 ou 1, on assemble des bits. Ainsi, l’assemblage de 8 bits correspond à un octet. Pour les quantités plus grandes, on emploie davantage le mot octet, avec un préfixe : kilooctet, mégaoctet, gigaoctet, etc.
Le mot bit est conservé dans un autre nom d’unité de mesure, le bit par seconde. Elle est usitée pour mesurer un débit de transmission de données. Exemple : 256 kilobits par seconde.
Le mot bit en parlant d’un processeur
On parle de processeur 32 bits, de processeur 64 bits, de processeur 128 bits, etc. Pour le comprendre, il faut déjà indiquer que les processeurs contiennent des petites unités de mémoire appelées registres. Un processeur 32 bits, c’est un processeur dont les registres ont chacun 32 bits de mémoire.
Le mot bit est emprunté à l’anglais, où il a le même sens. Il correspond à la forme courte de l’expression binary digit, qui signifie « caractère binaire, chiffre binaire, unité binaire ». Bit est aussi un mot anglais qui veut dire « petit morceau, petit bout ».
- bit (Dictionnaire de l’Académie française, 9e édition)
- bit (fr.wiktionary.org)
- élément binaire (FranceTerme)
Camille Martinez
Publié le 23/01/2026
Rédigé par des humains, pour des humains