Signification de l’octet
Qu’est-ce que l’octet ?
Octet (prononcé appât ) est un terme créé par Werner Buchholz en 1957 comme une unité d’information numérique équivalant à quatre bits ( chiffre binaire , binaire) à l’origine et plus tard comme norme, il a été adopté qu’un octet est équivalent à huit bits. Le mot octet vient de bite , qui signifie morsure, comme la plus petite quantité de données qu’un ordinateur pourrait «mordre» à la fois. Le symbole de l’octet est un B majuscule, à distinguer du bit, dont le symbole est un b minuscule. L’octet est généralement utilisé dans les domaines de l’informatique et des télécommunications, ce dernier étant communément appelé octet , qui vient du français octet , dérivé du latin octo et du grec okto , qui signifie huit, différenciant ainsi l’octet de 8 bits des autres octets ayant des équivalents de bits différents.
Le terme «octet» est souvent utilisé pour spécifier la quantité, par exemple, la quantité de mémoire dans un appareil donné ou la capacité de stockage. Exemple : 16 Go (gigaoctet).
Chaque octet représente un seul caractère de texte sur un ordinateur. L’octet représente des lettres, des symboles, des chiffres, des signes de ponctuation, des caractères spéciaux, etc. et encode différentes informations dans le même ordinateur, en fonction de la quantité. Par exemple, 1 B correspond à un caractère ou une lettre, 10 B correspond à un ou deux mots, 100 B correspond à une ou deux phrases, 1 kB (1024 B) correspond à une histoire très courte, 10 kB correspond à une page d’encyclopédie, peut-être avec un simple dessin, 100 kB correspond à une photographie de moyenne résolution, 1 MB (1024 kB) correspond à un roman, 10 MB correspondent à deux exemplaires des œuvres complètes de Shakespeare, 100 MB correspondent à une bibliothèque d’un mètre, 1 GB (1024 MB) correspond à une camionnette pleine de pages de texte, 1 TB (1024 GB) correspond à 50 000 arbres, 10 TB correspond à la collection d’imprimés de la Bibliothèque du Congrès américain.
Le codage des caractères appelé ASCII ( American Standard Code for Information Interchange) a adopté l’information selon laquelle 1 octet équivaut à 8 bits, et en utilisant le système binaire (avec les valeurs 0 ou 1), 256 caractères ont été définis pour la représentation du texte dans les ordinateurs, obtenant ainsi un modèle pour les opérations entre différents dispositifs.
Les mesures suivantes sont utilisées pour exprimer des quantités de données :
- 1 octet = 8 bits
- 1 kilooctet (kB ou kbyte) = 1024 octets
- 1 mégaoctet (Mo ou Moctets) = 1024 kilooctets
- 1 gigaoctet (GB ou Gbytes) = 1024 mégaoctets
- 1 téraoctet (TB ou Tbytes) = 1024 gigaoctets
- 1 pétaoctet (PB ou Pbytes) = 1024 téraoctets
- 1 exabyte (EB ou Ebytes) = 1024 pétaoctets
- 1 zettabyte (ZB ou Zbytes) = 1024 exabytes
- 1 yottabyte (YB ou Ybytes) = 1024 zettabytes