Меню Закрыть

Почему в одном байте 8 бит

Этот вопрос интересует многих. Причём здесь вообще восьмёрка? Получается, что в информатике всё отличается от привычных физических закономерностей. Объясните, пожалуйста.

Почему именно 8 есть много версий. На самом деле наверное IBM в семидесятых годах просто ввела такую систему как логично подходящую. Стало стандартом.

Все дело в кодировке символов и знаков по стандарту ASCII, который используется до сих пор. Байт изначально был наименьшим числом бит, который мог содержать один символ ASCII. Битов было 7 и кодировалось 128 символов. Такого количества хватало для получения всех английских букв, в верхнем и нижнем регистре, с цифрами и пунктуацией. Вскоре добавили 8-ой бит для расширения кодировки ASCII, которая состоит из 256 символов.

8-битные байты были приняты в System/360, вероятно, из-за использования BCD-формата представления чисел: одна десятичная цифра (0-9) требует 4 бита (тетраду) для хранения; один 8-битный байт может представлять две десятичные цифры. 6-битные байты могут хранить только по одной десятичной цифре, два бита остаются незадействованными.

По другой версии, 8-битный размер байта связан с 8-битным же числовым представлением символов в кодировке EBCDIC.

Если 1 байт необязательно 8 бит, то тогда сколько? Какие бывают значении битов для байта? От чего зависит?

P.S. Знаю что октет это ровно 8 бит.

1 ответ 1

"Байт" — это, грубо говоря, абстракция, инкапсулирующая понятие 8 атомарных ячеек памяти. А вот эту "атомарность" уже может определять конкретная архитектура. Железка, если угодно.

Поэтому в низкоуровневых языках(в си, например) даже нет такого типа данных — он определен на уровне псевдонимов — т.е новый уровень абстракции.

P.S Сетунь — как пример "битовой" абстракции. В настоящее время более популярна абстракция "восьми ячеек".

Читайте также:  Моя музыка мой мир майл ру

Рекомендуем к прочтению

Добавить комментарий

Ваш адрес email не будет опубликован.