Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается.
Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи.
В качестве единицы информации Клод Шеннон предложил принять один бит. Бит в теории информации — это количество информации, необходимое для различения двух равновероятных событий. В вычислительной технике битом называют наименьшую “порцию” памяти компьютера, необходимую для хранения одного из двух знаков “0″ и“1”, используемых для внутримашинного представления данных и команд. Бит, выбран в качестве единицы количества информации потому, что принято считать, что двумя двоичными словами исходной длины N или словом длины 2N можно передать в 2 раза больше информации, чем одним исходным словом. Число возможных равновероятных выборов при этом увеличивается в 2N раз, тогда как I удваивается.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28)
Широко используются также ещё более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 2 10 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 2 20 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 2 30 байт.
1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт.