Мера информации (определяется понятиями объем данных и количество информации):
- синтаксическая: смысловая сторона не имеет значения, учитываются только формально-структурные характеристики информации.
- семантическая: предполагает учет смыслового содержания закодированных сообщений для формирования понятий и представлений.
- прагматическая: отражает отношение информации и ее потребителя и характеризуется полезностью(ценностью) информации при достижении поставленной цели.
Объем данных в информатике измеряется количеством символов, разрядов в сообщении.(1 бит – один разряд двоичного кода может принимать только два взаимоисключающих значения 1 или 0).
Количество информации. В 1928 г. амер. инженер Р.Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений. 1 бит – наименьшая единица измерения количества информации. Равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода.
I=log2N(Формула Хартли)
2^I=N
Формула Шеннона( учитывает неодинаковую вероятность сообщений в наборе событий)
I = -
где pi– вероятность того, что произойдет i сообщений из набора N. Меру неопределенности выбора сообщения называют энтропией.