пользователей: 30398
предметов: 12406
вопросов: 234839
Конспект-online
РЕГИСТРАЦИЯ ЭКСКУРСИЯ

Энтропия

- мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации.

В равновероятных событиях (ф-ла Хардли): H=Log2(N)

Если есть два равновероятных события, то энтропия равна 1. Отсюда информация двоичного кода и называется битом.

В неравновероятных событиях (Формула Шеннона):

Где Pi – вероятность i-го события.

N- кол-во состояний.

 


хиты: 30
рейтинг:0
Точные науки
информатика
для добавления комментариев необходимо авторизироваться.
  Copyright © 2013-2024. All Rights Reserved. помощь