Информация – специфическая форма взаимодействия между объектами любой физической природы.
Представление об энтропии как мере неорганизованности было введено Р.Клазиусом в связи с изучением термодинамических явлений. Л.Больцман дал статистическую интерпретацию энтропии, позволившую рассматривать энтропию как меру вероятности пребывания системы в конкретном состоянии.
После построения в середине XX в. Шенноном теории информации оказалось, что формула Больцмана для термодинамической энтропии и формула Шеннона для информационной энтропии тождественны.
Информационный анализ систем использует представление о сигналах – носителях информации, средстве перенесения информации в пространстве и времени.
Сигналы делятся на два типа:
Статические сигналы, являющиеся стабильными состояниями физических объектов (книга, фотография)
Динамические сигналы, в качестве которых могут выступать динамические состояния силовых полей. (изменения состояния поля сил упругости в газе)
При обмене информацией между системами возникают специфические эффекты, полезные для анализа систем.
Избыточность (явление не всегда отрицательно)
Скорость передачи информации
Пропускная способность канала (пропускная способность зрительного, слухового и тактильного(осязательного) каналов связи человека составляют приблизительно 50 б/с.)
Теория информации имеет большое значение для системного подхода.Ее конкретные методы и результаты позволяют проводить количественные исследования информационных потоков в изучаемой системе.