Под информацией понимается совокупность сведений об объектах, явлениях окружающей среды, их свойствах, состояниях и взаимосвязи.
Сообщение - форма информации, используемое для послеующей передачи в данном из следующих видов:
- Числовая форма
- Текстовая форма
- Кодовая форма (двоичная исп в азбуке Морзе)
- Окустическая форма (звуковой сигнал)
- Видеоформа (кино)
- Трофическая форма
Данные - информация в некоторой форме, что позволяет ее хранить, обрабатывать.
Свойства информации:
- Запоминаемость (возможность воспринимать и сохр)
- Передаваемость (способность инф-ции к копированию)
- Воспроизводимость (при копировании инф-ции остается тождественно себе)
- Преобразуемость (способность инф-ции менять свою форму)
! Выделяется 3 концепции инф-ции, определяющих ее сущность:
- Отражает количественно инф-ный подход. Предложено амер.ученым Клот Шеннон. Онф определяется как мера неопределенности собыстия. Количество инф зависит от вероятности ее получения. "Чем иеньше вероятность получения сообщения, тем больше инф в нем находится" - утв. Шеннона. Под вероятностью понимают отношение колич благоприятных событий к общему числу событий. P=m/n <=1, где m - благоприятные, а n - общие.
- Расмматривается как свойство материи, т.е инф не может сущ вне материи, она сущ вечно
- Логикасемантический подход, при котором инф рассматривается как знаение, которые исп для управления и активного действия.
Непрерывная и дискретная информация
Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.
В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов -дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем. Область определения функции разбивается точками x1, x2,... хn, на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг – проецирование значений “ступенек” на ось значений функции (ось ординат). Полученная таким образом последовательность значений функции у1, у2, ... уn. является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.
Рис. 2. Процедура дискретизации непрерывного сообщения
Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений (рис. 2). В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.
Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря последовательностью знаков некоторого алфавита.
Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.
Существуют и другие вычислительные машины – аналоговые ЭВМ. Они используются обычно для решения задач специального характера и широкой публике практически не известны. Эти ЭВМ в принципе не нуждаются в дискретизации входной информации, так как ее внутреннее представление у них непрерывно. В этом случае все наоборот – если внешняя информация дискретна, то ее “перед употреблением” необходимо преобразовать в непрерывную.
Вероятностный подход измерения инф
Шеннон предложил этот подход измерения инф. Пусть система может принимать n равно вероятностных состояний N=2, N=6. Количество инф системы "А" определяется по формуле Хартли:
H=H(A)=log2N=lnN/ln2
! Поэтому определенияколичества инф в одном i сост системы H=log21/Pi
Объемный подход измерения инф
Определяется количеством символов в сообщении, где минимальной единицей измерения явл бит, исп и др - байт (минимальная адресуемая единица памяти). Если х-символов, у-разряды, то закодировать можем N=xy.
1 байт |
8 бит |
20 байт |
1 Кбайт |
1024 байт |
210 байт |
1 Мбайт |
1024 Кбайт |
220 байт |
1 Гбайт |
1024 Мбайт |
230 байт |
1 Тбайт |
1024 Гбайт |
240 байт |
1 Петабайт |
1024 Тбайт |
250 байт |
1 Экзабайт |
1024 Петабайт |
260 байт |
1 Зетабайт |
1024 Экзабайт |
270 байт |
1 Йотабайт |
1024 Зетабайт |
280 байт |
Объем данных выражается только целыми значениями, а колич инф вещественными. Формулу Хартли можно исп для опр объемма данных, притом результат округляется в большую сторону.
Пример:
- в сообщении исп 6 букв латинского алфавита (A,B,...) сколько байт необходимо для определения сообщения 1 уквы по формуле Хартли. V=log26=2,58 бит ~ 3 бита
- Можно представить 8 комбинаций (000, 001, 010, 011,..., 111), а для кодирования 7 букв будут использоваться 7 первых. V=M*Vв=7 букв * 3 бит = 21 бит = 2,65 байт = 3 байт
Четыре информационных революции
Первая революция связана с изобретением письменности, что привело к гигантскому качественному и количественному скачку. Появилась возможность передачи знаний от поколения к поколению.
Вторая (середина XVI в.) вызвана изобретением книгопечатания, которое радикально изменило индустриальное общество, культуру, организацию деятельности.
Третья (конец XIX в.) обусловлена изобретением электричества, благодаря которому появились телеграф, телефон, радио, позволяющие оперативно передавать и накапливать информацию в любом объеме.
Четвертая (70-е гг. XX в.) связана с изобретением микропроцессорной технологии и появлением персонального компьютера. На микропроцессорах и интегральных схемах создаются компьютеры, компьютерные сети, системы передачи данных (информационные коммуникации)