пользователей: 21219
предметов: 10452
вопросов: 177398
Конспект-online
зарегистрируйся или войди через vk.com чтобы оставить конспект.
РЕГИСТРАЦИЯ ЭКСКУРСИЯ

Понятие информации. Виды информации. Информационные процессы. Непрерывная и дискретная формы представления информации. Способы кодирован

Норберт Винер: информация – это обозначение содержания, получаемого из внешнего мира в процессе нашего приспособления к нему.

Информация отражает семантические свойства материи, а это в частности означает, что, будучи свойством материи она отражает смысловую сторону материального объекта. Она присуща всем объектам. Поскольку всеобщей формой существования материи является её движение и изменение, то информация задаёт направляющие движения и цель. Часто информацию связывают с понятием упорядоченности.

  1. Любой объект материального мира обладает определённым смыслом, следовательно, информация есть свойство материального объекта.
  2. Смысл можно искать только в объектах живой природы и социотехнических объектах.
  3. Человек в процессе познания и практической деятельности приписывает объектам некоторый смысл. В этом случае информация субъективна и существует только в сознании человека.

Противоположность этих точек зрения не влияет на изучение понятия информации. Одним из свидетельств того является распространение в науке системного подхода. Он подразумевает, что каждый объект принадлежит некоторой системе, обладает смыслом и должен рассматриваться в контексте этой системы. То есть объект нельзя произвольно изменять, не затронув других объектов системы. Быстрое увеличение объёма информации ставит перед человеком проблему умения работать с ней, хранить, быстро извлекать нужную информацию, уметь её адекватно обрабатывать. Умение работать с информацией одно из основных умений человека.

В зависимости от позиции, которую занимают исследователи в решении вопроса о семантических свойствах материи существует 3 подхода к феномену «информация»:

  1. Атрибутисты полагают, что информация – является атрибутом всех систем объектов реальности, существует вечно, является организующим началом в живой и неживой природы.​
  2. Функционалисты отрицают существование информации в неживой природе. С их точки зрения информационные процессы реализуют функцию управления в биологических, социальных и социотехнических системах.
  3. Антропоцентристы ограничивают сферу информации системами, связанными с человеком. Говорить об информации следует в сфере «человек-обзество».

В философии принято следующее определение информации.

Информации – это отражение многообразия реального мира и такая общая позиция позволяет изучать вопросы как материального, так и духовного мира.

В быту под информацией понимают сведения представляющие для нас интерес, а именно – которые мы воспринимаем и осознаём, поэтому восприятие поступающих из вне сигналов и их интерпретация есть основа превращения этих сигналов в информацию для нас.

В журналистике под информацией понимают не любые сообщения, а те которые обладают новизной.

В технике связи под информацией понимают любую последовательность сигналов, которая хранится, обрабатывается и передаётся с помощью технических средств. Содержание информации в технике связи не учитывается.

В теории информации понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их появления неопределённость. Информация – это снятая неопределённость, а неопределённость тесно связана с вероятностью наступления события, следовательно, чем меньше вероятность появления того или иного сигнала, тем больше информации он несёт для получателя. Чем неожиданнее новость, тем больше её информативность.

В информатике появляется определение понятие информации, сводящее её к двум простым. Новое понятие информации разделяется на «информацию» и «данные». Известно, что все объекты находятся в состоянии движения, которое сопровождается обменом энергии и переходом её из одной формы в другую. При этом все виды энергообмена сопровождаются появлением сигнала, при взаимодействии сигнала с физическими объектами, в последних возникают опреелённые изменения свойств. Эти изменения свойств могут быть зарегистрированы и сам процесс называется регистрацией.

Прежде, чем оперировать информацией, ей надо располагать. Распространение информации связано с материальным носителем, т.е. средой для её записи хранения, обработки. Носителями информации могут быть:

  1. Любой материальный объект (бумага, камень, дерево и т.д.)
  2. Волны различной природы (акустическая, электромагнитная, свет и т.д.)
  3. Вещество в различных состояниях (жидкий раствор, газ и т.д.)

В соответствии с избранным носителем технические устройства могут работать, используя механическое движение, давление жидкостей и газов, электрическое напряжение и т.д. Каким же образом представляется информация в зависимости от природы носителя? Все виды энергообмена сопровождаются процессами, в результате которых изменяются характеристики различных сред, которые мы называем сигналом.

Эти изменения могут быть отмечены. Зарегистрированные сигналы – данные. Если носителем является материальный объект с какими-либо изображениями на нём, то говорят, что информация представлена в виде знака. Знак – изображение, представление некой сущности. Для представления знаков избирается алфавитный способ. Алфавит – это конечный набор различающихся между собой знаков, для удобства применения наделённый линейным порядком. Если носитель – волна или вещество, то информация переносится в виде сигналов. Процессы эти разворачиваются во времени, поэтому в качестве носителей интересны величины, изменяющиеся во времени. Та характеристика процесса, которая используется для представления сообщения, называется параметром сигнала (Для волн это амплитуды или частота). Один и тот же знак может нести для нас разный смысл. Знак наделённый смыслом – символ.

Аналоговый сигнал – это сигнал, параметр которого непрерывно изменяется во времени (т.е. принимает из некоторого промежутка любые значения). Применяется в радио-, сотовой связи, в телевидении. Сигнал называется дискретным, если параметр сигнала может принимать лишь конечное число значений. Сигнал, несущий информацию должен принимать, по крайней мере, два различных значения.

Большинство процессов мы воспринимаем в виде непрерывных сигналов. Дискретизация – переход от аналоговой к дискретной форме передачи сигнала.

Дискретизация состоит из двух этапов:

  1. Развёртка во времени.
  2. Квантование по величине.

Развёртка во времени представляет собой следующее:

  1. разбивают на n отрезков одинаковой величины.
  2. на каждом отрезке избирают участок y(t) и на каждом промежутке Δi=ti+1 - ti выбирается среднее значение этой функции. Тогда функция становится постоянной и на каждом промежутке. Таким образом, построили пульс.

Квантование: выбирают на оси Oy некоторый шаг Δy и в соответствии с ним получаем некоторое разбиение и каждому числу из этого промежутка ставят в соответствие число, кратное Δy.

В результате получаем конечный набор значений исходной функции y на временном промежутке (t0,tn). И можно уже представить функцию в виде знаков.

Квантование – это отображение вещественных чисел в некоторое счётное множество, а именно в множество всех кратных некоторому числу Δ, называемому шагом квантования. Отображение строится так, что всякий из наших равных интервалов чисел отображается в то кратное Δ, которое лежит в этом интервале. Квантование переводит значение функции в счётное или конечное множество чисел, которые можно понимать как набор знаков. Таким образом, развёртка и последующее квантование даёт последовательность знаков – произвольное аналоговое сообщение превращается в дискретное слово над некоторым набором знаков.

При дискретизации сигнала происходит потеря информации, связанная с конечностью величины n и кажется, что эта потеря неизбежная и её можно лишь частично восполнить, увеличивая n.

В 1932 году Котельников сформулировал и доказал некоторую теорему отсчётов: непрерывный сигнал можно полностью отобразить и точно воссоздать по последовательности измерений или отсчётов величины этого сигнал через одинаковые интервалы времени, меньшие или равные половине периода максимальной частоты, имеющейся в сигнале.

Смысл теоремы в том, что дискретизация не приводит к потере информации и по дискретному сигналу можно полностью восстановить аналоговый сигнал, если развёртка во времени будет равна:, Где - частота

В телефонных линиях, например, используются колебания с частотами от 300 до 3400Гц. Значит и аналоговый сигнал можно превратить в дискретный без потерь..

Для точной передачи речевого сигнала должно производиться не менее 8000 отсчётов в секунду.

В телевизионном сигнале частота может достигать до 4 МГц, то есть нужно осуществить до 8 миллионов отсчётов в секунду.

Содержательно: любой получатель сообщения – человек или устройство, всегда имеет конечную, предельную точность распознания величины сигнала. Человеческий глаз распознаёт 16 миллионов цветовых оттенков, это значит, что нет смысла делать большее число градаций. При передаче речи оказывается, точность может достигать около 1%, следовательно, для амплитуды звукового колебания Δy может быть избрано одной сотой (0,01) от максимального звукового сигнала, а, следовательно, алфавит для обозначения всех градаций громкости может содержать 100 знаков.

Шаг квантования определяется чувствительностью приёмного устройства. Преобразование дискретного сигнала в непрерывный, непрерывного в дискретный, дискретного в дискретный может быть осуществлено без потери информации. И лишь преобразование непрерывного в непрерывный не может быть осуществлено без потери.

Пример квантования двумерной фигуры:

Виды и свойства информации

Классификация:

  1. По восприятию: мы воспринимаем информацию с помощью зрения, осязания, обоняния, вкуса, слуха. Информация воспринимаемая зрением – визуальная, слухом – аудиальная, обонянием – обонятельная, осязанием – тактильная, вкусом – вкусовая. Через зрение человеком воспринимается от 80% до 90% информации. При помощи слуха от 8% до 15%, а на всё остальное от 1% до 5%.

  2. По степени значимости: общественная, специальная и т.д.

  3. По способам представления: текстовая, числовая, графическая, звуковая.

  4. По сфере применения: экономическая, географическая и т.д.

Свойства информации (качественные признаки).

Знание свойств позволяет оценить, насколько принимаемые решения на основе информации верны.

  1. Объективность – независимость от чьего-либо мнения (с помощью датчиков). Отражаясь в нашем сознании она становится субъективной.
  2. Достоверность.

Информация, которая отражает истинное состояние объектов и процессов. Она может быть как объективной так и субъективной. Недостоверной может быть по следующим причинам:

-преднамеренное искажение

-искажение в рез-те помех

-преднамеренное увеличение или уменьшение какого-либо факта.

  1. Полнота. Информация полна, если её достаточно для понимания и принятия решения. Полная информация достоверна, субъективна (объективна). Неполнота информации может привести к ошибочным действиям.

  2. Актуальность – важность, существенность для настоящего времени. Неактуальная информация – устаревшая, преждевременная, ненужная, бесполезная.

  3. Ценность. Оценивается по значимости и полезности задач, которые мы можем решить с её помощью.

  4. Аккумулирование – увеличение информации.

  5. Старение.

  6. Определённость – однозначность информации.

Кодирование информации

Любое общение между людьми происходит за счёт звуков, знаков и т.д. Кодирование – процесс, описывающий отображение знаков одного алфавита в другой набор знаков. Информацию можно выразить разными способами. За основу представления информации принят алфавитный способ. Дискретные сообщения представляют собой конечные или бесконечные последовательности знаков. Эти последовательности разбивают на конечные подпоследовательности, называемые словами. Если алфавит избран, то говорят, что слова строятся над этим алфавитом. Слова не обязаны иметь постоянную длину (например, в азбуке Морзе: А: ∙ −, С: ∙ ∙ ∙.)

Наиболее распространены системы кодирования, в которых слова имеют определённую длину. Принято равномерное кодирование, когда длина слов постоянна(в технике).Говоря о постоянной длине, говорят о n-разрядных кодах. Одна и та же информация может быть представлена над различными алфавитами. Необходимо знать правила, позволяющие знаки одного алфавита ставить в соответствие знакам другого алфавита. Правила, устанавливающие соответствие между знаками различных алфавитов называются правилами кодирования (код). Кодом ещё называется множество образов этого отображения. Наиболее простым алфавитом для кодирования является двоичный алфавит. Чем меньше знаков во вторичном алфавите, тем длиннее то слово, которое используется для кодирования алфавита содержащего как можно больше слов.

Если длина слова n, а количество знаков во вторичном алфавите k, то можно закодировать kn слов.

Наиболее распространённые цели кодирования: экономичность (уменьшение избыточности сообщения, повышение скорости обработки), надёжность (защита от искажений), сохранность, удобство восприятия, удобство физической реализации. Методы кодирования могут быть различными. Информация всегда представляется в некоторой форме – сообщение. Надо различать сообщение и информацию, содержащуюся в нём. Самый простой способ прибегнуть к двоичному кодированию – это построить двоичное дерево.

Пример: надо закодировать цифры 0 1 2…7 двоичным кодом

Каждому знаку первичного алфавита (0..7) можно сопоставить знак вторичного алфавита [0, 1]

0 – 000 7-111

4 – 100

2 способа кодирования:

1) Неравномерное кодирование

Длины кодов могут различаться. Задача оптимизации: построить такую схему кодирования, в которой суммарная длина кода была бы наименьшей. Суммарная длительность будет наименьшей, если тем знакам, которые встречаются чаще присваивать меньшие по длине коды, а если относительная частота больше - коды более длинные. Параллельно с этим должна решаться проблема различимости кодов. Возможны 2 подхода

-использование специальных комбинаций некоторых знаков для разделения знаков и слов

-применение префиксных кодов

По первой схеме (с делителями) делителями кодов, букв или знаков выступают чаще всего 00-делители знаков

000-делители слов

Фано разработал «префиксный код» или код Фано: неравномерный код может быть однозначно декодирован если никакой из кодов не совпадает с началом (префиксом) иного более длинного кода. Т.е. если выбран 110-код, то нельзя использовать 1100, 1101

Параллельно был создан Шенноном код, называется код Шеннона-Фано, учитывает вероятности появления знаков

Пусть имеется алф. А=а1, а2, а3 … а6-символы и известны вероятности появления знаков этого алфавита Рi(i=1…6). Для построения кода Шеннона-Фано надо построить таблицу:

знак

 

Pi

 

Разряды кода

код

 

1

2

3

4

а1

а2

а3

а4

а5

а6

 

0,3

0,2

0,2

0,15

0,1

0,05

 

0

0

0

 

 

00

1

 

 

01

1

1

1

1

 

0

 

 

10

1

1

1

 

0

 

110

1

1

 

0

1110

1

 

1111

 

1. располагаем знаки алфавита в порядке убывания вероятностей

2.будем делить знаки на 2 группы, чтобы суммы вероятностей в каждой из них были примерно равны

2)Блочное кодирование

Возможны варианты кодирования при которых кодовый знак относится к нескольким знакам или буквам первичного алф., называемым блоком. Кодирование блоков еще больше понижает избыточноть.

Пример: берем ядро языка русского (этими словами можно обойтись).

n=16000 слов (А) (рассматриваем слова как элементы алфавита)

Будем рассматривать равномерное двоичное кодирование. Тогда длину кода можно найти из соотношения:

K(A,2)>=log2n/log22= log2n=приблизительно 13,97 приблизительно 14 бит (понадобится такая длина кода)

Каждое слово кодируется комбинацией их 14 нулей и единиц. При средней длине русского слова=5,3 буквы + 1пробел=6,3 буквы = К(r)

Среднее кол-во информации на знак первичного алф. I(A)=K(A,2)/K(r)=14/6,3=приблизительно 2,222 бит а это в свою очередь в 2 с лишним раза меньше, чем при обычном кодировании. Т.о. кодирование слов более выгодно, чем алфавитное кодирование(посимвольно).

Еще более выгодно оказывается блочное кодирование в том случае, когда учитывается вероятность поступления слов.

Если вместо слов брать блоки без смыслового содержания, то средняя информативность знака будет стремиться к . Избыточность будет стремится к 0.

Общая характеристика информационных процессов

В общем виде информационный процесс определяется как совокупность последовательных действий, производимых над информацией для получения какого-либо результата. Информация не существует сама по себе, и она проявляется в информационных процессах.

Информационные процессы всегда протекают в каких-либо системах и могут быть организованными и хаотическими, детерминированными и вероятностными.

Базовые информационные процессы – это процессы, связанные со сбором, передачей и обработкой информации.

  • Сбор информации состоит из процессов целенаправленного поиска и отбора.
  • Поиск осуществляется в результате выполнения процедур целеполагания и использования конкретных критериев и методов поиска. Поиск включает формирование поискового образа и просмотр информации с целью сравнения с примером.

  • Отбор осуществляется на основе анализа оценки свойств информации. Отобранная информация должна сохраняться.

  • Хранение – распространение информации во времени. Оно не возможно без выполнения этапов структурирования, формализации и процессов кодирования и передачи. В настоящее время наилучшим является компьютерный способ хранения информации.

Процессы обработки информации делятся на:

  • Обработка информации по форме (увеличение фотографий, кодирование).
  • Обработка информации по существу: получение новой информации на основании собранной имеющейся (математика).

Если правила преобразования информации формализованы, имеются алгоритмы, то можно использовать автоматическую обработку информации. При автоматической обработке информация обрабатывается без осмысления.

Передача – распространение информации в пространстве для её дальнейшего использования. При передаче имеется источник, носитель, канал связи и приёмник.

  • Содержание не меняется, меняется лишь форма.
  • В математике – вычисление интегралов, производных.

Источник – место, откуда отправляется информация.

Приёмник – кто или что принимает. Например, мы разговариваем, я – источник, вы – приёмник, тогда носитель – звуковые волны, распространяющиеся в пространстве – канал связи.


18.08.2014; 14:13
хиты: 806
рейтинг:0
для добавления комментариев необходимо авторизироваться.
  Copyright © 2013-2016. All Rights Reserved. помощь