Современные информационные технологии позволяют включать в состав документа мультимедийные объекты (графику, звук, анимацию, видео). Умение работать с информацией, представленной во всех этих формах, становится также социально значимым явлением в нашем обществе.
Использование компьютерных сетей позволяет максимально быстро доставить информацию широкому кругу потребителей.
Судя по высказываниям ученых, определения информатики не ведут к обозначению предмета исследования. Да и подмена информации ее количественной характеристикой начинается с первых страниц любых учебников. Школьники и студенты читают в учебниках определение информации, как “отражение предметного мира с помощью знаков и сигналов”. Намного ли и в какую именно сторону отличается ее полное “научное не определение” от школьного?
Передача и обработка “информационных сигналов” предусматривается всеми, а вот что именно “информационное” содержится в этих сигналах, остается неразрешимым вопросом, если, конечно, не удовлетвориться дежурным утверждением о том, что в них содержатся “сведения”.
Тут возникает вопрос, можно ли, опираясь на него точно определить количество информации? И далее, после справедливого утверждения о том, что это невозможно при данном определении, напрашивается вывод, что в зависимости от многих причин каждый из нас воспримет ее больше или меньше, приводят несколько известных вариантов алгоритмов определения этого самого количества информации.
Спрашивается, количество чего мы должны определять: “отражения”, “сведений” или “свойств”? Большинство же авторов стараются вообще не обращать внимания на отсутствие определения информации. Все это не так безобидно, как представляется на первый взгляд. Пустота заполняется текстами учебников, рекомендованных Министерством общего и профессионального образования РФ, об информационном поле: “…у материи остается лишь одно свойство - обладать изменяющейся структурой, т.е. существовать в пространстве и времени в форме универсального поля, которое мы будем именовать информационным полем”. Тут же появляется желание обратиться к азам диалектического материализма, так как идея информационного поля суть “материализованная диалектика”.
Похоже, все, что не имеет определения, можно называть полем - мысленным, чувственным, информационно-логическим и каким угодно.
Можно ли поверить в то, что измеряемая величина не имеет никакого вразумительного собственного определения? Этому поверить нельзя, ибо сегодня каждый школьник знает, что для того чтобы что-то измерить, надо иметь не только меру, но и сущность, феномен, явление, именованную шкалу, к которым эта мера прикладывается.
Любое свойство, даже самое “основное”, должно иметь сравнительное определение, имя в некоторой классификации свойств, без которого свойством не является. К информации же, как свойству, такое требование по какой-то причине не применяется.
Разработчики статистической теории количества информации всё сделали правильно, но только не для информации, а для некоторого, не нуждающегося в терминологическом определении, количества, при условии, что сообщения подчиняются статистическим закономерностям. Таким образом, научное общество вынуждено искать замену такого подхода с момента формирования понятия информатики.
В этом смысле информатика, как наука, мужественно борется за свое место под солнцем, не сдаваясь computer science, и ожидает свой предмет исследования.
Классическая количественная теория информации состоит из двух частей:
· теории преобразования сообщений и сигналов, основную долю в которой составляют вопросы кодирования и декодирования;
· теории передачи сообщений и сигналов без шумов и с шумами (с помехами) в канале связи.
Ее основным утверждением, влияющим на понимание смысла термина “информация” является утверждение: носителем сообщения или информации является сигнал.
Этой “информации” придаются количественная и качественная мера. То есть, вводится количество информации и, по возможности, количество семантики (вопрос о возможности существования собственного смысла сообщения без его интерпретации в передатчике и приемнике обычно не задается) в информационной посылке.
Таким образом, сохраняются “сигнальные” предпосылки: характеристики сигнала, на котором отражается (переносится) сообщение, и есть предмет изучения информации.
В этом-то случае и получается, что собственно информацию определять не надо никак. Информация - просто “универсальное свойство” всего существующего в материальном мире, представимое через сигнал. После этого, конечно, можно утверждать, что, в зависимости от конкретного вида сигналов и их сочетаний, количество информации в них может быть больше или меньше.
Теория информации определяет, что если сообщение не снимает неопределенности, то оно не содержит информации, и наоборот если сообщение позволяет более определенно задать предмет, то в сообщении содержится информация.
Например, сообщение о том, что “Лев Николаевич Толстой написал роман «Война и мир», в котором описал события Отечественной войны 1812 года” для человека, знающего литературу, не содержит информацию, так как не несет ничего нового, но для школьников может обладать элементом новизны и тогда является информативным.
Степень неопределенности сообщения стали измерять величиной, получившей название энтропия, которая является функцией вероятности. Если вероятность равна 1, то энтропия равна нулю, а если вероятность равна 0, то энтропия равна бесконечности.
Количество информации, полученное как разность между начальной энтропией (до получения сообщения) и конечной энтропией (после получения сообщения), называется негэнтропией (отрицательной энтропией). Поэтому информацию иногда называют отрицательной энтропией. Соответственно у информации и у энтропии одна единица измерения – бит.
Такое понимание информации может привести к серьезным заблуждениям. Так, для школьного инспектора сообщение школьника о Л.Н.Толстом и его романе «Война и мир» не менее, а может быть и более (попробуйте подсчитать!) информативно, чем для самого школьника, ибо школьник, как и инспектор, уже информированы, но последнему это позволяет оценить не только знания отдельного ученика, но и уровень преподавания литературы.
После энтропийно-негэнтропийного подхода к информации некоторое распространение получил подход комбинаторный, когда количество информации определяется как функция числа элементов конечного множества в их комбинаторных отношениях. Можно встретить пример, когда мерой количества информации, содержащейся в некотором объекте А, относительно объекта В, берется минимальная “длина программы”, на основе которой можно однозначно преобразовать объект А в объект В. Это отголосок Колмогоровского предложения определения сложности системы по ее “программному” описанию.
К реальной жизни эти утверждения привязать довольно трудно, поэтому в другом варианте информация – это отражение разнообразия, то есть воспроизведение разнообразия одного объекта в другом объекте в результате их взаимодействия.
В такой концепции бит также является единицей измерения информации, которую получает приемник информации, осуществляя выбор из двух равновероятных возможностей разнообразия. Если же объекты не различаются, то их совокупность не содержит информации.
Например, в урне обнаружено два шара, из которых один белый, а второй черный. Оба вместе они несут в себе разнообразие - информацию - в один бит. Совокупность двух шаров одного цвета предлагается считать не содержащей информации. Основоположником концепции разнообразия является английский нейрофизиолог У.Р.Эшби. По его утверждению “информация не может передаваться в большем количестве, чем позволяет количество разнообразия”.
Такой подход не очень сильно отличается от примера с утверждениями о романе «Война и мир». Информацию нельзя отождествлять с различием. Считается, что различие, разнообразие суть объективная основа существования информации, если уж считать ее свойством всех материальных объектов, хотя кто возьмется утверждать, что однообразие не является свойством материи, сигналом или сообщением?
Можно предложить такое определение информации:
Информация - свойство материи и передается физическим сигналом, распространяющимся с помощью физического носителя, а ее количество может быть определено множеством подходов, в зависимости от конкретной задачи.
Качественная же сторона вообще не раскрыта в теории информации, здесь нет никакой ясности ситуации. В “модельно-математическом ключе” ставится задача нахождения “количества смысла”, “количества семантики”. Обратим внимание на то, что далеко не каждое свойство имеет осмысленное количественное выражение. Известные в математике “качественные шкалы” совсем не обязательно имеют метрику, т.е. некоторый способ сравнения “количеств” этого качества.
Теория же информации является самодостаточной, для того, чтобы мы вполне могли обходиться без “информатики”, а “собственные теории”, принадлежащие информатике как науке пока еще только зарождаются.
В конечном итоге сегодня во всех литературных источниках обычно указываются три общепринятые, почти “классические”, направления развития исследований, связанных со “свойственно-количественным” подходом к понятию информации:
- математический, количественный: разработка математического аппарата, отражающего основные свойства информации [Вот так и пишут в литературе: “свойства информации”, которая сама изначально определена как свойство!] или исследования в области сигнального понимания информации в полном соответствии с областью, приписываемой теории информации;