Личный кабинет

Так что же такое ИНФОРМАЦИЯ?

Термины и определения в ИНФОРМАТИКЕ
Виталий Потопахин ( Пользователь )
Сегодня обещанное определение информации. В качестве первоисточника перед мной лежит книга В.Д. Колесник Г.Ш. Полтырев «Курс теории Информации» Издательство Наука 1982г. Рекомендовано МИнВузом для технических специальностей ВУЗов.

Заметьте в 1982 году рекомендовано в качестве учебника, это означает, что теория устаканилась, стала общеизвестной и общепринятой. И вот через 20 лет методисты пишущие федеральные учебники объявляют информацию странным, неопределяемым объектом.

Начнем с любимого мной учебника Гейна. Вспомним. Информация это то, что находится в камешках и научных трудах. Здесь скрыта смысловая неувязка которая покажет нам дорогу.

Во-первых, то что находится в камешках должно иметь материальную природу, ибо в материальном может содержаться только материальное. Во-вторых, то что содержится в научных трудах (если они не по педагогике) это знания, а никак не информация.

Следовательно, говорить, что информация там содержится было бы смысловой ошибкой. Но эту смысловую ошибку допускаю сейчас я. Гейн этого термина не использует. Он говорит, что информацию можно получать изучая камешки и труды. А вот это уже очень полезная мысль. Из неё следует по моему, что говоря о информации, мы прежде всего должны иметь ввиду некий процесс, в котором есть наблюдаемый объект, и наблюдатель. В ходе процесса происходит обмен. Чем ? Нет не информацией, а сообщениями.

Информация же в сообщениях не содержится, а то мы опять начнем искать загадочную субстанцию. Информация является количественной характеристикой сообщения. Вот это мы можем принять в качестве рабочего определения.

Далее, необходимо выяснить, что такое сообщение. В отношении количественной характеристики всегда следует ответить на вопросы: что есть единица измерения и какова процедура, хотя бы математическая если не техническая.

И вот тут впервые вводится по настоящему базовое, неопределяемое понятие: дискретный источник. Я бы его не определял, но определение ему есть. «Под дискретным источником понимают некоторое устройство, которое в каждую единицу времени выбирает одно из сообщений дискретного множества Х»

Вот здесь небольшое философское отступление. Сейчас может возникнуть ощущение, что нас загоняют в очень узкую область именуемую теорией связи. У меня на это есть два аргумента:

Во-первых, если мы вообще желаем оставаться в рамках научного метода, а не шаманско-бытового на котором сейчас находится школьная информатика, то мы вынуждены построить некоторую модель и находится в её рамках. Так делают все серьёзные науки, и именно по этому эти науки добиваются реального, хотя и ограниченного результата. Шаманско-бытовой подход имеет вселенский охват и нулевую содержательность.

Во-вторых, «некоторое устройство» не означает ничего конкретного кроме того, что оно способно выбирать сообщения из заданного множества. Такое устройство мы сможем смоделировать и для камешка и для научного труда. Но в качестве вознаграждения мы получаем доступ к точной науке.

Кстати где-то видел подход к определению информации основанный на том, что выше, только с существенной ошибкой. Сразу её предупредим.

Ошибка. Поделим понятие сообщения на два вида: элементарное (например единичный сигнал) и сложное, то есть представляющее собой последовательность элементарных. Тогда легко определить меру для информации. Положим, что элементарные события равнозначны. Это логично. Если например, их два (1, 0) то нет никаких оснований считать, что одно из них несет в себе больше чем другое. Тогда единица информации это информация содержащаяся в элементарном сообщении. Тогда количество информации в сообщении равно количеству элементарных сообщений (будем называть их далее сигналами)

Ошибка здесь следующая. Предполагается, что суммирование сообщений (объединение их в последовательность) приводит к суммированию информации. А вот это не факт. Простой пример.

У нас 1000 яблок
Из них 1000 гнилых

Второе без первого имеет мало информативно. Второе после первого дает нам исчерпывающую информацию. Если первое заменить на «У нас 100000000 яблок» то ситуация меняется и второе становится малоинформативным.

Правда это смысловой пример. Он ничего не доказывает, а только иллюстрирует. Но почему информацию нельзя суммировать мы рассмотрим чуть позже. А сейчас прошу прощения я немного прервусь. Надо заняться другими делами.
Артемий Шмелёв ( Пользователь )
(Потопахин Виталий @ 27.03.2008, 06:41) <{POST_SNAPBACK}>
...Информация является количественной характеристикой сообщения. Вот это мы можем принять в качестве рабочего определения....

...И вот тут впервые вводится по настоящему базовое, неопределяемое понятие: дискретный источник. Я бы его не определял, но определение ему есть. «Под дискретным источником понимают некоторое устройство, которое в каждую единицу времени выбирает одно из сообщений дискретного множества Х»...


Во первых, "количественная характеристика сообщения" и "информация" - совершенно разные понятия.

Во вторых, почему дискретный?

В третьих, определение информации (на уровне понятия) очень точно дал Шэннон: Информация это то, что снижает неопределенность (энтропию). Очень хорошую словарную статью по теме можно найти здесь
Виталий Потопахин ( Пользователь )
(ArtSh @ 27.03.2008, 17:59) <{POST_SNAPBACK}>
Во первых, "количественная характеристика сообщения" и "информация" - совершенно разные понятия.

Во вторых, почему дискретный?

В третьих, определение информации (на уровне понятия) очень точно дал Шэннон: Информация это то, что снижает неопределенность (энтропию). Очень хорошую словарную статью по теме можно найти здесь


Сейчас коротко. В рамках той модели которую я излагаю, а я повторюсь речь идет о точной, развитой теории, информация это количественная характеристика. Поэтому ваше утверждение о различии может иметь место только в том случае если вы действуете в другой модели. Там же это по определению, с коим можно не согласится только не согласившись со всей теорией.

Шеннон никак не противоречит тому что я уже успел изложить. Информация понятие противоположное энтропии, но в излагаемой теории это не основа, а логическое следствие. ВЫ я уверен, знаете, что в математике иногда можно менять причины и следствия местами. Если следствие взять за основу, то бывшая причина в такой обратимой теории должна стать следствием. Это один из способов проверки непротиворечивости теории.

Что же касается самой информации, то подход к ней как качественной сущности так же имеет место, например в синергетике, но это наука не устоявшаяся, еще даже не определившая свою систему понятий, а мы люди из образования должны все же руководствоваться тем, что общепринято и много кратно просчитано.

Вообще-то словари не то место которое я бы брал в качестве источника точной информации.
Андрей Гнедов ( Пользователь )
(ArtSh @ 27.03.2008, 17:59) <{POST_SNAPBACK}>
В третьих, определение информации (на уровне понятия) очень точно дал Шэннон: Информация это то, что снижает неопределенность (энтропию). Очень хорошую словарную статью по теме можно найти здесь

Давать определение понятия "информация", опираясь на понятие "Энтропия", конечно, можно. У Угриновича этот подход тоже рассмотрен как один из подходов при измерении количества информации. Но для школьников понятие "энтропия" - тайна за семью печатями. Так что такое определение носит чисто формальный характер, при этом для школьника оно больше разъясняет понятие "Энтропия", чем "Информация".
Виталий Потопахин ( Пользователь )
(ArtSh @ 27.03.2008, 17:59) <{POST_SNAPBACK}>
Во вторых, почему дискретный?


Почему дискретный.

Источник занимается тем, что генерирует сообщения. Сообщения состоят из сигналов.
Сигнал это такая штука без внутренней структуры. Множество объектов без структуры
очевидно называется дискретным, и источник соответственно также дискретный.
По большому счету проблема не в том почему он дискретный, а насколько его дискретность
полезна для развития теории. Или иначе говоря чему в природе это может соответствовать.
Только два примера:

1) Человеки обмениваются сообщениями в виде предложений. Звуковое предложение состоит
из звуков, письменное из символов. И звуки и символы есть дискретные сигналы. Таким образом
человек - дискретный источник.

2) Две заряженных частицы участвуя в электромагнитном взаимодействии обмениваются фотоном
- квантом электромагнитного поля. Таким образом любую заряженную частицу можно рассматривать
как дискретный источник.

Второй пример показывает фундаментальность основ теории связи.

А теперь вопрос. Чему может соответствовать непрерывный источник, если любое взаимодействие
в квантовано, а само понятие непрерывности не более чем математическая абстракция.
Михаил Кушнир ( Пользователь )
(Потопахин Виталий @ 27.03.2008, 04:41) <{POST_SNAPBACK}>
Информация является количественной характеристикой сообщения. Вот это мы можем принять в качестве рабочего определения.

Далее, необходимо выяснить, что такое сообщение. В отношении количественной характеристики всегда следует ответить на вопросы: что есть единица измерения и какова процедура, хотя бы математическая если не техническая.

И вот тут впервые вводится по настоящему базовое, неопределяемое понятие: дискретный источник. Я бы его не определял, но определение ему есть. «Под дискретным источником понимают некоторое устройство, которое в каждую единицу времени выбирает одно из сообщений дискретного множества Х»

Вот здесь небольшое философское отступление. Сейчас может возникнуть ощущение, что нас загоняют в очень узкую область именуемую теорией связи.

Выделено мной. Если так путанно излагает обычно педантичный Потопахин ... smile.gif
И не нравится мне определение информации как количественной характеристики. Что такое тогда "количество информации"?
У Шеннона тоже не подарок - антипод хаоса, но не порядок - но выглядит более вменяемо, хотя бы терминологически
==
Я вижу информацию в треугольнике: процесс - характеристики - измерение.
Информация - результат измерения
Количество информации - диапазон вариантов измерения (математически эквивалентно вероятности).

Такой подход позволяет легко "на пальцах" объяснить это почти в любом возрасте и не противоречит умным математическим теориям. Рискну предложить свой вариант методического материала на эту тему. Буду благодарен за критику более осведомленных коллег.
Виталий Потопахин ( Пользователь )
(МЭК @ 28.03.2008, 10:56) <{POST_SNAPBACK}>
Если так путанно излагает обычно педантичный Потопахин ... smile.gif


Я же еще ничего не изложил. Это не путанно, это просто с подходами, реверансами и упреждающими наскоками на возможных критиков. Уж больно важне понятие. В конце эпопеи я все подытожу и вы убедитесь, что все очень коротко, как и полагается в математике. Кстати ваше представление о количестве информации как некотором диапазоне вариантов очень близко к четкому пониманию.

Теперь о информации и количестве информации. Здесь по моему простой лингвистический фокус. Возьмите для примера массу. Существуют такие фразы как масса тела N кг. Фразы такого типа означают, что масса количественная категория. Однако мы знаем, что масса это качество материи. Тоесть философская категория количества не бывает в чистом виде. Количество нельзя отделить от качества и качество вполне можно измерять. И вот чтобы не путаться в терминологии люди поступают очень просто они используют один и тот же термин в двух ипостасях, и как некую качественную сущность и как количество. Так поступают сплош и рядом. И только с информацией это вызывает проблемы. А почему? Информацию можно рассматривать как некоторое качество. В чем оно заключается это качество? А в том, что оно является количественной характеристикой сообщений. Если это кому не нравится, то придется придумать два термина один для качественной сущности и один для измерения этого качества. Мне это лично не нравится. Впрочем словоблудие заканчиваю и возвращаюсь к математике
Артемий Шмелёв ( Пользователь )
(Потопахин Виталий @ 28.03.2008, 03:16) <{POST_SNAPBACK}>
Сейчас коротко. В рамках той модели которую я излагаю, а я повторюсь речь идет о точной, развитой теории, информация это количественная характеристика. Поэтому ваше утверждение о различии может иметь место только в том случае если вы действуете в другой модели. Там же это по определению, с коим можно не согласится только не согласившись со всей теорией.

Шеннон никак не противоречит тому что я уже успел изложить. Информация понятие противоположное энтропии, но в излагаемой теории это не основа, а логическое следствие. ВЫ я уверен, знаете, что в математике иногда можно менять причины и следствия местами. Если следствие взять за основу, то бывшая причина в такой обратимой теории должна стать следствием. Это один из способов проверки непротиворечивости теории.

Вообще-то словари не то место которое я бы брал в качестве источника точной информации.


Раз Вы говорите о развитой теории, скажите её устоявшееся название, чтобы мы все могли говорить на одном языке.

Почему? У Шеннона понятие информации сформулировано максимально общим образом, именно как базовое, аксиоматическое понятие. Вы же это понятие трактуете в каком-то учень узком смысле какой-то теории. (Обратите внимание, что слово "энтропия" стоит в скобках, употребление этого слова не обязательно, но упрощает количественные оценки информации)

Вы можете брать или не брать, но словарь от этого не перестанет быть авторитетным источником информации.
Артемий Шмелёв ( Пользователь )
(А.А.Гнедов @ 28.03.2008, 10:13) <{POST_SNAPBACK}>
Давать определение понятия "информация", опираясь на понятие "Энтропия", конечно, можно. У Угриновича этот подход тоже рассмотрен как один из подходов при измерении количества информации. Но для школьников понятие "энтропия" - тайна за семью печатями. Так что такое определение носит чисто формальный характер, при этом для школьника оно больше разъясняет понятие "Энтропия", чем "Информация".


Слово "энтропия" стоит в скобках, и это не спроста. Думаю, школьник легко сможет понять что такое "неопределённость".
Артемий Шмелёв ( Пользователь )
(Потопахин Виталий @ 28.03.2008, 12:46) <{POST_SNAPBACK}>
Источник занимается тем, что генерирует сообщения. Сообщения состоят из сигналов.
Сигнал это такая штука без внутренней структуры. Множество объектов без структуры
очевидно называется дискретным, и источник соответственно также дискретный.
По большому счету проблема не в том почему он дискретный, а насколько его дискретность
полезна для развития теории. Или иначе говоря чему в природе это может соответствовать.
Только два примера:


Множество сигналов может быть является дискретным (и то не факт), но заключение, что множество объектов без структуры называется дискретным - неверно. Пример: множество рацональных чисел, множество точек в Евклидовом пространстве и т.п.

(Потопахин Виталий @ 28.03.2008, 12:46) <{POST_SNAPBACK}>
1) Человеки обмениваются сообщениями в виде предложений. Звуковое предложение состоит
из звуков, письменное из символов. И звуки и символы есть дискретные сигналы. Таким образом
человек - дискретный источник.


Звуки и символы являются лишь передатчиком сообщений. Звуки не являются дискретными сигналами (тон и высота изменяются непрерывно). Таким образом Человек - дискретный источник символов но никак не информации или сообщений.

(Потопахин Виталий @ 28.03.2008, 12:46) <{POST_SNAPBACK}>
2) Две заряженных частицы участвуя в электромагнитном взаимодействии обмениваются фотоном
- квантом электромагнитного поля. Таким образом любую заряженную частицу можно рассматривать
как дискретный источник.


Источник чего? Это действительно важно. Если рассматривать просто количество фотонов, то да, это дискретное множество, а если рассматривать энергию, переносимую этими квантами, то нет.

(Потопахин Виталий @ 28.03.2008, 12:46) <{POST_SNAPBACK}>
Второй пример показывает фундаментальность основ теории связи.


Так значит Вы предлагаете использовать определение информации из теории связи для обучения информатике? На мой взгляд это крайне неверный подход. Это всё равно что учить, что ОС это программа для взаимодействия пользователя с компьютером и только, а редактор фотографий - Фотошоп.

(Потопахин Виталий @ 28.03.2008, 12:46) <{POST_SNAPBACK}>
А теперь вопрос. Чему может соответствовать непрерывный источник, если любое взаимодействие
в квантовано, а само понятие непрерывности не более чем математическая абстракция.


Например интегральному детектору энергии, получаемой от АЧТ.

Основная проблема определения "Информация" в том, что применяя определения информации из каких-то специальных областей, мы характеризуем лишь какую-то часть понятия. Например все знают что такое "свет" однако давая определения с точки зрения физики или физиологии мы рассматриваем только какие-то узкие аспекты этого понятия. Аксиоматические, базовые понятия, невозможно "представить" (составить полную, адекватную модель через другие понятия), что не мешает давать вполне точные "представления" в рамках определённых моделей (теорий).

footer logo © Образ–Центр, 2018. 12+