Информации Теория

80

- раздел прикладной математики и кибернетики, связанный с математич. Описанием и оценкой качества передачи, хранения, извлечения и классификации информации. Термин "И. Т.", возникший в 50-х гг. 20 в., до сих пор (к 1978) не имеет единого общепринятого толкования. В разных источниках по-разному определяется перечень разделов наук, включаемых в И. Т., а при логич. Толковании в И. Т. Надо включать и нек-рые разделы науки, традиционно в нее не включаемые. Важной чертой, объединяющей различные разделы науки, относимые к И. Т., является широкое использование статистич. Методов. Это обусловлено тем, что процесс извлечения информации связывают с уменьшением неопределенности наших сведений об объекте, а естественной числовой мерой неопределенности нек-рого события является его вероятность.

Важнейшая составная часть И. Т. При любых трактовках - теория информации передачи. Часто, особенно в чисто математич. Литературе, термин "И. Т." используют как синоним термина "теория передачи информации". Теория передачи информации изучает оптимальные и близкие к оптимальным методы передачи информации по каналам связи в предположении, что можно в широких пределах варьировать методы кодирования сообщений в сигналы на входе канала связи и декодирование сигналов в сообщения на выходе. Возникновение теории передачи информации связано с именем К. Шеннона (С. Shannon), предложившего в 1948 решение основной проблемы о нахождении скорости передачи информации, к-рую можно достичь при оптимальном методе кодирования и декодирования так, чтобы вероятность ошибки при передаче информации была как угодно мала.

Эта оптимальная скорость передачи, называемая канала пропускной способностью, выражается через введенную К. Шенноном величину, называемую информации количеством. Понятие количества информации представляется весьма важным и находит многочисленные важные приложения и в других разделах И. Т., хотя далеко не все попытки его приложения адекватны существу рассматриваемых проблем. Задачи, связанные с оптимальным способом хранения информации, принципиально не отличаются от задач оптимальной передачи информации, так как хранение информации можно рассматривать как передачу информации, но не в пространстве, а во времени. Основные теоремы теории передачи информации первоначально носили характер теорем существования, в к-рых доказывалось существование оптимальных методов кодирования и декодирования, но не указывались способы их построения и технич.

Реализации этих методов. Поэтому позже получила широкое развитие теория кодирования, посвященная построению конкретных и относительно простых алгоритмов кодирования и декодирования, приближающихся по своим возможностям к оптимальным алгоритмам, существование к-рых доказывалось в теории передачи информации. Теорию кодирования отличает то, что наряду со статистич. Методами она использует для построения конкретных кодов глубокие алгебраические и комбинаторные идеи. Обычно к И. Т. Относят также всю совокупность исследований, посвященных приложениям теории статистич. Методов для описания способов преобразований сигналов на входе и выходе каналов связи. С математич. Точки зрения, это просто нек-рые приложения математич.

Статистики (в первую очередь статистики случайных процессов), теории прогнозирования и фильтрации стационарных случайных процессов, теории игр и пр. Таким образом, этот раздел И. Т. Не имеет специфического математич. Аппарата и в своем развитии все более сближается с другими разделами прикладной теории вероятностей. В И. Т. Часто включают также теорию распознавания образов, разрабатывающую алгоритмы распределения объектов по нек-рым классам объектов, к-рые описаны лишь на интуитивном уровне и не имеют четкого математич. Описания. Такие алгоритмы всегда включают в себя процесс обучения по нек-рому списку заранее классифицированных человеком объектов. Попытка определить границы И. Т., исходя из ее общепринятых определений, и включить в нее все разделы математики, имеющие дело с понятием информации в его общелексической трактовке, привела бы к неоправданной, по крайней мере на современном этапе, расширенной трактовке понятия И.

Т. Так, вся математич. Статистика имеет дело с проблемами извлечения информации, теория алгоритмов - с проблемами переработки информации, теория формальных языков - с проблемами записи информации и т. Д. Понятие информации и его приложения весьма многообразны, и этим можно объяснить то, что в настоящее время (к 1978) комплекс наук об информации представляет собой совокупность довольно разрозненных научных дисциплин, каждая из к-рых связана с изучением одного из аспектов этого понятия. Несмотря на интенсивные усилия ученых процесс сближения этих научных дисциплин идет довольно медленно, и создание единой и всеохватывающей И. Т. Представляется делом не слишком близкого будущего. Лит.:[1] Галлагер Р., Теория информации и надежная связь, пер.

С англ., М., 1974. [2] Колмогоров А. Н., "Пробл. Передачи информ.", 1965, т. 1, № 1, с. 3-11. [3] Xаркевич А. А., Борьба с помехами, 2 изд., М., 1965. [4] Бриллюэн Л., Наука и теория информации, пер. С англ., М., 1960. [5] Черри К., Человек и информация, пер. С англ., М., 1972. [6] Яглом А. М., Яглом И. М., Вероятность и информация, 3 изд., М., 1973. [7] Возенкрафт Дж., Джекобе И., Теоретические основы техники связи, пер. С англ., М., 1969. [8] Левин Б. Р., Теоретические основы статистической радиотехники, 2 изд., М., 1974. Р. Л. Добрушин, В. В. Прелое..

Значения в других словарях
Информации Передача

..

Информации Скорость Передачи

- величина, характеризующая информации количество, к-рая содержится в сигнале на выходе канала связи относительно сигнала на входе канала в расчете на единицу времени. Если - случайные процессы с непрерывным или дискретным временем, являющиеся сигналами на входе и выходе нек-рого канала связи, то И. С. П. Наз. Величину если такой предел существует. Здесь I (Х, Х) - количество информации, - отрезок {t, Т]процесса h, аналогично определяется hTt. Существование предела (*) доказано для достато..

Информационная Матрица

информация по Фишер у,- матрица ковариаций информанта. Для доминированного семейства распределений вероятностей Pt(dw)с плотностями р(w. T), достаточно гладко зависящими от векторного (в частности, числового) параметра элементы И. М. При t= q определяются как где j, k=1, . .., т. При скалярном параметре tИ. М. Описывается единственным числом - дисперсией информанта. И. М. I(q)определяет неотрицательную дифференциальную квадратичную форму снабжающую семейство {Р t} римановой метрикой. Ко..

Информационное Множество

(в теории игр) - известная игроку в данный момент совокупность возможных состояний (позиций) игры, среди к-рых находится ее действительное состояние. И. М. Характеризует знания игрока о прошлых состояниях и выборах как своих (память), так и чужих (информация). Находясь в И. М., игрок должен принять одно решение (выбрать альтернативу И. М., т. Е. По одной альтернативе сразу для всех позиций из И. М.), к-рое лишь конкретизируется как альтернатива позиции при реальном разыгрывании игры. И. Н. Вр..

Дополнительный поиск Информации Теория Информации Теория

Добавить комментарий
Комментарии
Комментариев пока нет

На нашем сайте Вы найдете значение "Информации Теория" в словаре Математическая энциклопедия, подробное описание, примеры использования, словосочетания с выражением Информации Теория, различные варианты толкований, скрытый смысл.

Первая буква "И". Общая длина 17 символа