ТЕОРИЯ ИНФОРМАЦИИ

ТЕОРИЯ ИНФОРМАЦИИ
ТЕОРИЯ ИНФОРМАЦИИ

-наука о статистич. процессах передачи информации в техн., природных и социальных системах. Осн. понятия Т. <н.- мера кол-ва информации, пропускная способность канала связи, эфф. кодирование сообщений - были введены в 40-х гг. 20 в. К. Шенноном [1 ]. Т. <н. является по существу статистич. теорией связи, или теорией передачи информации, однако общий характер её положений позволяет исследовать также процессы получения, обработки и хранения информации.

Т. и. тесно связана с теорией кодирования, в к-рой рассматриваются общие проблемы установления соответствия между сообщениями и сигналами, представляющими эти сообщения (см. также Кодирование информации), а также с теорией обработки сигналов, в к-рую входит квантование и восстановление квантованных сигналов, а также корреляц. и спектральный анализы сигналов.

Методы Т. и. использовались с разной степенью плодотворности во мн. прикладных областях, включая информатику, языкознание, криптографию, теорию управления, обработку изображений, генетику, психологию, экономику, организацию производства, однако осн. значение они имеют для теории систем связи. Возникновение Т. и. стимулировало также исследования в области теории вероятностей.

Т. и. рассматривает понятие "информации" только с количеств. стороны, безотносительно к её ценности и даже смыслу. При таком подходе страница машинописного текста максимально содержит всегда примерно одинаковое кол-во информации, определяемое только числом знаков и пробелов (т. е. символов) на странице и не зависящее от того, что именно на ней напечатано, включая случай бессмысленного, хаотического набора символов. Для моделирования систем связи такой подход правомерен, поскольку они предназначены для безошибочной передачи по каналу связи информации, представленной любым набором символов. В тех же случаях, когда существен учёт ценности и смысла информации, количеств. подход неприменим. Это обстоятельство налагает существенные ограничения на области возможных приложений Т. и. Неучёт его привёл на ранних этапах развития к переоценке прикладной значи-

Осн. структурная схема системы связи, рассматриваемая в Т. <и., приведена на рис. 1. Информацию в виде сообщений создаёт и с т о ч н и к с о о б щ е н и й. Сообщения представляют собой слова или наборы слов, записанные б у к в а м и нек-рого алфавита. Источниками сообщений могут быть человеческая речь, тексты на любых естеств. или формальных языках, данные систем сбора и обработки информации, а также нек-рые математич. модели -вероятностные процессы, создающие последовательности букв. П е р е д а т ч и к преобразует передаваемое сообщение в сигнал, соответствующий физ. природе к а н а л а с в я з и. Канал связи - это среда для передачи сигнала от передатчика к приёмнику. При прохождении сигнала по каналу на него могут воздействовать п о м е х и, вносящие искажения в значения информац. параметров сигнала. П р и ё м н и к восстанавливает по принятому в общем случае с искажениями сигналу исходное сообщение. Восстановленное сообщение поступает а д р е с а т у - нек-рому лицу или техн. устройству.

5012-51.jpg


Источники сообщений, рассматриваемые в теории информации, имеют статистич. характер, т. е. появление каждого из возможных сообщений (полный набор к-рых предполагается заранее известным) определяется соответствующей априорной вероятностью. Согласно Шеннону [1 ], считается, что чем больше априорная вероятность данного сообщения, тем меньше неопределённости относительно его действительного появления и, следовательно, тем меньше информации оно несёт. Если вероятность появления сообщения-единица, т. е. его появление достоверно, то неопределённости нет и считается, что сообщение не несёт информации.

Для оценки кол-ва информации в сообщении в Т. и, используется логарифмич. мера, введённая Р. Хартли [2], вероятностная интерпретация к-рой была дана в работах Шеннона [1 ]. Если вероятность появления сообщения x есть p(x), причем 0 ( х)<1, то к о л и ч е с т в о и н ф о рм а ц и и I(x), содержащееся в сообщении, определяется ф-лой:

5012-52.jpg

Ф-ла (1) определяет кол-во информации с точностью до основания логарифма, т. е. с точностью до пост. множителя. Как правило, в качестве основания логарифма выбирается число 2и единицей кол-ва информации является б и т, что соответствует используемой в вычислит. технике двоичной системе счисления. При любом основании логарифма I(x)>=0, I(x)=0. при р(х)=5012-53.jpg при p(x)->0 (рис, 2).

Если x1. и х2- сообщения от двух независимых источников с вероятностями появления p(x1 p(x2), то вероятность их совместного появления r(x1,x2)=p(x1).p(x2) а соответствующее кол-во информации

5012-54.jpg

Это аддитивное свойство логарифмич. меры служит основанием для выбора ее в качестве меры кол-ва информации, т. к. соответствует интуитивным представлениям о суммировании кол-ва информации, содержащегося в независимых сообщениях.

5012-55.jpg

Для сообщений x1,..., xn, создаваемых источником с вероятностями p1...,pn, причём 5012-56.jpg Шеннон ввёл ср. меру кол-ва информации усреднением по множеству сообщений

5012-57.jpg

Логарифм здесь, как и в ф-ле (1), обычно берётся по основанию 2, Ф-ция Н, характеризующая информац. свойства источника сообщений, наз. э н т р о п и е й, т. к. по форме она совпадает с энтропией в статистич. физике, характеризующей априорную неопределённость нахождения статистич. системы в состояниях x1...,xn, имеющих вероятности p1 ...,pn. Очевидна прямая аналогия ф-лы (1) для кол-ва информации в сообщении и ф-лы Больцмана для физ. энтропии S:

5012-58.jpg

где k- постоянная Больцмана, W-термодинамическая вероятность. В самой Т. и. и её приложениях эта аналогия с физикой не играет, однако, существенной роли.

Если в ф-ле (2) лишь одна из вероятностей равна единице, а остальные-нули, неопределённости в появлении сообщений нет и Н=0. Если сообщения равновероятны: p1=...=pn=1/n, и неопределённость в том, какое из них появится, максимальна, то H=log n. Это значение энтропии является максимальным и равно в этом случае кол-ву информации, получаемому от каждого отд. сообщения.

Для источника, создающего два сообщения х1 и х2, к-рые можно закодировать в двоичном коде как 0 и 1 соответственно, при вероятностях сообщений p и q=1 -p

5012-59.jpg

График энтропии для этого случая приведён на рис. 3.

5012-60.jpg

Энтропия максимальная, когда априорная неопределённость максимальна, т. е. при p,q =1/2. При этом Н=1 бит, что соответствует одному двоичному символу (букве), используемому в кодах сообщений.

Если источник создаёт четыре сообщения x1, x2, x3, x4, то их можно закодировать в двоичном коде так: 00, 01, 10 и 11. При p1= ... = p4 =1/4 энтропия максимальна, H=2бит, что соответствует двум двоичным символам, используемым для кодирования сообщений. Вообще для источника, создающего n сообщений, макс. значение энтропии H=log2n, что соответствует мин. числу двоичных символов в кодовых словах одинаковой длины, образующих р а в н о м е р н ы е к о д ы и необходимых для кодирования n равновероятных сообщений.

Если сообщения не являются равновероятными, то для экономии ср. времени на их передачу по каналу связи предпочтительно использование н е р а в н о м е р н ы х к од о в, образованных более короткими кодовыми словами для более вероятных сообщений и более длинными - для менее вероятных сообщений. Для n кодовых слов, имеющих l1...,ln символов, средняя длина слова (сообщения) определяется ф-лой

5012-61.jpg

где pi - вероятности появления соответств. слов (сообщений). Энтропия задаёт ниж. границу для L, т. <е. L>=H. Уменьшение L, т. е. приближение L к H и как следствие уменьшение ср. времени передачи сообщений, возможно за счёт применения процедур э ф ф е к т и в н о г о к о д и р о в ан и я. Эффективность кодирования характеризуется величиной h = H/L, а величина m=1-h наз. и з б ы т о ч н ос т ь ю. Эфф, кодирование, обеспечивающее мин. значение избыточности, можно осуществить с помощью кодов Шеннона, Р. Фано, Д, Хаффмена [1,3] (в случае m = 0 код наз. о п т и м а л ь н ы м).

Код Хаффмена строится след. образом. Сообщения (число к-рых конечно) располагаются в таблице в столбец в порядке убывания их вероятностей. Два последних сообщения объединяются в одно с суммарной вероятностью, и далее по тому же правилу строится след. столбец таблицы. Затем в полученном столбце два последних сообщения вновь объединяются в одно с суммарной вероятностью, строится новый столбец таблицы и т. д. Процесс продолжается до тех пор, пока в последнем построенном столбце не останется двух сообщений. Верхнему из них приписывается кодовое слово 0, нижнему - 1. Далее рассматривается предпоследний столбец, в к-ром для объединявшихся сообщений на втором месте кодового слова ставится 0 для верх. сообщения и 1-для нижнего. Если сообщения необъединялись, то они сохраняют кодовые слова предыдущего столбца. Процесс кодирования продолжается до тех пор, пока кодовые слова не будут приписаны всем исходным сообщениям в первом столбце.

Пусть, напр., источник создаёт четыре сообщения x1, х2, х3, х4 свероятностями p1 =1/2, р2=1/4, p34= 1/8. Процесс построения кода Хаффмена для этого случая - объединение сообщений и кодирование - показан в табл. 1 и табл. 2 соответственно. Для построенных кодовых слов сообщений 0, 10, 110, 111 ср. длина слова L= 1/2 · 1 + 1/4 · 2 +1/8 · 3 + 1/8 · 3 = 7/4, что равно значению энтропии для рассматриваемого источника: Н= -l/2 log21/2- l/4 log21/4- l/8 log21/8-- l/8 log21/8 = 7/4. Избыточность кодирования m =0, эффективность h =1, т. е. построенный код - оптимальный. Использование эфф. кодирования, однако, допустимо только при полной гарантии отсутствия ошибок при кодировании и декодировании сообщений, т. <к. в этом случае ошибка в восстановлении одного сообщения может повлечь появление ошибок при восстановлении многих последующих сообщений.

5013-1.jpg

5013-2.jpg


К наиб. важным проблемам Т. и. относится согласование информац. свойств источника сообщений и канала связи. П р о п у с к н а я с п о с о б н о с т ь канала связи С определяется как макс. кол-во информации, к-рое способен передать канал в единицу времени. Единицей измерения пропускной способности канала связи является 1 бит/с.

Пусть источник создаёт сообщения в виде слов, записываемых буквами алфавита Am={ а1 ..., а т}. При вероятностях появления этих букв p1,..., р т на одну букву приходятся в ср. бит информации. О с н о в н а я т е о р е м а Ш е н н о н а д л я к а н а л а с в я з и б е з ш у м а формулируется след. образом.


5013-3.jpg

Пусть источник сообщений характеризуется энтропией H (бит/буква), а канал связи имеет пропускную способность С (бит/с). Тогда можно закодировать сообщения так, чтобы передавать символы по каналу связи со ср. скоростью С/H-e (буква/с), где e - сколь угодно малое число. Передавать буквы со ср. скоростью, превышающей С/H, невозможно. Достижение верх. границы для скорости передачи, указываемой теоремой Шеннона, осуществляется за счёт применения процедур эфф. кодирования.

При передаче сигналов по каналам связи на них возможно действие разл. помех, шумов, к-рые могут привести к искажениям восстанавливаемых сообщений. Пусть, как и ранее, источник сообщений создаёт слова, записываемые буквами алфавита Am = {a1,..., а т} при вероятностях их появления р1..., р т. Пусть далее вследствие действия помех слова, восстанавливаемые приёмником, оказываются записанными валфавите Bn = {b1..., bn}, к-рый, в частности, может совпадать с алфавитом источника, причём вероятности появления букв алфавита В п равны r1,..., rn. Тогда кол-во информации на выходе канала связи относительно его входа, приходящееся на одну передаваемую букву, определяется след. ф-лой:

5013-4.jpg

где р ij(i=l,..., n; j=1,..., m)- вероятности совместного появления букв входного и выходного алфавитов.

Пропускная способность канала связи с шумами С ш определяется как макс. кол-во информации I(В n, А т), к-рое можно передать по каналу связи за 1 с. Максимум находится для всех возможных источников, к-рые могут быть использованы на входе данного канала связи.

Т е о р е м а Ш е н н о н д л я к а н а л а с в я з и с ш у м а м и формулируется след. образом.

Пусть H1- ср. кол-во информации, создаваемое источником в единицу времени, т, е. производительность источника сообщений, измеряемая в бит/с. Пусть далее С ш - пропускная способность канала с шумом, тоже измеряемая в бит/с. Тогда если Н 1 =<С ш, то такой системы кодирования не существует.

Пропускная способность канала с шумом существенно зависит от действующих на сигналы помех. Рассмотрим двоичный симметричный канал, передающий двоичные буквы 0 и 1 с вероятностью правильной передачи e и искажающий их с вероятностью d =1 - e. Пропускная способность такого канала при передаче одной буквы в секунду определяется ф-лой

5013-5.jpg

График зависимости С ш от d приведён на рис. 4. Если e = d = 1/2, т. <е. если вероятность правильной передачи буквы равна вероятности её искажения, то пропускная способность канала с шумом С ш = 0.

Теорема Шеннона для канала с шумом не указывает конкретного способа борьбы с помехами. Простейший способ борьбы с помехами, состоящий в многократном повторении сообщений, неэффективен, т. к. требует больших затрат времени на передачу. Большую эффективность обеспечивает применение кодов, позволяющих обнаруживать и исправлять ошибки передачи. П о м е х оу с т о й ч и в о с т ь кодирования при этом обеспечивается спец, введением избыточности, т, е, введением в сообщение добавочных символов, к-рые используются для обнаружения и исправления ошибок в принятом сообщении. К числу кодов, обнаруживающих и исправляющих ошибки, относятся к о д ы Х э м м и н г а (см. Кодирование информации).

5013-6.jpg


Лит.:1) Шеннон К., Работы по теории информации и кибернетике, пер. с англ., М., 1963; 2} Хартли Р., Передача информации, [пер. с англ.], в сб.: Теория информации и ее приложения, М., 1959; 3) Стратонович Р. Л., Теория информации, М., 1975; 4) Поплавский Р. П., Термодинамика информационных процессов, М., 1981; 5) Николис Д. С., Динамика иерархических систем, пер. с англ., М., 1989. В, И. Капалин.


Физическая энциклопедия. В 5-ти томах. — М.: Советская энциклопедия. . 1988.


.

Игры ⚽ Нужно сделать НИР?

Полезное


Смотреть что такое "ТЕОРИЯ ИНФОРМАЦИИ" в других словарях:

  • теория информации — — [http://www.iks media.ru/glossary/index.html?glossid=2400324] теория информации Или математическая теория связи — раздел кибернетики, исследующий процессы хранения, преобразования и передачи информации; это основная часть… …   Справочник технического переводчика

  • Теория информации — [infor­ma­tion theory], или математическая теория связи раздел кибернетики, исследующий процессы хранения, преобразования и передачи информации; это основная часть кибернетики, поэтому последнюю тоже иногда называют «теорией информации» …   Экономико-математический словарь

  • ТЕОРИЯ ИНФОРМАЦИИ — ТЕОРИЯ ИНФОРМАЦИИ, математическая дисциплина, изучающая законы, которые управляют каналами коммуникации. Главным образом она имеет дело с измерением количества информации, методами ее кодирования, передачи, хранения и обработки. Некоторые понятия …   Научно-технический энциклопедический словарь

  • Теория информации — Пожалуйста, улучшите и дополните этот раздел. Замечания о том, что нужно улучшить, могут быть на странице обсуждения статьи …   Википедия

  • ТЕОРИЯ ИНФОРМАЦИИ — теория, изучающая законы и способы измерения, преобразования, передачи, использования и хранения информации. В Т. и. и ее технич. приложениях центральными являются понятия количества информации и его меры. Эти понятия в известной степени… …   Философская энциклопедия

  • ТЕОРИЯ ИНФОРМАЦИИ — 4.11. ТЕОРИЯ ИНФОРМАЦИИ Отрасль науки, занимающаяся изучением мер информации и их свойств СТ ИСО 2382/16 Источник: РМ 4 239 91: Системы автоматизации. Словарь справочник по терминам. Пособие к СНиП 3.05.07 85 …   Словарь-справочник терминов нормативно-технической документации

  • теория информации — informacijos teorija statusas T sritis automatika atitikmenys: angl. information theory vok. Informationstheorie, f rus. теория информации, f pranc. théorie de l information …   Automatikos terminų žodynas

  • теория информации — informacijos teorija statusas T sritis fizika atitikmenys: angl. information theory vok. Informationstheorie, f rus. теория информации, f pranc. théorie de l’information, f …   Fizikos terminų žodynas

  • теория информации и измерение текста — Теория информации (информатика) ориентирована не на содержательную сторону передачи и хранения информации, а на ее статистическую структуру. Статистическая структура текста понимается как частота появления в сообщении сигнала (символа) (это… …   Словарь лингвистических терминов Т.В. Жеребило

  • ТЕОРИЯ ИНФОРМАЦИИ — в узком смысле математич. теория передачи сообщений в системах связи (телефон, телеграф и т. п.), возникшая на базе основополагающих трудов К. Шеннона (США). Основана на следующих представлениях: сообщения (точнее, их коды) поступают из источника …   Российская социологическая энциклопедия


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»