ЭНТРОПИЯ

ЭНТРОПИЯ

- теоретико-информационная мера степени неопределенности случайной величины. Если - дискретная случайная величина, определенная на нек-ром вероятностном пространстве и принимающая значения x1, x2, . . . с распределением вероятностей то Э. определяется формулой

(при этом считается, что 0 log 0=0). Основанием логарифма может служить любое положительное число, но обычно рассматривают логарифмы по основанию 2 или е, что соответствует выбору бит или нат (натуральная единица) в качестве единицы измерения.
Если и - две дискретные случайные величины, принимающие значения х 1, х2, ... и y1, y2, ... с распределениями вероятностей {pk, k=1, 2, . . .} и {qj, j=1, 2, . . .} соответственно, и {pk|j, k=l, 2, . . .} - условное распределение при условии, что j=1, 2, . . ., то (средней) условной Э. величины относительно наз. величина

Пусть - стационарный процесс с дискретным временем и дискретным пространством значений такой, что Тогда Э. (точнее, средней Э. на символ) такого стационарного процесса наз. предел

где - Э. случайной величины Известно, что предел в правой части (3) всегда существует и имеет место равенство

где - условная Э.относительно Э. стационарных процессов находит важные применения в теории динамич. систем.
Если и v - две меры на нек-ром измеримом пространстве причем мера абсолютно непрерывна относительно v и - соответствующая производная Радона - Никодима, то Э. меры относительно меры v наз. интеграл

Частным случаем Э. меры по мере является дифференциальная энтропия.
Из многих возможных обобщений понятия Э. для теории информации одним ил самых важных является следующее. Пусть и - две случайные величины, принимающие значения в нек-рых измеримых пространствах и соответственно. Пусть заданы распределение случайной величины и класс Wдопустимых совместных распределений пары в множестве всех вероятностных мер в произведении Тогда W-энтропией (или Э. при заданном условии сообщений точности воспроизведения W )наз. величина

где - информации количество в относительно а нижняя грань берется по всем парам случайных величин таким, что совместное распределение

пары принадлежит W, а имеет распределение Класс W совместных распределений часто задают с помощью нек-рой неотрицательной измеримой действительнозначной функции - меры искажения следующим образом:


где - нек-рое фиксированное число. В этом случае величину, определяемую равенством (6), где Wзадается (7), называют -энтропией (или скоростью как функцией искажения) и обозначают Напр., если - гауссовский случайный вектор с независимыми компонентами, k=1,2, ..., п, а функция имеет вид


то может быть найдена по формуле
где определяется из уравнения
Если - дискретная случайная величина, пространства и совпадают, а функция имеет вид


то -Э. при равна обычной Э., определяемой в (1), т. е.

Лит.:[1]Шеннон К., Математическая теория связи, в сб.: Работы по теории информации и кибернетике, пер. с англ., М., 196З, с. 243-332; [2] Галл агер Р., Теория информации и надежная связь, пер. с англ., М., 1974; [3] Berger Т., Rate distortion theory, Englewood Cliffs (N. J.), 1971; [4] Биллингeлeй И., Эргодическая теория и информация, пер. с англ., М., 1969.
Р. Л. Добрушин, В. В. Прелов.


Математическая энциклопедия. — М.: Советская энциклопедия. . 1977—1985.

Игры ⚽ Нужно сделать НИР?
Синонимы:

Полезное


Смотреть что такое "ЭНТРОПИЯ" в других словарях:

  • ЭНТРОПИЯ — (от греч. entropia поворот, превращение), понятие, впервые введённое в термодинамике для определения меры необратимого рассеяния энергии. Э. широко применяется и в др. областях науки: в статистической физике как мера вероятности осуществления к.… …   Физическая энциклопедия

  • ЭНТРОПИЯ — ЭНТРОПИЯ, показатель случайности или неупорядоченности строения физической системы. В ТЕРМОДИНАМИКЕ энтропия выражает количество тепловой энергии, пригодной для совершения работы: чем энергии меньше, тем выше энтропия. В масштабах Вселенной… …   Научно-технический энциклопедический словарь

  • Энтропия — мера внутренней неупорядоченности информационной системы. Энтропия увеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении. По английски: Entropy См. также: Информация Финансовый словарь Финам …   Финансовый словарь

  • ЭНТРОПИЯ — [англ. entropy < гр. en в, внутрь + trope поворот, превращение] 1) физ. величина, характеризующая состояние системы материальных тел и определяющая направление самостоятельных изменений в отдельной термодинамической системе (закон роста э.); 2)… …   Словарь иностранных слов русского языка

  • Энтропия —  Энтропия  ♦ Entropie    Свойство состояния изолированной (или принимаемой за таковую) физической системы, характеризуемое количеством самопроизвольного изменения, на которое она способна. Энтропия системы достигает максимума, когда она полностью …   Философский словарь Спонвиля

  • ЭНТРОПИЯ — (от греч. entropia поворот превращение) (обычно обозначается S), функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к… …   Большой Энциклопедический словарь

  • ЭНТРОПИЯ — (от греч. entropia – поворот, превращение) часть внутренней энергии замкнутой системы или энергетической совокупности Вселенной, которая не может быть использована, в частности не может перейти или быть преобразована в механическую работу. Точное …   Философская энциклопедия

  • энтропия — беспорядок, разлад Словарь русских синонимов. энтропия сущ., кол во синонимов: 2 • беспорядок (127) • …   Словарь синонимов

  • ЭНТРОПИЯ — (от греч. en в, внутрь и trope поворот, превращение), величина, характеризующая меру связанной энергии (D S), которая в изотермическом процессе не может быть превращена в работу. Она определяется логарифмом термодинамической вероятности и… …   Экологический словарь

  • энтропия — и, ж. entropie f., нем. Entropie <гр. en в, внутрь + trope поворот, превращение. 1. Физическая величина, характеризующая тепловое состояние тела или системы тел и возможные изменения этих состояний. Вычисление энтропии. БАС 1. ||… …   Исторический словарь галлицизмов русского языка

  • ЭНТРОПИЯ — ЭНТРОПИЯ, понятие, вводимое в термодинамике и являющееся как бы мерой необратимости процесса, мерой перехода энергии в такую форму, из к рой она не может самопроизвольно перейти в другие формы. Все мыслимые процессы, протекающие в любой системе,… …   Большая медицинская энциклопедия


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»