Энтропия языка

Энтропия языка

Энтропия языка — статистическая функция текста на определённом языке, либо самого языка, определяющая количество информации на единицу текста.

С математической точки зрения энтропия языка определяется как

r = H \left( M \right) / N

где M — сообщение, H \left( M \right) — его энтропия, N — длина сообщения.

Согласно Клоду Шеннону и Томасу Каверу (англ. Thomas Cover), для английского языка эта величина составлят от 1,3 до 2,3 бит на букву.

Литература


Wikimedia Foundation. 2010.

Игры ⚽ Нужна курсовая?

Полезное


Смотреть что такое "Энтропия языка" в других словарях:

  • Абсолютная энтропия языка — Абсолютная энтропия языка  величина, равная максимуму информации, которую можно передать единицей данного языка. В теории информации обычно под единицей языка понимают одну символ (букву) соответствующего алфавита, а абсолютная энтропия… …   Википедия

  • Энтропия (значения) — Энтропия: В Викисловаре есть статья «энтропия» Энтропия  мера необратимого рассеивания энергии, мера отклонения …   Википедия

  • Энтропия (теория информации) — Энтропия (информационная)  мера хаотичности информации, неопределённость появления какого либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Например, в… …   Википедия

  • Энтропия — (от греч. entropía поворот, превращение)         понятие, впервые введенное в термодинамике (См. Термодинамика) для определения меры необратимого рассеяния энергии. Э. широко применяется и в других областях науки: в статистической физике (См.… …   Большая советская энциклопедия

  • Избыточность языка — Избыточность языка  статистическая величина, обозначающая избыточность информации, содержащейся в тексте на определённом языке. Содержание 1 Математическое определение 2 …   Википедия

  • Информационная энтропия — Информационная энтропия  мера неопределённости или непредсказуемости информации, неопределённость появления какого либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ… …   Википедия

  • Условная энтропия — Энтропия (информационная)  мера хаотичности информации, неопределённость появления какого либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Например, в… …   Википедия

  • Естественный язык — …   Википедия

  • Стилостатистический метод анализа текста — – это применение инструментария математической статистики в области стилистики для определения типов функционирования языка в речи, закономерностей функционирования языка в разных сферах общения, типах текстов, специфики функц. стилей и… …   Стилистический энциклопедический словарь русского языка

  • ИНФОРМАЦИИ ТЕОРИЯ — раздел математики, исследующий процессы хранения, преобразования и передачи информации. В основе его лежит определенный способ измерения количества информации. Возникшая из задач теории связи, теория информации иногда рассматривается как… …   Энциклопедия Кольера


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»