сжатие (информации) без потерь

  • 91Битрейт — (англ. bit rate)  буквально, скорость прохождения битов информации. Битрейт принято использовать при измерении эффективной скорости передачи информации по каналу, то есть скорости передачи «полезной информации» (помимо таковой, по… …

    Википедия

  • 92Видео — (от лат. video  смотрю, вижу)  электронная технология формирования, записи, обработки, передачи, хранения и воспроизведения сигналов изображения, основанная на принципах телевидения, а также аудиовизуальное произведение, записанное …

    Википедия

  • 93VoIP — Содержание 1 Функциональность 2 Мобильные номера …

    Википедия

  • 94Преобразование Барроуза — Эту статью следует викифицировать. Пожалуйста, оформите её согласно правилам оформления статей. Преобразование Барроуза Уилера (Burrows Wheeler transform, BWT, также исторически называется блочно сортирующим сжат …

    Википедия

  • 95Взаимная информация — Взаимная информация  статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. Взаимная информация определяется через энтропию и условную энтропию двух… …

    Википедия

  • 96Собственная информация — дискретных равномерных распределений с двумя, тремя и десятью состояниями. Единица измерения «нат»  горизонтальная зелёная линия, риски слева  логарифмы натуральных чисел …

    Википедия

  • 97Кадровая частота — Кадровая частота  количество сменяемых кадров за единицу времени в телевидении и кинематографе. Общепринятая единица измерения  кадры в секунду. Содержание 1 Кинематограф 1.1 Частоты киносъёмки и кинопроекции …

    Википедия

  • 98Формула Хартли — определяет количество информации, содержащееся в сообщении длины n. Имеется алфавит А, из букв которого составляется сообщение: Количество возможных вариантов разных сообщений: где N  возможное количество различных сообщений, шт; m … …

    Википедия

  • 99Условная взаимная информация — Взаимная информация  статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. Взаимная информация определяется через энтропию и условную энтропию двух случайных …

    Википедия

  • 100Метод главных компонент — (англ. Principal component analysis, PCA)  один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретен К. Пирсоном (англ. Karl Pearson) в 1901 г. Применяется во многих областях,… …

    Википедия