- Метод максимального правдоподобия
-
Ме́тод максима́льного правдоподо́бия или метод наибольшего правдоподобия (ММП, ML, MLE — Maximum Likelihood Estimation) в математической статистике — это метод оценивания неизвестного параметра путём максимизации функции правдоподобия[1]. Основан на предположении о том, что вся информация о статистической выборке содержится в функции правдоподобия. Метод максимального правдоподобия был проанализирован, рекомендован и значительно популяризирован Р. Фишером между 1912 и 1922 годами (хотя ранее он был использован Гауссом, Лапласом и другими).
Оценка максимального правдоподобия является популярным статистическим методом, который используется для создания статистической модели на основе данных, и обеспечения оценки параметров модели.
Метод максимального правдоподобия соответствует многим известным методам оценки в области статистики. Например, предположим, что вы заинтересованы ростом жителей Украины. Предположим, у вас данные роста некоторого количества людей, а не всего населения. Кроме того предполагается, что рост является нормально распределенной величиной с неизвестной дисперсией и средним значением. Среднее значение и дисперсия роста выборки является максимально правдоподобным к среднему значению и дисперсии всего населения.
Для фиксированного набора данных и базовой вероятностной модели, используя метод максимального правдоподобия, мы получим значения параметров модели, которые делают данные «более близкими» к реальным. Оценка максимального правдоподобия дает уникальный и простой способ определить решения в случае нормального распределения.
Метод оценки максимального правдоподобия применяется для широкого круга статистических моделей, в том числе:
-
- линейные модели и обобщенные линейные модели;
- факторный анализ;
- моделирования структурных уравнений;
- многие ситуации, в рамках проверки гипотезы и доверительного интервала формирования;
- дискретные модели выбора.
Содержание
Сущность метода
Пусть есть выборка
из распределения
, где
— неизвестные параметры. Пусть
— функция правдоподобия, где
. Точечная оценканазывается оце́нкой максима́льного правдоподо́бия параметра
. Таким образом оценка максимального правдоподобия — это такая оценка, которая максимизирует функцию правдоподобия при фиксированной реализации выборки.Часто вместо функции правдоподобия
используют логарифмическую функцию правдоподобия
. Так как функция
монотонно возрастает на всей области определения, максимум любой функции
является максимумом функции
, и наоборот. Таким образом
,
Если функция правдоподобия дифференцируема, то необходимое условие экстремума - равенство нулю ее градиента:
Достаточное условие экстремума может быть сформулировано как отрицательная определенность гессиана - матрицы вторых производных:
Важное значение для оценки свойств оценок метода максимального правдоподобия играет так называемая информационная матрица, равная по определению:
![I(\theta)=E[g(\theta)g(\theta)^T)]](299d4b6d1286c075e3055e519ca65f4c.png)
В оптимальной точке информационная матрица совпадает с математическим ожиданием гессиана, взятым со знаком минус:

Свойства
- Оценки максимального правдоподобия, вообще говоря, могут быть смещёнными (см. примеры), но являются состоятельными, асимптотически эффективными и асимптотически нормальными оценками. Асимптотическая нормальность означает, что
где
- асимптотическая информационная матрицаАсимптотическая эффективность означает, что асимптотическая ковариационная матрица
является нижней границей для всех состоятельных асимптотически нормальных оценок.- Если
— оценка метода максимального правдоподобия, параметров
, то
является оценкой максимального правдоподобия для
, где g-непрерывная функция (функциональная инвариантность). Таким образом, законы распределения данных можно параметризовать различным образом.
Примеры
- Пусть
— независимая выборка из непрерывного равномерного распределения на отрезке
, где
— неизвестный параметр. Тогда функция правдоподобия имеет вид
Последнее равенство может быть переписано в виде:
где
, откуда видно, что своего максимума функция правдоподобия достигает в точке
. Таким образом
.
- Пусть
— независимая выборка из нормального распределения с неизвестными средним и дисперсией. Построим оценку максимального правдоподобия
для неизвестного вектора параметров
. Логарифмическая функция правдоподобия принимает вид
.
Чтобы найти её максимум, приравняем к нулю частные производные:
откуда
Условный метод максимального правдоподобия
Условный метод максимального правдоподобия (Conditional ML) используется в регрессионных моделях. Суть метода заключается в том, что используется не полное совместное распределение всех переменных (зависимой и регрессоров), а только условное распределение зависимой переменной по факторам, то есть фактически распределение случайных ошибок регрессионной модели. Полная функция правдоподобия есть произведение «условной функции правдоподобия» и плотности распределения факторов. Условный ММП эквивалентен полному варианту ММП в том случае, когда распределение факторов никак не зависит от оцениваемых параметров. Это условие часто нарушается в моделях временных рядов, например в авторегрессионной модели. В данном случае, регрессорами являются прошлые значения зависимой переменной, а значит их значения также подчиняются той же AR-модели, то есть распределение регрессоров зависит от оцениваемых параметров. В таких случаях результаты применения условного и полного метода максимального правдоподобия будут различаться.
См. также
- Метод моментов
- Обобщенный метод моментов
- Метод наименьших квадратов
- Метод инструментальных переменных
Примечания
Литература
- Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс. — М.: Дело, 2007. — 504 с. — ISBN 978-5-7749-0473-0

Для улучшения этой статьи желательно?: - Найти и оформить в виде сносок ссылки на авторитетные источники, подтверждающие написанное.
- Добавить иллюстрации.
Категории:- Математическая статистика
- Эконометрика
- Факторный анализ
-
Wikimedia Foundation. 2010.




![f(\mathbf{x} \mid \theta ) =
\begin{cases}
\frac{1}{\theta^n}, & \mathbf{x} \in [0,\theta]^n \subset \mathbb{R}^n \\
0, & \mathbf{x} \not\in [0,\theta]^n
\end{cases}
.](4d5308f8c984e806c05506c879989aa7.png)

![\left\{
\begin{matrix}
\displaystyle \frac{\partial}{\partial \mu} L(\mathbf{x} \mid \mu, \sigma^2 ) = 0 \\[10pt]
\displaystyle \frac{\partial}{\partial \sigma^2} L(\mathbf{x} \mid \mu, \sigma^2 ) = 0 \\
\end{matrix}
\right. \Rightarrow
\left\{
\begin{matrix}
\displaystyle \frac{ \sum\limits_{i=1}^n X_i - n \mu}{\sigma^2} = 0 \\[10pt]
\displaystyle -\frac{n}{2 \sigma^2} +\frac{\sum\limits_{i=1}^n (X_i - \mu)^2}{2 \left(\sigma^2\right)^2} = 0 \\
\end{matrix}
\right.,](0bfa0ebb3c27128d3893d428ff8851af.png)
—
—