- НАИМЕНЬШИХ КВАДРАТОВ МЕТОД
- один из методов ошибок теории для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Н. к. м. применяется также для приближенного представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений. Н. к. м. предложен К. Гауссом (С. Gauss, 1794-95) и А. Лежандром (A. Legendre, 1805-06). Строгое обоснование и установление границ содержательной применимости Н. к. м. даны А. А. Марковым и А. Н. Колмогоровым. В простейшем случае линейных связей (см. ниже) и наблюдений, не содержащих систематич. ошибок, а подверженных лишь случайным ошибкам, оценки неизвестных величин, полученные с помощью Н. к. м., являются линейными функциями от наблюденных значений. Эти оценки не имеют систематич. ошибок, т. е. являются несмещенными (см. Несмещенная оценка). Если случайные ошибки наблюдений независимы и подчиняются нормальному распределению, то Н. к. м. дает оценки неизвестных с наименьшей дисперсией, т. е. эти оценки являются эффективными (см. Статистическое оценивание). В этом смысле Н. к. м. является наилучшим среди всех остальных методов, позволяющих находить несмещенные оценки. Однако если распределение случайных ошибок существенно отличается от нормального, то Н. к. м. может и не быть наилучшим.
При обосновании Н. к. м. (по Гауссу) предполагается, что "убыток" от замены точного (неизвестного) значения нек-рой величины
ее приближенным значением X, вычисленным по результатам наблюдений, пропорционален квадрату ошибки
оптимальной оценкой считается такая лишенная систематич. ошибки величина X, для к-рой среднее значение
"убытка" минимально. Именно это требование и составляет основу Н. к. м. В общем случае отыскание оптимальной в смысле Н. к. м. оценки X - задача весьма сложная, поэтому практически эту задачу сужают и в качестве Xвыбирают линейную функцию от результатов наблюдений, лишенную систематич. ошибки, и такую, для к-рой среднее значение убытка минимально в классе всех линейных функций. Если случайные ошибки наблюдений подчиняются нормальному распределению и оцениваемая величина mзависит от средних значений результатов наблюдений линейно (случай, весьма часто встречающийся в приложениях Н. к. м.), то решение этой задачи будет одновременно являться и решением общей задачи. При этом оптимальная оценка Xтакже подчиняется нормальному распределению со средним значением
и, следовательно, плотность вероятности случайной величины X
достигает максимума в точке
(это свойство и выражает точное содержание распространенного в теории ошибок утверждения: "оценка X, вычисленная согласно Н. к. м.,- наиболее вероятное значение неизвестного параметра
").
Случай одного неизвестного. Пусть для оценки значения неизвестной величины
произведено пнезависимых наблюдений, давших результаты
- случайные ошибки (по определению, принятому в классич. теории ошибок, случайные ошибки - независимые случайные величины с нулевым математич. ожиданием:
; если же
наз. систематическими ошибками). Согласно Н. к. м. в качестве оценки величины m. принимают такое X, для к-рого будет наименьшей сумма квадратов (отсюда и само название метода):
где
(коэффициент k>0 можно выбирать произвольно). Величину
наз. весом, а
-квадратичным отклонением измерения с номером
. В частности, если все измерения равноточны, то
и в этом случае можно положить
если же каждое
- арифметич. среднее из
равноточных измерений, то полагают
Сумма
будет наименьшей, если в качестве Xвыбрать взвешенное среднее:
Оценка
величины
лишена систематич. ошибки, имеет вес Ри дисперсию
. В частности, если все измерения равноточны, то Y - арифметич. среднее результатов измерений:
При нек-рых общих предположениях можно показать, что если количество наблюдений пдостаточно велико, то распределение оценки У мало отличается от нормального с математич. ожиданием m и дисперсией
.В этом случае абсолютная погрешность приближенного равенства
меньше
с вероятностью, близкой к значению интеграла
(напр.,
).
Если веса измерений
заданы, а множитель кдо наблюдений остается неопределенным, то этот множитель и дисперсия оценки
могут быть оценены по формулам:
и
(обе оценки лишены систематич. ошибок).
В том практически важном случае, когда ошибки
подчиняются нормальному распределению, можно найти точное значение вероятности, с к-рой абсолютная погрешность приближенного равенства
окажется меньше
(t- произвольное положительное число):
где постоянная
выбрана таким образом, чтобы выполнялось условие
( Стьюдента распре деление с п-1 степенями свободы). При больших пформулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших ппривело бы к грубым ошибкам. Так, напр., согласно (1) значению I= 0,99 соответствует t=2,58; истинные значения t, определяемые при малых пкак решения соответствующих уравнений
приведены в таблице:
Пример. Для определения массы нек-рого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yi (в г):
(здесь ni - число случаев, в к-рых наблюдалась масса
). Так как все взвешивания равноточные, то следует положить
и в качестве оценки для неизвестного веса
выбрать величину
. Задавая, напр.,
по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что
и поэтому в качестве предельной абсолютной погрешности приближенного равенства
следует принять величину
Таким образом,
Случай нескольких неизвестных (линейные связи). Пусть презультатов измерений
связаны с тнеизвестными величинами
независимыми линейными соотношениями
где
- известные коэффициенты, а
- независимые случайные ошибки измерений.
Требуется оценить неизвестные величины
(эту задачу можно рассматривать как обобщение предыдущей, в к-рой
Так как
то средние значения результатов измерений
связаны с неизвестными величинами
линейными уравнениями (линейные связи):
Следовательно, искомые величины
представляют собой решение системы (4), уравнения к-рой предполагаются совместными. Точные значения измеряемых величин
и случайные ошибки
обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так наз. условные уравнения
Согласно Н. к. м. в качестве оценок для неизвестных
применяют такие величины
, для к-рых сумма квадратов отклонений
будет наименьшей (как и в предыдущем случае,
- вес измерения,
- величина, обратно пропорциональная дисперсии случайной ошибки
). Условные уравнения, как правило, несовместны, т. с. при любых значениях
разности
не могут, вообще говоря, все обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения
, к-рые минимизируют сумму S. В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.
Сумма квадратов Sпредставляет собой квадратичный многочлен относительно переменных
; этот многочлен достигает минимума при таких значениях
при к-рых обращаются в нуль все первые частные производные:
Отсюда следует, что оценки
, полученные согласно Н. к. м., должны удовлетворять системе т. н. нормальных уравнений, к-рая в обозначениях, предложенных К. Гауссом, имеет вид
где
и
Оценки, получающиеся в результате решения системы нормальных уравнений, лишены систематич. ошибок
дисперсии
величин
равны
где d- определитель системы (5), а
- минор, соответствующий диагональному элементу
(иными словами,
- вес оценки
). Если множитель пропорциональности (кназ. дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии
служат формулы
(S- минимальное значение исходной суммы квадратов). При нек-рых общих предположениях можно показать, что если количество наблюдений пдостаточно велико, то абсолютная погрешность приближенного равенства
меньше
с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений
подчиняются нормальному распределению, то все отношения
распределены по закону Стьюдента с п-то степенями свободы (точная оценка абсолютной погрешности приближенного равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного). Кроме того, минимальное значение суммы Sв вероятностном смысле не зависит от
и потому приближенные значения дисперсий оценок
не зависят от самих оценок
Один из наиболее типичных случаев применения Н. к. м.- "выравнивание" таких результатов наблюдений
, для к-рых в уравнениях (3)
где
- известные функции нек-рого параметра t(если t- время, то
- те моменты времени, в к-рые производились наблюдения). Особенно часто встречается в приложениях случай т. н. параболической интерполяции, когда
- многочлены (напр.,
); если
а наблюдения равноточные, то для вычисления оценок
можно воспользоваться таблицами ортогональных многочленов. Другой важный для приложений случай - т. н. гармоническая интерполяция, когда в качестве
выбирают три-гонометрич. функции (напр.,
).
Пример. Для оценки точности одного из методов химич. анализа этим методом определялась концентрация СаО в десяти эталонных пробах заранее известного состава. Результаты наблюдений указаны в таблице (г - номер эксперимента, t;- истинная концентрация СаО,
- концентрация СаО, определенная в результате химич. анализа,
- ошибка химич. анализа):
Если результаты химич. анализа не имеют систематич. ошибок, то
Если же такие ошибки имеются, то в первом приближении их можно представить в виде:
(
наз. постоянной ошибкой, а
- методической ошибкой) или, что то же самое,
где
Для отыскания оценок
и
достаточно оценить величины
и
. Условные уравнения в данном случае имеют вид
поэтому
(согласно предположению о равноточности наблюдений все
). Так как
то система нормальных уравнений записывается особенно просто:
где
Дисперсии компонент решения этой системы суть
где k - неизвестная дисперсия на единицу веса (в данном случае k- дисперсия любой из величин
). Так как в этом примере компоненты решения принимают значения Х 1= -0,35, и Х 2= - 0,00524, то
Если случайные ошибки наблюдений подчиняются нормальному распределению, то отношения
j= 1, 2, распределены по закону Стьюдента. В частности, если результаты наблюдений лишены систематич. ошибок, то
, и, значит, закону Стьюдента должны подчиняться отношения
и
. С помощью таблиц распределения Стьюдента с п-m=8 степенями свободы можно убедиться, что если действительно х 1=х 2=0, то с вероятностью 0,999 каждое из этих отношений не должно превосходить 5,04 и с вероятностью 0,95 не должно превосходить 2,31. В данном случае
поэтому гипотезу отсутствия систематич. ошибок целесообразно отвергнуть; в то же время следует признать, что гипотеза об отсутствии ме-тодич. ошибки (
) не противоречит результатам наблюдений, т. к.
. Таким образом, можно заключить, что для определения tпо результату наблюдения Тцелесообразно пользоваться приближенной формулой
Случай нескольких неизвестных (нелинейные связи). Пусть презультатов измерений
связаны с mнеизвестными
функциональной зависимостью
где
- независимые случайные ошибки, а функции
(в общем случае нелинейные) дифференцируемы. Согласно Н. к. м. в качестве оценок для xj принимают такие величины
, для к-рых сумма квадратов
будет наименьшей. Так как функции
нелинейные, то решение нормальных уравнений
в этом случае может представлять значительные трудности. Иногда нелинейные связи каким-либо преобразованием могут быть приведены к линейным.
Напр., при намагничивании железа напряженность магнитного поля H связана с магнитной индукцией Вэмпирич. формулой
(коэффициенты
и
определяются по измеренным значениям
при заданных
). Индукция В- нелинейная функция от
и
. Однако обратная величина индукции зависит от
и
Линейно. Применение Н. к. м. к исходному и преобразованному равенствам дает, вообще говоря, различные оценки для неизвестных
и
, но если дисперсия случайных ошибок измерения индукции значительно меньше измеряемых величин
, то
. Поэтому величинам
следует приписать веса
; естественно ожидать, что при этих условиях различие оценок в нелинейном и линейном случаях будет практически несущественным.
В тех случаях, когда не удается тождественными преобразованиями заменить нелинейные уравнения линейными, пользуются другим способом линеаризации. Из заданных пуравнений отбирают какие-либо m уравнений, решение к-рых
принимают за нулевое приближение для неизвестных xj. Если положить
то систему условных уравнений можно записать в виде:
Разлагая правые части в ряд по степеням
и ограничиваясь линейными членами, получают
где
- значение функции
и ее производных по
при
Эта система уравнений линейна, и поэтому для оценки неизвестных
легко может быть применен Н. к. м. Оценив
получают первое приближение для неизвестных
Величины
берут за исходное приближение, и всю операцию повторяют, пока с заданной точностью не совпадут два последовательных приближения. Если дисперсии ошибок
уменьшаются, то процесс сходится.
Очень часто при малых
оказывается вполне достаточным уже первое приближение: не имеет смысла требовать нахождения
с точностью, значительно превышающей
Во многих практически важных случаях (и в частности, при оценке сложных нелинейных связей) количество неизвестных параметров бывает весьма большим, и поэтому реализация Н. к. м. оказывается эффективной лишь при использовании современной вычислительной техники.
Лит.:[1] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [2] Колмогоров А. Н., "Успехи матем. наук", 1946, т. 1, в. 1, с. 57-70; [3] Линник Ю. В., Метод наименьших квадратов и . основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; [4] Налимов В. В., Применение математической статистики при анализе вещества, М., 1960; [5] Helmert F. R., Die Ausgleichungsrechnung nach der Methode der kleinsten Quadrate, 3 Aufl., Lpz.- В., 1924.
Л. Н. Большее.
Математическая энциклопедия. — М.: Советская энциклопедия. И. М. Виноградов. 1977—1985.