- Регрессия (математич.)
- Регрессия в теории вероятностей и математической статистике, зависимость среднего значения какой-либо величины от некоторой другой величины или от нескольких величин. В отличие от чисто функциональной зависимости у = f(х), когда каждому значению независимой переменной х соответствует одно определённое значение величины у, при регрессионной связи одному и тому же значению х могут соответствовать в зависимости от случая различные значения величины у. Если при каждом значении х = xi наблюдается ni, значений yi1, ...,
величины у, то зависимость средних арифметических
от xi и является Р. в статистическом понимании этого термина. Примером такого рода зависимости служит, в частности, зависимость средних диаметров сосен от их высот; см. табл. в ст. Корреляция.
Е(Y êх) = u(х).
D(Y êх) = s2(x).
Линии Р. обладают следующим замечательным свойством: среди всех действительных функций f (х) минимум математического ожидания Е[Y ‒ f(X)]2 достигается для функции f(x) = u(х), т. е. Р. Y по Х даёт наилучшее, в указанном смысле, представление величины Y по величине X. Это свойство используется для прогноза Y по X: если значение Y непосредственно не наблюдается и эксперимент позволяет регистрировать лишь компоненту Х вектора (X, Y), то в качестве прогнозируемого значения Y используют величину u (X).
Наиболее простым является случай, когда Р. Y по Х линейна:
Е(Yïx) = b0 + b1x.
,
где mХ и mY ‒ математические ожидания Х и Y, и
‒ дисперсии Х и Y, а r ‒ коэффициент корреляции между Х и Y. Уравнение Р. при этом выражается формулой
Если Р. Y по Х отлична от линейной, то последнее уравнение есть линейная аппроксимация истинного уравнения Р.: математическое ожидание Е[Y ‒ b0 ‒ b1X]2 достигает минимума b0 и b1 при b0 = b0 и b1 = b1. Особенно часто встречается случай уравнения Р., выражающегося линейной комбинацией тех или иных заданных функций:
у = u(Х) = b0j0(x) + b1j1(x) + ... + bmjm(x).
Наиболее важное значение имеет параболическая (полиномиальная) Р., при которой j0(x) = 1 , j1(x) = x, ..., jm(x) = xm.
y = u ( x1, ..., xk),
где u( x1, ..., xk) = E{YïX = x1, ... , Xk = xk}.
Если
u ( x1, ..., xk) = b0 + b1x1 + ... + bkxk,
то Р. называется линейной. Эта форма уравнения Р. включает в себя многие типы Р. с одной независимой переменной, в частности полиномиальная Р. Y по Х порядка k сводится к линейной Р. Y по X1, ..., Xk, если положить Xk = Xk.
Лит.: Крамер Г., Математические методы статистики, пер. с англ., М., 1948; Кендалл М. Дж., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973.
А. В. Прохоров.
Большая советская энциклопедия. — М.: Советская энциклопедия. 1969—1978.