Распределения Эрланга

Распределения Эрланга
Гамма-распределение
Плотность вероятности
Плотности гамма-распределений
Функция распределения
Функции гамма-распределений
Параметры k > 0,\,\theta > 0\, - коэффициент масштаба
Носитель x \in [0; \infty)\!
Плотность вероятности x^{k-1} \frac{\exp\left(-x/\theta\right)}{\Gamma(k)\,\theta^k}
Функция распределения \frac{\gamma(k, x/\theta)}{\Gamma(k)}
Математическое ожидание k \theta\,
Медиана
Мода (k-1) \theta\,, когда k \geq 1\,
Дисперсия k \theta^2\,
Коэффициент асимметрии \frac{2}{\sqrt{k}}
Коэффициент эксцесса \frac{6}{k}
Информационная энтропия k\theta+(1-k)\ln(\theta)+\ln(\Gamma(k))\,
+(1-k)\psi(k)\,
Производящая функция моментов (1 - \theta\,t)^{-k}, когда t < 1 / θ
Характеристическая функция (1 - \theta\,i\,t)^{-k}


Га́мма распределе́ние в теории вероятностей — это двухпараметрическое семейство абсолютно непрерывных распределений. Если параметр k принимает целое значение, то такое гамма-распределение также называется распределе́нием Эрла́нга.

Содержание

Определение

Пусть распределение случайной величины X задаётся плотностью вероятности, имеющей вид

 f_X(x) = \left\{
\begin{matrix}
x^{k-1} \frac{e^{-x/\theta}}{\theta^k \, \Gamma(k)}, &amp;amp; x \ge 0 \\
0, &amp;amp; x &amp;lt; 0
\end{matrix}
\right., где функция Γ(k) имеет вид

 \Gamma(k)=\int\limits^\infty_0x^{k-1}e^{-x}dx
и обладает следующими свойствами:

  • \Gamma(k)=(k - 1)\cdot\Gamma(k-1);
  • \Gamma(0{,}5)=\sqrt{\pi};

константы k,θ > 0. Тогда говорят, что случайная величина X имеет гамма-распределение с параметрами k и θ. Пишут X \thicksim \Gamma(k,\theta).

Замечание. Иногда используют другую параметризацию семейства гамма-распределений. Или вводят третий параметр — сдвига.

Моменты

Математическое ожидание и дисперсия случайной величины X, имеющей гамма-распределение, имеют вид

\mathbb{E}[X] = k\theta,
\mathbb{D}[X] = k\theta^2.

Свойства гамма-распределения

 Y = \sum\limits_{i=1}^n X_i \sim \Gamma\left( \sum_{i=1}^n k_i, \theta \right).
  • Если  X \thicksim \Gamma(k,\theta), и a > 0 — произвольная константа, то
 aX \thicksim \Gamma( k, a\theta).

Связь с другими распределениями

\Gamma(1,\theta) \equiv \mathrm{Exp}(\theta).
  • Если X_1,\ldots,X_k — независимые экспоненциальные случайные величины, такие что X_i \sim \mathrm{Exp}(\theta),\; i = 1,\ldots, k, то
Y = \sum\limits_{i=1}^k X_i \sim \Gamma(k, \theta ).
\Gamma\left(\frac{n}{2},2\right) \equiv \chi^2(n).
\Gamma(k, \theta) \approx \mathrm{N}(k\theta, k\theta^2) при k \to \infty.
  • Если X1,X2 — независимые случайные величины, такие что X_i \sim \Gamma(k_i,1),\; i=1,2, то
\frac{X_1}{X_1+X_2} \sim \mathrm{\Beta}(k_1,k_2).

Моделирование гамма-величин

Учитывая свойство масштабирования по параметру θ, указанное выше, достаточно смоделировать гамма-величину для θ = 1. Переход к другим значениям параметра осуществляется простым умножением.

Используя тот факт, что распределение Γ(1,1) совпадает с экспоненциальным распределением, получаем, что если U — случайная величина, равномерно распределённая на интервале (0, 1], то − lnU˜Γ(1,1).

Теперь, используя свойство k-суммирования, обобщим этот результат:

 \sum_{i=1}^n {-\ln U_i} \sim \Gamma (n, 1),

где Uiнезависимые случайные величины, равномерно распределённые на интервале (0, 1].

Осталось смоделировать гамма-величину для 0 < k < 1 и ещё раз применить свойство k-суммирования. Это является самой сложной частью.

Ниже приведён алгоритм без доказательства. Он является примером выборки с отклонением.

  1. Положить m равным 1.
  2. Сгенерировать V2m − 1 и V2m — независимые случайные величины, равномерно распределённые на интервале (0, 1].
  3. Если V_{2m - 1} \le v_0, где v_0 = \frac e {e + \delta}, перейти к шагу 4, иначе к шагу 5.
  4. Положить \xi_m = \left( \frac {V_{2m - 1}} {v_0} \right) ^{\frac 1 \delta}, \ \eta_m = V_{2m} \xi _m^ {\delta - 1}. Перейти к шагу 6.
  5. Положить \xi_m = 1 - \ln {\frac {V_{2m - 1} - v_0} {1 - v_0}}, \ \eta_m = V_{2m} e^{-\xi_m}.
  6. Если \eta_m &amp;gt; \xi_m^{\delta - 1} e^{-\xi_m}, то увеличить m на единицу и вернуться к шагу 2.
  7. Принять ξ = ξm за реализацию Γ(δ,1).

Подытожим:

 \theta \left( \xi - \sum _{i=1} ^{[k]} {\ln U_i} \right) \sim \Gamma (k, \theta),

где [k] является целой частью k, а ξ сгенерирована по алгоритму, приведённому выше при δ = {k} (дробная часть k); Ui and Vl распределены как указано выше и попарно независимы.

Image:Bvn-small.png Вероятностные распределения
Одномерные Многомерные
Дискретные: Бернулли | биномиальное | геометрическое | гипергеометрическое | логарифмическое | отрицательное биномиальное | Пуассона | равномерное мультиномиальное
Абсолютно непрерывные: Бета | Вейбулла | Гамма | Колмогорова | Коши | Лапласа | логнормальное | Лоренца | нормальное (Гаусса) | равномерное | Парето | Стьюдента | Фишера | хи-квадрат | экспоненциальное | Эрланга многомерное нормальное
править

Wikimedia Foundation. 2010.

Смотреть что такое "Распределения Эрланга" в других словарях:

  • Эрланга формулы — Гамма распределение Плотность вероятности Функция распределения Параметры …   Википедия

  • Распределения вероятностей — Распределение вероятностей это закон, описывающий область значений случайной величины и вероятности их принятия. Содержание 1 Определение 2 Способы задания распределений 2.1 Дискрет …   Википедия

  • ЭРЛАНГА РАСПРЕДЕЛЕНИЕ — эрланговское распределение, сосредоточенное на распределение вероятностей с плотностью где целое и действительное параметры. Характеристич. функция Э. р. имеет вид а математич. ожидание и дисперсия соответственно и …   Математическая энциклопедия

  • Распределение Эрланга — Гамма распределение Плотность вероятности Функция распределения Параметры …   Википедия

  • Формула Леви — Хинчина для устойчивого распределения — Устойчивое распределение в теории вероятностей это такое распределение, которое может быть получено как предел по распределению сумм независимых случайных величин. Содержание 1 Определение 2 Замечания 3 Свойства устойчивых распределений …   Википедия

  • Распределение (математика) — Распределение вероятностей это закон, описывающий область значений случайной величины и вероятности их принятия. Содержание 1 Определение 2 Способы задания распределений 2.1 Дискрет …   Википедия

  • Распределение (теория вероятностей) — Распределение вероятностей это закон, описывающий область значений случайной величины и вероятности их принятия. Содержание 1 Определение 2 Способы задания распределений 2.1 Дискрет …   Википедия

  • Распределение вероятности — Распределение вероятностей это закон, описывающий область значений случайной величины и вероятности их принятия. Содержание 1 Определение 2 Способы задания распределений 2.1 Дискрет …   Википедия

  • Распределение случайной величины — Распределение вероятностей это закон, описывающий область значений случайной величины и вероятности их принятия. Содержание 1 Определение 2 Способы задания распределений 2.1 Дискрет …   Википедия

  • Массового обслуживания теория —         математическая дисциплина, изучающая системы, предназначенные для обслуживания массового потока требований случайного характера (случайными могут быть как моменты появления требований, так и затраты времени на их обслуживание). Типичным… …   Большая советская энциклопедия


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»