Дисперсия случайной величины. Математическое ожидание и дисперсия случайной величины Формула дисперсии случайной величины х

Дисперсия случайной величины является мерой разброса значений этой величины. Малая дисперсия означает, что значения сгруппированы близко друг к другу. Большая дисперсия свидетельствует о сильном разбросе значений. Понятие дисперсии случайной величины применяется в статистике. Например, если сравнить дисперсию значений двух величин (таких как результаты наблюдений за пациентами мужского и женского пола), можно проверить значимость некоторой переменной. Также дисперсия используется при построении статистических моделей, так как малая дисперсия может быть признаком того, что вы чрезмерно подгоняете значения.

Шаги

Вычисление дисперсии выборки

    Запишите значения выборки. В большинстве случаев статистикам доступны только выборки определенных генеральных совокупностей. Например, как правило, статистики не анализируют расходы на содержание совокупности всех автомобилей в России – они анализируют случайную выборку из нескольких тысяч автомобилей. Такая выборка поможет определить средние расходы на автомобиль, но, скорее всего, полученное значение будет далеко от реального.

    • Например, проанализируем количество булочек, проданных в кафе за 6 дней, взятых в случайном порядке. Выборка имеет следующий вид: 17, 15, 23, 7, 9, 13. Это выборка, а не совокупность, потому что у нас нет данных о проданных булочках за каждый день работы кафе.
    • Если вам дана совокупность, а не выборка значений, перейдите к следующему разделу.
  1. Запишите формулу для вычисления дисперсии выборки. Дисперсия является мерой разброса значений некоторой величины. Чем ближе значение дисперсии к нулю, тем ближе значения сгруппированы друг к другу. Работая с выборкой значений, используйте следующую формулу для вычисления дисперсии:

    Вычислите среднее значение выборки. Оно обозначается как x̅. Среднее значение выборки вычисляется как обычное среднее арифметическое: сложите все значения в выборке, а затем полученный результат разделите на количество значений в выборке.

    • В нашем примере сложите значения в выборке: 15 + 17 + 23 + 7 + 9 + 13 = 84
      Теперь результат разделите на количество значений в выборке (в нашем примере их 6): 84 ÷ 6 = 14.
      Выборочное среднее x̅ = 14.
    • Выборочное среднее – это центральное значение, вокруг которого распределены значения в выборке. Если значения в выборке группируются вокруг выборочного среднего, то дисперсия мала; в противном случае дисперсия велика.
  2. Вычтите выборочное среднее из каждого значения в выборке. Теперь вычислите разность x i {\displaystyle x_{i}} - x̅, где x i {\displaystyle x_{i}} – каждое значение в выборке. Каждый полученный результат свидетельствует о мере отклонения конкретного значения от выборочного среднего, то есть как далеко это значение находится от среднего значения выборки.

    Как отмечалось выше, сумма разностей x i {\displaystyle x_{i}} - x̅ должна быть равна нулю. Это означает, что средняя дисперсия всегда равна нулю, что не дает никакого представления о разбросе значений некоторой величины. Для решения этой проблемы возведите в квадрат каждую разность x i {\displaystyle x_{i}} - x̅. Это приведет к тому, что вы получите только положительные числа, которые при сложении никогда не дадут 0.

    Вычислите сумму квадратов разностей. То есть найдите ту часть формулы, которая записывается так: ∑[( x i {\displaystyle x_{i}} - x̅) 2 {\displaystyle ^{2}} ]. Здесь знак Σ означает сумму квадратов разностей для каждого значения x i {\displaystyle x_{i}} в выборке. Вы уже нашли квадраты разностей (x i {\displaystyle (x_{i}} - x̅) 2 {\displaystyle ^{2}} для каждого значения x i {\displaystyle x_{i}} в выборке; теперь просто сложите эти квадраты.

    • В нашем примере: 9 + 1 + 81 + 49 + 25 + 1 = 166 .
  3. Полученный результат разделите на n - 1, где n – количество значений в выборке. Некоторое время назад для вычисления дисперсии выборки статистики делили результат просто на n; в этом случае вы получите среднее значение квадрата дисперсии, которое идеально подходит для описания дисперсии данной выборки. Но помните, что любая выборка – это лишь небольшая часть генеральной совокупности значений. Если взять другую выборку и выполнить такие же вычисления, вы получите другой результат. Как выяснилось, деление на n - 1 (а не просто на n) дает более точную оценку дисперсии генеральной совокупности, в чем вы и заинтересованы. Деление на n – 1 стало общепринятым, поэтому оно включено в формулу для вычисления дисперсии выборки.

    Отличие дисперсии от стандартного отклонения. Заметьте, что в формуле присутствует показатель степени, поэтому дисперсия измеряется в квадратных единицах измерения анализируемой величины. Иногда такой величиной довольно сложно оперировать; в таких случаях пользуются стандартным отклонением, которое равно квадратному корню из дисперсии. Именно поэтому дисперсия выборки обозначается как s 2 {\displaystyle s^{2}} , а стандартное отклонение выборки – как s {\displaystyle s} .

    • В нашем примере стандартное отклонение выборки: s = √33,2 = 5,76.

    Вычисление дисперсии совокупности

    1. Проанализируйте некоторую совокупность значений. Совокупность включает в себя все значения рассматриваемой величины. Например, если вы изучаете возраст жителей Ленинградской области, то совокупность включает возраст всех жителей этой области. В случае работы с совокупностью рекомендуется создать таблицу и внести в нее значения совокупности. Рассмотрим следующий пример:

      Запишите формулу для вычисления дисперсии генеральной совокупности. Так как в совокупность входят все значения некоторой величины, то приведенная ниже формула позволяет получить точное значение дисперсии совокупности. Для того чтобы отличить дисперсию совокупности от дисперсии выборки (значение которой является лишь оценочным), статистики используют различные переменные:

      Вычислите среднее значение совокупности. При работе с генеральной совокупностью ее среднее значение обозначается как μ (мю). Среднее значение совокупности вычисляется как обычное среднее арифметическое: сложите все значения в генеральной совокупности, а затем полученный результат разделите на количество значений в генеральной совокупности.

      Вычтите среднее значение совокупности из каждого значения в генеральной совокупности. Чем ближе значение разности к нулю, тем ближе конкретное значение к среднему значению совокупности. Найдите разность между каждым значением в совокупности и ее средним значением, и вы получите первое представление о распределении значений.

      Возведите в квадрат каждый полученный результат. Значения разностей будут как положительными, так и отрицательными; если нанести эти значения на числовую прямую, то они будут лежать справа и слева от среднего значения совокупности. Это не годится для вычисления дисперсии, так как положительные и отрицательные числа компенсируют друг друга. Поэтому возведите в квадрат каждую разность, чтобы получить исключительно положительные числа.

      Найдите среднее значение полученных результатов. Вы нашли, как далеко каждое значение совокупности расположено от ее среднего значения. Найдите среднее значение суммы квадратов разностей, поделив ее на количество значений в генеральной совокупности.

    2. Соотнесите это решение с формулой. Если вы не поняли, как приведенное выше решение соотносится с формулой, ниже представлено объяснение решения:

      • Находим разность между каждым значением и средним значением совокупности, а затем возводим каждую разность в квадрат, то есть получаем ( x 1 {\displaystyle x_{1}} - μ) 2 {\displaystyle ^{2}} , ( x 2 {\displaystyle x_{2}} - μ) 2 {\displaystyle ^{2}} и так далее вплоть до ( x n {\displaystyle x_{n}} - μ) 2 {\displaystyle ^{2}} , где x n {\displaystyle x_{n}} – последнее значение в генеральной совокупности.
      • Для вычисления среднего значения полученных результатов нужно найти их сумму и разделить ее на n:(( x 1 {\displaystyle x_{1}} - μ) 2 {\displaystyle ^{2}} + ( x 2 {\displaystyle x_{2}} - μ) 2 {\displaystyle ^{2}} + ... + ( x n {\displaystyle x_{n}} - μ) 2 {\displaystyle ^{2}} ) / n
      • Теперь запишем приведенное объяснение с использованием переменных: (∑( x i {\displaystyle x_{i}} - μ) 2 {\displaystyle ^{2}} ) / n и получим формулу для вычисления дисперсии совокупности.

Дисперсия случайной величины характеризует меру разброса случайной величины около ее математического ожидания.

Если случайная величина x имеет математическое ожидание M x , то дисперсией случайной величины x называется величина D x =M (x - M x ) 2 .

Легко показать, что D x = M (x - M x ) 2 = M x 2 - M (x) 2 .

Эта универсальная формула одинаково хорошо применима как для дискретных случайных величин, так и для непрерывных. Величина M x 2 >для дискретных и непрерывных случайных величин соответственно вычисляется по формулам

, .

Для определения меры разброса значений случайной величины часто используется среднеквадратичное отклонение ,связанное с дисперсией соотношением .

Основные свойства дисперсии:

  • дисперсия константы равна нулю, D c =0;
  • для произвольной константы D (cx ) = c 2 D (x);
  • дисперсия суммы двух независимых случайных величинравна сумме их дисперсий: D (x ± h ) = D (x) + D (h).

51) Функцией распределения называют функцию , определяющую вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х, т.е.

Иногда вместо термина «Функция распределения» используют термин «Интегральная функция».

Свойства функции распределения:

1. Значения функции распределения принадлежит отрезку : 0 F(x) 1
2. F(x) - неубывающая функция, т.е. F(x 2) F(x 1), если x 2 >x 1

Следствие 1. Вероятность того, что случайная величина примет значение, заключенное в интервале (a,b), равна приращению функции распределения на этом интервале:

P(a X

Пример 9. Случайная величина Х задана функцией распределения:

Найти вероятность того, что в результате испытания Х примет значение, принадлежащее интервалу (0;2): P(0

Решение: Так как на интервале (0;2) по условию, F(x)=x/4+1/4, то F(2)-F(0)=(2/4+1/4)-(0/4+1/4)=1/2. Итак, P(0

Следствие 2. Вероятность того, что непрерывная случайная величина Х примет одно определенное значение, равна нулю.

Следствие 3. Если возможные значения случайной величины принадлежат интервалу (а;b), то: 1) F(x)=0 при x a; 2) F(x)=1 при x b.
Справедливы следующие предельные соотношения:

График функции распределения расположен в полосе, ограниченной прямыми у=0, у=1 (первое свойство). При возрастании х в интервале (а;b), в котором заключены все возможные значения случайной величины, график «подымается вверх». При x a ординаты графика равны нулю; при x b ординаты графика равны единице:

Функцией распределения случайной величины Х называется функция F(x) , выражающая для каждого х вероятность того, что случайная величина Х примет значение, меньшее х :

.

Функцию F(x) называют интегральной функцией распределения или интегральным законом распределения.

Способ задания непрерывной случайной величины с помощью функции распределения не является единственным. Необходимо определить некоторую функцию, отражающую вероятности попадания случайной точки в различные участки области возможных значений непрерывной случайной величины. Т. е. представить некоторую замену вероятностям p i для дискретной случайной величины в непрерывном случае.

Такой функцией является плотность распределения вероятностей. Плотностью вероятности (плотностью распределения, дифференциальной функцией ) случайной величины Х называется функция f(x), являющаяся первой производной интегральной функции распределения.

Кроме характеристик положения – средних, типичных значений случайной величины, - употребляется еще ряд характеристик, каждая из которых описывает то или иное свойство распределения. В качестве таких характеристик чаще всего применяются так называемые моменты.

Понятие момента широко применяется в механике для описания распределения масс (статические моменты, моменты инерции и т.д.). Совершенно теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего применяются на практике моменты двух видов: начальные и центральные.

Начальным моментом s-го порядка прерывной случайной величины называется сумма вида:

. (5.7.1)

Очевидно, это определение совпадает с определением начального момента порядка s в механике, если на оси абсцисс в точках сосредоточены массы .

Для непрерывной случайной величины Х начальным моментом s-го порядка называется интеграл

. (5.7.2)

Нетрудно убедиться, что введенная в предыдущем n° основная характеристика положения – математическое ожидание – представляет собой не что иное, как первый начальный момент случайной величины .

Пользуясь знаком математического ожидания, можно объединить две формулы (5.7.1) и (5.7.2) в одну. Действительно, формулы (5.7.1) и (5.7.2) по структуре полностью аналогичны формулам (5.6.1) и (5.6.2), с той разницей, что в них вместо и стоят, соответственно, и . Поэтому можно написать общее определение начального момента -го порядка, справедливое как для прерывных, так и для непрерывных величин:

, (5.7.3)

т.е. начальным моментом -го порядка случайной величины называется математическое ожидание -й степени этой случайной величины.

Перед тем, как дать определение центрального момента, введем новое понятие «центрированной случайной величины».

Пусть имеется случайная величина с математическим ожиданием . Центрированной случайной величиной, соответствующей величине , называется отклонение случайной величины от её математического ожидания:

Условимся в дальнейшем везде обозначать центрированную случайную величину, соответствующую данной случайной величине, той же буквой со значком наверху.

Нетрудно убедиться, что математическое ожидание центрированной случайной величины равно нулю. Действительно, для прерывной величины

аналогично и для непрерывной величины.

Центрирование случайной величины, очевидно, равносильно переносу начала координат в среднюю, «центральную» точку, абсцисса которой равна математическому ожиданию.

Моменты центрированной случайной величины носят название центральных моментов. Они аналогичны моментам относительно центра тяжести в механике.

Таким образом, центральным моментом порядка s случайной величины называется математическое ожидание -й степени соответствующей центрированной случайной величины:

, (5.7.6)

а для непрерывной – интегралом

. (5.7.8)

В дальнейшем в тех случаях, когда не возникает сомнений, к какой случайной величине относится данный момент, мы будем для краткости вместо и писать просто и .

Очевидно, для любой случайной величины центральный момент первого порядка равен нулю:

, (5.7.9)

так как математическое ожидание центрированной случайной величины всегда равно нулю.

Выведем соотношения, связывающие центральные и начальные моменты различных порядков. Вывод мы проведем только для прерывных величин; легко убедится, что точно те же соотношения справедливы и для непрерывных величин, если заменить конечные суммы интегралами, а вероятности – элементами вероятности.

Рассмотрим второй центральный момент:

Аналогично для третьего центрального момента получим:

Выражения для и т.д. могут быть получены аналогичным путем.

Таким образом, для центральных моментов любой случайной величины справедливы формулы:

(5.7.10)

Вообще говоря, моменты могут рассматриваться не только относительно начала координат (начальные моменты) или математического ожидания (центральные моменты), но и относительно произвольной точки :

. (5.7.11)

Однако центральные моменты имеют перед всеми другими преимущество: первый центральный момент, как мы видели, всегда равен нулю, а следующий за ним, второй центральный момент при этой системе отсчета имеет минимальное значение. Докажем это. Для прерывной случайной величины при формула (5.7.11) имеет вид:

. (5.7.12)

Преобразуем это выражение:

Очевидно, эта величина достигает своего минимума, когда , т.е. когда момент берется относительно точки .

Из всех моментов в качестве характеристик случайной величины чаще всего применяются первый начальный момент (математическое ожидание) и второй центральный момент .

Второй центральный момент называется дисперсией случайной величины. Ввиду крайней важности этой характеристики среди других моментов введем для нее специальное обозначение :

Согласно определению центрального момента

, (5.7.13)

т.е. дисперсией случайной величины Х называется математическое ожидание квадрата соответствующей центрированной величины.

Заменяя в выражении (5.7.13) величину её выражением, имеем также:

. (5.7.14)

Для непосредственного вычисления дисперсии служат формулы:

, (5.7.15)

(5.7.16)

Соответственно для прерывных и непрерывных величин.

Дисперсия случайной величины есть характеристика рассеивания, разбросанности значений случайной величины около её математического ожидания. Само слово «дисперсия» означает «рассеивание».

Если обратиться к механической интерпретации распределения, то дисперсия представляет собой не что иное, как момент инерции заданного распределения масс относительно центра тяжести (математического ожидания).

Дисперсия случайной величины имеет размерность квадрата случайной величины; для наглядной характеристики рассеивания удобнее пользоваться величиной, размерность которой совпадает с размерностью случайной величины. Для этого из дисперсии извлекают квадратный корень. Полученная величина называется средним квадратическим отклонением (иначе – «стандартом») случайной величины . Среднее квадратическое отклонение будем обозначать :

, (5.7.17)

Для упрощения записей мы часто будем пользоваться сокращенными обозначениями среднего квадратического отклонения и дисперсии: и . В случае, когда не возникает сомнения, к какой случайной величине относятся эти характеристики, мы будем иногда опускать значок х у и и писать просто и . Слова «среднее квадратическое отклонение» иногда будем сокращенно заменять буквами с.к.о.

На практике часто применяется формула, выражающая дисперсию случайной величины через её второй начальный момент (вторая из формул (5.7.10)). В новых обозначениях она будет иметь вид:

Математическое ожидание и дисперсия (или среднее квардратическое отклонение ) – наиболее часто применяемые характеристики случайной величины. Они характеризуют наиболее важные черты распределения: его положение и степень разбросанности. Для более подробного описания распределения применяются моменты высших порядков.

Третий центральный момент служит для характеристики асимметрии (или «скошенности») распределения. Если распределение симметрично относительно математического ожидания (или, в механической интерпретации, масса распределена симметрично относительно центра тяжести), то все моменты нечетного порядка (если они существуют) равны нулю. Действительно, в сумме

при симметричном относительно законе распределения и нечетном каждому положительному слагаемому соответствует равное ему по абсолютной величине отрицательное слагаемое, так что вся сумма равна нулю. То же, очевидно, справедливо и для интеграла

,

который равен нулю, как интеграл в симметричных пределах от нечетной функции.

Естественно поэтому в качестве характеристики асимметрии распределения выбрать какой-либо из нечетных моментов. Простейший из них есть третий центральный момент. Он имеет размерность куба случайной величины: чтобы получить безразмерную характеристику, третий момент делят на куб среднего квадратического отклонения. Полученная величина носит название «коэффициент асимметрии» или просто «асимметрии»; мы обозначим её :

На рис. 5.7.1 показано два асимметричных распределения; одно из них (кривая I) имеет положительную асимметрию (); другое (кривая II) – отрицательную ().

Четвертый центральный момент служит для характеристики так называемой «крутости», т.е. островершинности или плосковершинности распределения. Эти свойства распределения описываются с помощью так называемого эксцесса. Эксцессом случайной величины называется величина

Число 3 вычитается из отношения потому, что для весьма важного и широко распространенного в природе нормального закона распределения (с которым мы подробно познакомимся в дальнейшем) . Таки образом, для нормального распределения эксцесс равен нулю; кривые, более островершинные по сравнении с нормальной, обладают положительным эксцессом; кривые более плосковершинные – отрицательным эксцессом.

На рис. 5.7.2 представлены: нормальное распределение (кривая I), распределение с положительным эксцессом (кривая II) и распределение с отрицательным эксцессом (кривая III).

Кроме рассмотренных выше начальных и центральных моментов, на практике иногда применяются так называемые абсолютные моменты (начальные и центральные), определяемые формулами

Очевидно, абсолютные моменты четных порядков совпадают с обычными моментами.

Из абсолютных моментов наиболее часто применяется первый абсолютный центральный момент

, (5.7.21)

называемый средним арифметическим отклонением. Наряду с дисперсией и средним квадратическим отклонением среднее арифметическое отклонение иногда применяется как характеристика рассеивания.

Математическое ожидание, мода, медиана, начальные и центральные моменты и, в частности, дисперсия, среднее квадратическое отклонение, асимметрия и эксцесс представляют собой наиболее употребительные числовые характеристики случайных величин. Во многих задачах практики полная характеристика случайной величины – закон распределения – или не нужна, или не может быть получена. В этих случаях ограничиваются приблизительным описанием случайной величины с помощь. Числовых характеристик, каждая из которых выражает какое-либо характерное свойство распределения.

Очень часто числовыми характеристиками пользуются для приближенной замены одного распределения другим, причем обычно стремятся произвести эту замену так, чтобы сохранились неизменными несколько важнейших моментов.

Пример 1. Производится один опыт, в результате которого может появиться или не появиться событие , вероятность которого равна . Рассматривается случайная величина – число появлений события (характеристическая случайная величина события ). Определить её характеристики: математическое ожидание, дисперсию, среднее квадратическое отклонение.

Решение. Ряд распределения величины имеет вид:

где - вероятность непоявления события .

По формуле (5.6.1) находим математическое ожидание величины :

Дисперсию величины определяем по формуле (5.7.15):

(Предлагаем читателю получить тот же результат, выразив дисперсию через второй начальный момент).

Пример 2. Производится три независимых выстрела по мишени; вероятность попадания при каждом выстреле равна 0,4. случайная величина – число попаданий. Определить характеристики величины – математическое ожидание, дисперсию, с.к.о., асимметрию.

Решение. Ряд распределения величины имеет вид:

Вычисляем числовые характеристики величины :

Заметим, что те же характеристики могли бы быть вычислены значительно проще с помощью теорем о числовых характеристиках функций (см. главу 10).

variance ) в зарубежной. В статистике часто употребляется обозначение σ X 2 {\displaystyle \sigma _{X}^{2}} или σ 2 {\displaystyle \displaystyle \sigma ^{2}} .

Квадратный корень из дисперсии, равный σ {\displaystyle \displaystyle \sigma } , называется среднеквадрати́ческим отклоне́нием , станда́ртным отклоне́нием или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах , что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.

Замечания

где - i {\displaystyle i} -ое значение случайной величины, p i {\displaystyle p_{i}} - вероятность того, что случайная величина принимает значение x i {\displaystyle x_{i}} , n {\displaystyle n} - количество значений случайной величины.

где f (x) {\displaystyle f(x)} - плотность вероятности случайной величины.

  • В силу линейности математического ожидания, справедлива формула: D [ X ] = M [ X 2 ] − (M [ X ]) 2 {\displaystyle D[X]=M-\left(M[X]\right)^{2}}
  • Дисперсия является вторым центральным моментом случайной величины;
  • Дисперсия может быть бесконечной.
  • Дисперсия может быть вычислена с помощью производящей функции моментов U (t) {\displaystyle U(t)} : D [ X ] = M [ X 2 ] − (M [ X ]) 2 = U ″ (0) − (U ′ (0)) 2 {\displaystyle D[X]=M-\left(M[X]\right)^{2}=U""(0)-\left(U"(0)\right)^{2}}
  • Дисперсия целочисленной случайной величины может быть вычислена с помощью производящей функции последовательности .
  • Удобная формула для вычисления смещённой оценки дисперсии (англ. biased sample variance ) случайной величины X {\displaystyle X} по последовательности X 1 . . . X n {\displaystyle X_{1}...X_{n}} - реализаций этой случайной величины: S ¯ 2 = ∑ i = 1 n X i 2 − (∑ i = 1 n X i) n 2 n = ∑ i = 1 n X i 2 − n X ¯ 2 n = ∑ i = 1 n (X i 2 − X ¯ 2) n {\displaystyle {\bar {S}}^{2}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-{\dfrac {\left(\sum \limits _{i=1}^{n}X_{i}\right)}{n}}^{2}}{n}}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-n{\bar {X}}^{2}}{n}}={\dfrac {\sum \limits _{i=1}^{n}\left(X_{i}^{2}-{\bar {X}}^{2}\right)}{n}}} где X ¯ = ∑ i = 1 n X i n {\displaystyle {\bar {X}}={\dfrac {\sum \limits _{i=1}^{n}X_{i}}{n}}} - несмещённая оценка M [ X ] {\displaystyle M[X]} . Для получения несмещённой оценки дисперсии (англ. unbiased sample variance ) правую часть вышеуказанного равенства необходимо умножить на n n − 1 {\displaystyle {\frac {n}{n-1}}} . Несмещённая оценка обозначается S ~ 2 {\displaystyle {\widetilde {S}}^{2}} : S ~ 2 = ∑ i = 1 n X i 2 − (∑ i = 1 n X i) n 2 n − 1 = ∑ i = 1 n X i 2 − n X ¯ 2 n − 1 = ∑ i = 1 n (X i 2 − X ¯ 2) n − 1 {\displaystyle {\widetilde {S}}^{2}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-{\dfrac {\left(\sum \limits _{i=1}^{n}X_{i}\right)}{n}}^{2}}{n-1}}={\dfrac {\sum \limits _{i=1}^{n}X_{i}^{2}-n{\bar {X}}^{2}}{n-1}}={\dfrac {\sum \limits _{i=1}^{n}\left(X_{i}^{2}-{\bar {X}}^{2}\right)}{n-1}}}

Свойства

  • Дисперсия любой случайной величины неотрицательна: D [ X ] ⩾ 0 ; {\displaystyle D[X]\geqslant 0;}
  • Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;
  • Если случайная величина равна константе, то её дисперсия равна нулю: D [ a ] = 0. {\displaystyle D[a]=0.} Верно и обратное: если D [ X ] = 0 , {\displaystyle D[X]=0,} то X = M [ X ] {\displaystyle X=M[X]} почти всюду ;
  • Дисперсия суммы двух случайных величин равна: D [ X + Y ] = D [ X ] + D [ Y ] + 2 cov (X , Y) {\displaystyle D=D[X]+D[Y]+2\,{\text{cov}}(X,Y)} , где cov (X , Y) {\displaystyle {\text{cov}}(X,Y)} - их ковариация ;
  • Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство: D [ ∑ i = 1 n c i X i ] = ∑ i = 1 n c i 2 D [ X i ] + 2 ∑ 1 ⩽ i < j ⩽ n c i c j cov (X i , X j) {\displaystyle D\left[\sum _{i=1}^{n}c_{i}X_{i}\right]=\sum _{i=1}^{n}c_{i}^{2}D+2\sum _{1\leqslant i, где c i ∈ R {\displaystyle c_{i}\in \mathbb {R} } ;
  • В частности, D [ X 1 + . . . + X n ] = D [ X 1 ] + . . . + D [ X n ] {\displaystyle D=D+...+D} для любых задана равенством f X (x) = { 1 , x ∈ [ 0 , 1 ] 0 , x ∉ [ 0 , 1 ] . {\displaystyle f_{X}(x)=\left\{{\begin{matrix}1,&x\in \\0,&x\not \in .\end{matrix}}\right.}

    Тогда математическое ожидание квадрата случайной величины

    M [ X 2 ] = ∫ 0 1 x 2 d x = x 3 3 | 0 1 = 1 3 , {\displaystyle M\left=\int \limits _{0}^{1}\!x^{2}\,dx=\left.{\frac {x^{3}}{3}}\right\vert _{0}^{1}={\frac {1}{3}},}

    и математическое ожидание случайной величины

    M [ X ] = ∫ 0 1 x d x = x 2 2 | 0 1 = 1 2 . {\displaystyle M\left=\int \limits _{0}^{1}\!x\,dx=\left.{\frac {x^{2}}{2}}\right\vert _{0}^{1}={\frac {1}{2}}.}

    Тогда дисперсия случайной величины

    D [ X ] = M [ X 2 ] − (M [ X ]) 2 = 1 3 − (1 2) 2 = 1 12 . {\displaystyle D[X]=M\left-(M[X])^{2}={\frac {1}{3}}-\left({\frac {1}{2}}\right)^{2}={\frac {1}{12}}.}

В предыдущем мы привели ряд формул, позволяющих находить числовые характеристики функций, когда известны законы распределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; при этом мы вообще обходимся без каких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам аргументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к линейным функциям; однако некоторые элементарные нелинейные функции также допускают подобный подход.

В настоящем мы изложим ряд теорем о числовых характеристиках функций, представляющих в своей совокупности весьма простой аппарат вычисления этих характеристик, применимый в широком круге условий.

1. Математическое ожидание неслучайной величины

Сформулированное свойство является достаточно очевидным; доказать его можно, рассматривая неслучайную величину как частный вид случайной, при одном возможном значении с вероятностью единица; тогда по общей формуле для математического ожидания:

.

2. Дисперсия неслучайной величины

Если - неслучайная величина, то

3. Вынесение неслучайной величины за знак математического ожидания

, (10.2.1)

т. е. неслучайную величину можно выносить за знак математического ожидания.

Доказательство.

а) Для прерывных величин

б) Для непрерывных величин

.

4. Вынесение неслучайной величины за знак дисперсии и среднего квадратического отклонения

Если - неслучайная величина, а - случайная, то

, (10.2.2)

т. е. неслучайную величину можно выносить за знак дисперсии, возводя ее в квадрат.

Доказательство. По определению дисперсии

Следствие

,

т. е. неслучайную величину можно выносить за знак среднего квадратического отклонения ее абсолютным значением. Доказательство получим, извлекая корень квадратный из формулы (10.2.2) и учитывая, что с.к.о. - существенно положительная величина.

5. Математическое ожидание суммы случайных величин

Докажем, что для любых двух случайных величин и

т. е. математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий.

Это свойство известно под названием теоремы сложения математических ожиданий.

Доказательство.

а) Пусть - система прерывных случайных величин. Применим к сумме случайных величин общую формулу (10.1.6) для математического ожидания функции двух аргументов:

.

Ho представляет собой не что иное, как полную вероятность того, что величина примет значение :

;

следовательно,

.

Аналогично докажем, что

,

и теорема доказана.

б) Пусть - система непрерывных случайных величин. По формуле (10.1.7)

. (10.2.4)

Преобразуем первый из интегралов (10.2.4):

;

аналогично

,

и теорема доказана.

Следует специально отметить, что теорема сложения математических ожиданий справедлива для любых случайных величин - как зависимых, так и независимых.

Теорема сложения математических ожиданий обобщается на произвольное число слагаемых:

, (10.2.5)

т. е. математическое ожидание суммы нескольких случайных величин равно сумме их математических ожиданий.

Для доказательства достаточно применить метод полной индукции.

6. Математическое ожидание линейной функции

Рассмотрим линейную функцию нескольких случайных аргументов :

где - неслучайные коэффициенты. Докажем, что

, (10.2.6)

т. е. математическое ожидание линейной функции равно той же линейной функции от математических ожиданий аргументов.

Доказательство. Пользуясь теоремой сложения м. о. и правилом вынесения неслучайной величины за знак м. о., получим:

.

7. Дисп ep сия суммы случайных величин

Дисперсия суммы двух случайных величин равна сумме их дисперсий плюс удвоенный корреляционный момент:

Доказательство. Обозначим

По теореме сложения математических ожиданий

Перейдем от случайных величин к соответствующим центрированным величинам . Вычитая почленно из равенства (10.2.8) равенство (10.2.9), имеем:

По определению дисперсии

что и требовалось доказать.

Формула (10.2.7) для дисперсии суммы может быть обобщена на любое число слагаемых:

, (10.2.10)

где - корреляционный момент величин , знак под суммой обозначает, что суммирование распространяется на все возможные попарные сочетания случайных величин .

Доказательство аналогично предыдущему и вытекает из формулы для квадрата многочлена.

Формула (10.2.10) может быть записана еще в другом виде:

, (10.2.11)

где двойная сумма распространяется на все элементы корреляционной матрицы системы величин , содержащей как корреляционные моменты, так и дисперсии.

Если все случайные величины , входящие в систему, некоррелированы (т. е. при ), формула (10.2.10) принимает вид:

, (10.2.12)

т. е. дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых.

Это положение известно под названием теоремы сложения дисперсий.

8. Дисперсия линейной функции

Рассмотрим линейную функцию нескольких случайных величин.

где - неслучайные величины.

Докажем, что дисперсия этой линейной функции выражается формулой

, (10.2.13)

где - корреляционный момент величин , .

Доказательство. Введем обозначение:

. (10.2.14)

Применяя к правой части выражения (10.2.14) формулу (10.2.10) для дисперсии суммы и учитывая, что , получим:

где - корреляционный момент величин :

.

Вычислим этот момент. Имеем:

;

аналогично

Подставляя это выражение в (10.2.15), приходим к формуле (10.2.13).

В частном случае, когда все величины некоррелированны, формула (10.2.13) принимает вид:

, (10.2.16)

т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов.

9. Математическое ожидание произведения случайных величин

Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:

Доказательство. Будем исходить из определения корреляционного момента:

Преобразуем это выражение, пользуясь свойствами математического ожидания:

что, очевидно, равносильно формуле (10.2.17).

Если случайные величины некоррелированны , то формула (10.2.17) принимает вид:

т. е. математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий.

Это положение известно под названием теоремы умножения математических ожиданий.

Формула (10.2.17) представляет собой не что иное, как выражение второго смешанного центрального момента системы через второй смешанный начальный момент и математические ожидания:

. (10.2.19)

Это выражение часто применяется на практике при вычислении корреляционного момента аналогично тому, как для одной случайной величины дисперсия часто вычисляется через второй начальный момент и математическое ожидание.

Теорема умножения математических ожиданий обобщается и на произвольное число сомножителей, только в этом случае для ее применения недостаточно того, чтобы величины были некоррелированны, а требуется, чтобы обращались в нуль и некоторые высшие смешанные моменты, число которых зависит от числа членов в произведении. Эти условия заведомо выполнены при независимости случайных величин, входящих в произведение. В этом случае

, (10.2.20)

т. е. математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.

Это положение легко доказывается методом полной индукции.

10. Дисперсия произведения независимых случайных величин

Докажем, что для независимых величин

Доказательство. Обозначим . По определению дисперсии

Так как величины независимы, и

При независимых величины тоже независимы; следовательно,

,

Но есть не что иное, как второй начальный момент величины , и, следовательно, выражается через дисперсию:

;

аналогично

.

Подставляя эти выражения в формулу (10.2.22) и приводя подобные члены, приходим к формуле (10.2.21).

В случае, когда перемножаются центрированные случайные величины (величины с математическими ожиданиями, равными нулю), формула (10.2.21) принимает вид:

, (10.2.23)

т. е. дисперсия произведения независимых центрированных случайных величин равна произведению их дисперсий.

11. Высшие моменты суммы случайных величин

В некоторых случаях приходится вычислять высшие моменты суммы независимых случайных величин. Докажем некоторые относящиеся сюда соотношения.

1) Если величины независимы, то

Доказательство.

откуда по теореме умножения математических ожиданий

Но первый центральный момент для любой величины равен нулю; два средних члена обращаются в нуль, и формула (10.2.24) доказана.

Соотношение (10.2.24) методом индукции легко обобщается на произвольное число независимых слагаемых:

. (10.2.25)

2) Четвертый центральный момент суммы двух независимых случайных величин выражается формулой

где - дисперсии величин и .

Доказательство совершенно аналогично предыдущему.

Методом полной индукции легко доказать обобщение формулы (10.2.26) на произвольное число независимых слагаемых.


Top