пользователей: 30398
предметов: 12406
вопросов: 234839
Конспект-online
РЕГИСТРАЦИЯ ЭКСКУРСИЯ

Теоремы о математическом ожидании и дисперсии.

10.2. Теоремы о числовых характеристиках

В предыдущем image001.gif мы привели ряд формул, позволяющих находить числовые характеристики функций, когда известны законы распределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; при этом мы вообще обходимся без каких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам аргументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к линейным функциям; однако некоторые элементарные нелинейные функции также допускают подобный подход.

В настоящем image001.gif мы изложим ряд теорем о числовых характеристиках функций, представляющих в своей совокупности весьма простой аппарат вычисления этих характеристик, применимый в широком круге условий.

 

1. Математическое ожидание неслучайной величины

 

Если image002.gif - неслучайная величина, то

image003.gif.

Сформулированное свойство является достаточно очевидным; доказать его можно, рассматривая неслучайную величину image002.gif как частный вид случайной, при одном возможном значении с вероятностью единица; тогда по общей формуле для математического ожидания:

image004.gif.

 

2. Дисперсия неслучайной величины

 

Если image002.gif - неслучайная величина, то

image005.gif.

Доказательство. По определению дисперсии

image006.gif.

 

3. Вынесение неслучайной величины за знак математического ожидания

 

Если image002.gif - неслучайная величина, а image007.gif- случайная, то

image008.gif,                 (10.2.1)

т. е. неслучайную величину можно выносить за знак математического ожидания.

Доказательство.

а) Для прерывных величин

image009.gif.

б) Для непрерывных величин

image010.gif.

 

4. Вынесение неслучайной величины за знак дисперсии и среднего квадратического отклонения

 

Если image002.gif - неслучайная величина, а image007.gif - случайная, то

image011.gif,                  (10.2.2)

т. е. неслучайную величину можно выносить за знак дисперсии, возводя ее в квадрат.

Доказательство. По определению дисперсии

image012.gif.

Следствие

image013.gif,

т. е. неслучайную величину можно выносить за знак среднего квадратического отклонения ее абсолютным значением. Доказательство получим, извлекая корень квадратный из формулы (10.2.2) и учитывая, что с.к.о. - существенно положительная величина.

 

5. Математическое ожидание суммы случайных величин

 

Докажем, что для любых двух случайных величин image007.gif и image014.gif

image015.gif,                          (10.2.3)

т. е. математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий.

Это свойство известно под названием теоремы сложения математических ожиданий.

Доказательство.

а) Пусть image016.gif - система прерывных случайных величин. Применим к сумме случайных величин общую формулу (10.1.6) для математического ожидания функции двух аргументов:

image017.gif

image018.gif.

Ho image019.gif представляет собой не что иное, как полную вероятность того, что величина image007.gif примет значение image020.gif:

image021.gif;

следовательно,

image022.gif.

Аналогично докажем, что

image023.gif,

и теорема доказана.

б) Пусть image016.gif - система непрерывных случайных величин. По формуле (10.1.7)

image024.gif

image025.gif.                  (10.2.4)

Преобразуем первый из интегралов (10.2.4):

image026.gif

image027.gif;

аналогично

image028.gif,

и теорема доказана.

Следует специально отметить, что теорема сложения математических ожиданий справедлива для любых случайных величин - как зависимых, так и независимых.

Теорема сложения математических ожиданий обобщается на произвольное число слагаемых:

image029.gif,                    (10.2.5)

т. е. математическое ожидание суммы нескольких случайных величин равно сумме их математических ожиданий.

Для доказательства достаточно применить метод полной индукции.

 

6. Математическое ожидание линейной функции

 

Рассмотрим линейную функцию нескольких случайных аргументов image030.gif:

image031.gif,

где image032.gif - неслучайные коэффициенты. Докажем, что

image033.gif,                         (10.2.6)

т. е. математическое ожидание линейной функции равно той же линейной функции от математических ожиданийаргументов.

Доказательство. Пользуясь теоремой сложения м. о. и правилом вынесения неслучайной величины за знак м. о., получим:

image034.gif

image035.gif.

 

7. Диспepсия суммы случайных величин

 

Дисперсия суммы двух случайных величин равна сумме их дисперсий плюс удвоенный корреляционный момент:

image036.gif.                 (10.2.7)

Доказательство. Обозначим

image037.gif.                             (10.2.8)

По теореме сложения математических ожиданий

image038.gif.                       (10.2.9)

Перейдем от случайных величин image039.gif к соответствующим центрированным величинам image040.gif. Вычитая почленно из равенства (10.2.8) равенство (10.2.9), имеем:

image041.gif.

По определению дисперсии

image042.gif

image043.gif,

что и требовалось доказать.

Формула (10.2.7) для дисперсии суммы может быть обобщена на любое число слагаемых:

image044.gif,            (10.2.10)

где image045.gif - корреляционный момент величин image046.gifimage047.gif знак image048.gif под суммой обозначает, что суммирование распространяется на все возможные попарные сочетания случайных величин image049.gif.

Доказательство аналогично предыдущему и вытекает из формулы для квадрата многочлена.

Формула (10.2.10) может быть записана еще в другом виде:

image050.gif,                                 (10.2.11)

где двойная сумма распространяется на все элементы корреляционной матрицы системы величин image049.gif, содержащей как корреляционные моменты, так и дисперсии.

Если все случайные величины image049.gif, входящие в систему, некоррелированы (т. е. image051.gif при image052.gif), формула (10.2.10) принимает вид:

image053.gif,                                 (10.2.12)

т. е. дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых.

Это положение известно под названием теоремы сложения дисперсий.

 

8. Дисперсия линейной функции

 

Рассмотрим линейную функцию нескольких случайных величин.

image031.gif,

где image032.gif - неслучайные величины.

Докажем, что дисперсия этой линейной функции выражается формулой

image054.gif,                     (10.2.13)

где image045.gif - корреляционный момент величин image046.gifimage047.gif.

Доказательство. Введем обозначение:

image055.gif.

Тогда

image056.gif.                      (10.2.14)

Применяя к правой части выражения (10.2.14) формулу (10.2.10) для дисперсии суммы и учитывая, что image057.gif, получим:

image058.gif,       (10.2.15)

где image059.gif - корреляционный момент величин image060.gif:

image061.gif.

Вычислим этот момент. Имеем:

image062.gif;

аналогично

image063.gif.

Отсюда

image064.gif.

Подставляя это выражение в (10.2.15), приходим к формуле (10.2.13).

В частном случае, когда все величины image049.gif некоррелированны, формула (10.2.13) принимает вид:

image065.gif,                     (10.2.16)

т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов.

 

9. Математическое ожидание произведения случайных величин

 

Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:

image066.gif.                        (10.2.17)

Доказательство. Будем исходить из определения корреляционного момента:

image067.gif,

где

image068.gifimage069.gif.

Преобразуем это выражение, пользуясь свойствами математического ожидания:

image070.gif

image071.gif,

что, очевидно, равносильно формуле (10.2.17).

Если случайные величины image016.gif некоррелированны image072.gif, то формула (10.2.17) принимает вид:

image073.gif,                                  (10.2.18)

т. е. математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий.

Это положение известно под названием теоремы умножения математических ожиданий.

Формула (10.2.17) представляет собой не что иное, как выражение второго смешанного центрального момента системы через второй смешанный начальный момент и математические ожидания:

image074.gif.                              (10.2.19)

Это выражение часто применяется на практике при вычислении корреляционного момента аналогично тому, как для одной случайной величины дисперсия часто вычисляется через второй начальный момент и математическое ожидание.

Теорема умножения математических ожиданий обобщается и на произвольное число сомножителей, только в этом случае для ее применения недостаточно того, чтобы величины были некоррелированны, а требуется, чтобы обращались в нуль и некоторые высшие смешанные моменты, число которых зависит от числа членов в произведении. Эти условия заведомо выполнены при независимости случайных величин, входящих в произведение. В этом случае

image075.gif,                   (10.2.20)

т. е. математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.

Это положение легко доказывается методом полной индукции.

 

10. Дисперсия произведения независимых случайных величин

 

Докажем, что для независимых величин image076.gif

image077.gif.              (10.2.21)

Доказательство. Обозначим image078.gif. По определению дисперсии

image079.gif.

Так как величины image076.gif независимы, image080.gif и

image081.gif.

При независимых image076.gif величины image082.gif тоже независимы; следовательно,

image083.gif,  image084.gif

и

image085.gif.                 (10.2.22)

Но image086.gif есть не что иное, как второй начальный момент величины image007.gif, и, следовательно, выражается через дисперсию:

image087.gif;

аналогично

image088.gif.

Подставляя эти выражения в формулу (10.2.22) и приводя подобные члены, приходим к формуле (10.2.21).

В случае, когда перемножаются центрированные случайные величины (величины с математическими ожиданиями, равными нулю), формула (10.2.21) принимает вид:

image089.gif,                        (10.2.23)

т. е. дисперсия произведения независимых центрированных случайных величин равна произведению их дисперсий.

 

11. Высшие моменты суммы случайных величин

 

В некоторых случаях приходится вычислять высшие моменты суммы независимых случайных величин. Докажем некоторые относящиеся сюда соотношения.

1) Если величины image076.gif независимы, то

image090.gif.              (10.2.24)

Доказательство.

image091.gif

image092.gif

image093.gif

image094.gif,

откуда по теореме умножения математических ожиданий

image095.gif.

Но первый центральный момент image096.gif для любой величины равен нулю; два средних члена обращаются в нуль, и формула (10.2.24) доказана.

Соотношение (10.2.24) методом индукции легко обобщается на произвольное число независимых слагаемых:

image097.gif.                   (10.2.25)

2) Четвертый центральный момент суммы двух независимых случайных величин выражается формулой

image098.gif.                      (10.2.26)

где image099.gif - дисперсии величин image007.gif и image014.gif.

Доказательство совершенно аналогично предыдущему.

Методом полной индукции легко доказать обобщение формулы (10.2.26) на произвольное число независимых слагаемых:

image100.gif.                    (10.2.27)

Аналогичные соотношения в случае необходимости легко вывести и для моментов более высоких порядков.

 

12. Сложение некоррелированных случайных векторов

 

Рассмотрим на плоскости image101.gif два некоррелированных случайных вектора: вектор image102.gif с составляющими image103.gif и вектор image104.gif с составляющими image105.gif (рис. 10.2.1).

image4

Рис. 10.2.1

Рассмотрим их векторную сумму:

image107.gif,

т. е. вектор с составляющими:

image108.gif,

image109.gif.

Требуется определить числовые характеристики случайного вектора image110.gif - математические ожидания image111.gifдисперсии и корреляционный момент составляющих: image112.gif.

По теореме сложения математических ожиданий:

image113.gif;

image114.gif.

По теореме сложения дисперсий

image115.gif;

image116.gif.

Докажем, что корреляционные моменты также складываются:

image117.gif,             (10.2.28)

где image118.gif - корреляционные моменты составляющих каждого из векторов image102.gif и image104.gif.

Доказательство. По определению корреляционного момента:

image119.gif

image120.gif.                 (10.2.29)

Так как векторы image102.gif и image104.gif некоррелированны, то два средних члена в формуле (10.2.29) равны нулю; два оставшихся члена представляют собой  image121.gifи image122.gif; формула (10.2.28) доказана.

Формулу (10.2.28) иногда называют «теоремой сложения корреляционных моментов».

Теорема легко обобщается на произвольное число слагаемых. Если имеется две некоррелированные системыслучайных величин, т. е. два image123.gif-мерных случайных вектора:

image124.gif с составляющими image030.gif,

image125.gif с составляющими image126.gif,

то их векторная сумма

image127.gif

имеет корреляционную матрицу, элементы которой получаются суммированием элементов корреляционных матрицслагаемых:

image128.gif,              (10.2.30)

где image129.gif обозначают соответственно корреляционные моменты величин image130.gif;image131.gifimage132.gif.

Формула (10.2.30) справедлива как при image133.gif, так и при image052.gif. Действительно, составляющие вектора image134.gif равны:

image135.gif

По теореме сложения дисперсий

image136.gif,

или в других обозначениях

image137.gif.

По теореме сложения корреляционных моментов при image052.gif

image128.gif.

В математике суммой двух матриц называется матрица, элементы которой получены сложением соответствующих элементов этих матриц. Пользуясь этой терминологией, можно сказать, что корреляционная матрица суммы двух некоррелированных случайных векторов равна сумме корреляционных матриц слагаемых:

 image138.gif.                  (10.2.31)

Это правило по аналогии с предыдущими можно назвать «теоремой сложения корреляционных матриц».


16.01.2019; 17:46
хиты: 80
рейтинг:0
Точные науки
математика
теория вероятности
для добавления комментариев необходимо авторизироваться.
  Copyright © 2013-2024. All Rights Reserved. помощь