Болезни Военный билет Призыв

Функция совместного распределения случайных величин. §4. Совместное распределение нескольких случайных величин. Многомерный нормальный закон

В ряде случаев приходится рассматривать так называемые многомерные случайные величины, т. е. такие, значения которых распределены в пространстве двух и более измерений.

Для многомерных случайных величин также существуют законы и функции распределения, с помощью которых можно находить любые функции от этих случайных величин.

Часто функцию распределения для многомерной случайной величины можно получить из функций распределения для составляющих случайных величин.

Получение такой функции распределения рассмотрим на следующем примере.

Пусть нас интересует вероятность события, заключающегося в одновременном появлении у случайной величины значений в интервале от до случайной величины у значений в интервале от у до

Какова же будет эта вероятность?

Если случайные величины х и у являются независимыми, то по теореме умножения вероятностей вероятность одновременного появления двух независимых событий определяется их произведением:

Очевидно стоящее справа произведение функций распределения представляет собой по смыслу функцию распределения для двух случайных величин имеющую также смысл двумерной плотности вероятности, т. е. вероятности, отнесенной к площади

Аналогично вероятность того, что три независимые случайные величины одновременно находятся в соответствующих интервалах определяется выражением:

Произведение трех функций распределения будет плотностью вероятности или функцией распределения трех случайных величин:

Аналогично для независимых случайных величин будет записываться многомерная функция распределения:

Если имеется некоторая функция этих случайных величин то с помощью многомерной функции распределения можно определить ее среднее значение по общей формуле:

Иногда возникает обратная задача; по функции распределения для трех случайных величин требуется найти функцию распределения для двух или одной случайной величины.

В большинстве случаев находят непосредственным интегрированием по всей области изменения случайной величины чтобы учесть все ее возможные значения:

Аналогично из функций распределения двух случайных величин можно получить функцию распределения для одной из них с помощью интегрирования по другой:

Объединяя формулы (2.28) и (2.29), получим следующее равенство:

Обобщая наши рассуждения на любое число независимых случайных величин, можно записать следующую формулу:

При этом функция распределения по любому числу случайных величин должна удовлетворять условию нормировки:

Часто при рассмотрении нескольких случайных величин пользуются геометрической интерпретацией. Значения одной случайной величины изображают на некоторой прямой или оси. В случае двух случайных величин х и у их можно изобразить в виде двух декартовых осей координат. Тогда «пространством» существования двух случайных величин будет плоскость. Для трех независимых случайных величин мы получим трехмерное пространство.

Вообще для случайных величин можно ввести -мерное пространство, если сопоставить каждой случайной величине ортогональную ось (всего осей).

Соответственно функция распределения будет задана на прямой, плоскости или в -мерном пространстве этих случайных величин.

Вероятности будут определяться, кроме функции распределения, еще и элементами пространства, а именно:

Обозначая все случайные величины буквой с соответствующим индексом, т. е.

элемент -мерного пространства удобнее записывать в виде:

В случае трехмерного пространства для векторных случайных величин элемент пространства часто записывается следующим образом: для координат

для скоростей

Особенно удобно геометрическое представление в трехмерном пространстве векторных случайных величин. Например, в пространстве скоростей, обобщенных импульсов или волновых векторов.

При этом в пространстве случайных величин можно встретиться с преобразованием координат от прямоугольных к полярным или к сферическим. Рассмотрим, как при этом преобразуется выражение для вероятности.

Рис. 6. Переход от декартовых координат к полярным

В качестве простейшей функции распределения возьмем равномерное распределение. Пусть мы имеем две случайные величины х и у, равномерно распределенные вдоль соответствующих осей, т. е.

Распределение этих двух случайных величин на плоскости также будет равномерным:

т. е. вероятность будет зависеть только от величины выбранного элемента площади Чем больше будет элемент площади, тем больше соответствующая вероятность.

распределении вероятность пропорциональна соответствующему элементу площади, то получим:

Но обычно переход к полярным координатам делается в том случае, если нас не интересует зависимость от угла и мы интересуемся только значением модуля Тогда

Это соответствует тому, что за элемент площади можно взять площадь кольца радиусом и шириной т. е.

Аналогично в случае трех случайных величин при равномерном распределении каждой величины распределение в объеме также будет равномерным и, следовательно, вероятность будет пропорциональна элементу объема:

Если положение в таком пространстве характеризовать случайными величинами и связанными с формулами сферических координат (рис. 7):

то элемент объема необходимо также представить в сферических координатах, т. е. вместо следует написать:

Поэтому вероятность запишется так:

Если распределение в пространстве равномерное, то оно не зависит от углов и . И, чтобы найти распределение только по радиусу, нужно проинтегрировать по углам.

Пусть с испытанием связаны n случайных величин  1 ,  2 ,….,ξ n . Укажем кратко, как введенные в этой главе понятия переносятся на этот случай.

1. Совместной функцией распределения случайных величин  1 ,  2 ,….,ξ n называется функция

Совместной плотностью вероятности случайных величин  1 ,  2 ,….,ξ n называется функция

Имеет место равенство

2. Обозначим а i , σ j математическое ожидание и СКО случайной величины ξ i , к ij – ковариацию случайных величин ξ i , ξ j:

называется дисперсионной матрицей случайных величин  1 ,  2 ,….,ξ n . Отметим следующие свойства матрицы D.

1 0 . Элементы главной диагонали матрицы D – дисперсии случайных величин  1 ,  2 ,….,ξ n:

2 0 . Матрица D симметрическая: k ij =k ji .

3 0 . Собственные числа матрицы D неотрицательны.

Свойства 1 0 , 2 0 очевидны. Предлагаем читателю проверить свойство 3 0 для частного случая n=2. В этом случае матрица D имеет вид

(28)

где r – коэффициент корреляции случайных величин  1 ,  2 .

3. В §3 этой главы было введено понятие совместного нормального распределения случайных величин  1 ,  2 – см.формулу (25). Это понятие обобщается следующим образом. Говорят, что случайные величины  1 ,  2 ,….,ξ n имеют совместное нормальное распределение, если совместная плотность вероятности дается формулой

где - определитель дисперсионной матрицыD,

с ij – элементы матрицы C=D -1 .

Нетрудно проверить, что в частном случае n=2 это определение совпадает с определением (25); для этого нужно воспользоваться формулой (28) для матрицы D и формулой обращения матрицы второго порядка с отличным от нуля определителем:

(предлагаем читателю выполнить проверку самостоятельно).

Справедливы утверждения: если  1 ,  2 ,….,ξ n имеют совместное нормальное распределение, то каждая из них отдельно также нормальна; если каждая ξ i нормальна и при этом  1 ,  2 ,….,ξ n независимы, то их совместное распределение также нормально, и имеет место формула

где f i (x) – плотность вероятности ξ i . В общей ситуации из нормальности каждой отдельно ξ i не вытекает нормальность совместного распределения.

Понятие совместного нормального распределения играет важную роль в приложениях теории вероятностей.

Глава 5. Закон больших чисел. Предельные теоремы

Под законом больших чисел понимают закономерности вмассовых случайных явлениях, когда взаимодействие большого числа случайных факторов приводит к неслучайному результату. Пример закономерности такого типа приведен во введении: доля наступления случайного события в длинной серии независимых одинаковых испытаний практически неслучайна. Другой замечательный пример: оказывается, в ряде случаев закон распределения суммы большого числа случайных слагаемых не зависит от законов распределения слагаемых и может быть предсказан! Назначение предельных теорем теории вероятностей: дать строгие формулировки и обоснования различных форм закона больших чисел. В этой главе мы кратко рассмотрим результаты такого типа.

§1. Закон больших чисел в форме Чебышева

На практике хорошо известна следующая закономер­ность, которую можно сформулировать так: среднее арифме­ти­ческое большого числа независимых однотипных случай­ных факторов практически неслучайно. Например, среднее арифме­тическое большого числа измерений одной и той же величины практически не отличается от истинного значения этой вели­чины; средняя кинетическая энергия большого числа хаотически движущихся молекул практически неслучайна и характеризует температуру тела.

Методы теории вероятностей позволяют дать строгую математическую формулировку этого закона.

Пусть имеется бесконечная последовательность слу­чай­ных величин

 1 , 2 , … , n , … (29)

Будем кратко называть случайные вели­чины (29) однотипными, если они имеют одно и тоже математическое ожиданиеа и одну и туже дисперсиюD .

Теорема. Пусть случайные величины (29) однотипны и независимы, тогда имеет место соотношение

приn , (30)

где а =М [ k ],k = 1, 2, …, – любое как угодно малое положительное число.

Это означает: при достаточно большом n с практической достоверностью (с вероятностью100%) выполняется равенство

.

Эта теорема впервые была доказана русским математиком П.Л. Чебышевым. Доказательство теоремы основано на трех леммах.

Лемма 1. Пусть случайная величина≥ 0. Тогда спра­ведливо неравенство

Р (≥) ≤, (31)

где – любое положительное число.

Доказательство проведем для непре­рывной случайной величины. Плотность вероятности случайной величиныf (х ) = 0 прих < 0, так как≥ 0.

По определению математического ожидания имеем:



(≥),

откуда следует неравенство (31).

Лемма 2. Пусть– случайная величина с числовыми характеристиками (а ,D ), тогда справедливо неравенство:

Р (|–a | < ) ≥ 1 – .

Доказательство. Имеем

Р (|–a | ≥ ) =P ((–a ) 2 ≥ 2) ≤
.

Здесь использовано неравенство (31) при  = ( – a ) 2 ,  = 2 .

Из полученного неравенства следует

Р (|–a | < ) = 1 –Р (|–a | ≥ ) ≥ 1 – .

Лемма 3. Пусть 1 , 2 , …, n - независимые однотипные случайные величины с числовыми характеристиками (а ,D). Тогда при любом>0 справедливо неравенство

≥ 1 – . (32)

где – любое положительное число, a = M [ i ],D = D [ i ],i = 1, 2, …,n ..

Неравенство (32) называется неравенством Чебышева .

Доказательство. Обозначим

.

Из свойств математиче­ского ожидания и дисперсии для независимых случайных величин следует:

Таким образом, случайная величина имеет числовые характеристики
; применяя к ней лемму 2, получим требуемое неравенство (32).

Доказательство теоремы Чебышева.

В силу неравенства Чебышева (32) имеем при любом n двойное неравенство

1 ≥
≥ 1 – .

Переходя к пределу при n и учитывая теорему сравнения из теории пределов, получим требуемое соотношение (30).

Замечание. Введем удобный термин. Пусть имеется последовательность случайных величин

 1 , 2 , …, n , … . (33)

Говорят, что последовательность (33) сходится по вероятности к неслучайной величинеа и пишут

приn ,

если для любого > 0 выполняется соотношение

Р (| n a | < )1 приn .

Очевидно, теорема Чебышева может быть сформулирована так: среднее арифметическое независимых однотипных случайных величин при неограниченном увеличении числа слагаемых сходится по вероятности к их общему математическому ожиданию.

Пример. Сколько надо провести независимых равноточных измерений данной величины, чтобы с вероятностью не менее 0,95 гарантировать отклонение среднего арифметического этих измерений от истинного значения величины не более, чем на 1 (по абсолютной величине), если СКО каждого измерения не превосходит 5?

Решение. Пусть i – результатi -го измерения (i = 1,2,…,n ),a – истинное значение измеряемой величины, то естьM [ i ] =a при любомi ; с учетом равноточности измерений i имеют одинаковую дисперсиюD≤ 25. В силу независимости измерений i – независимые случайные величины.

Необходимо найти n , при котором

≥ 0,95.

В соответствии с неравенством Чебышева (32) данное неравенство будет выпол­няться, если

1 – ≥ 1– ≥ 0,95, откуда легко найти

n ≥500 измерений.

Случайные вектора

Совместная плотность распределения вероятности двух случайных величин

Пусть у функции существуют производные по, а также вторая смешанная производная. Совместной (или двумерной) плотностью распределения вероятностей случайных величин и называется функция

Рассмотрим основные свойства двумерной плотности вероятности.

1. Справедливо соотношение:

Для доказательства используем равенство (51.1), тогда:

Теперь из равенства (50.2) следует (51.2). Это соотношение имеет практическое значение, поскольку позволяет вычислять вероятность - попадания двумерного вектора в прямоугольник, определяемый отрезками и через плотность вероятности.

2. Рассмотрим частный случай соотношения (51.2). Пусть, тогда (51.2) принимает вид:

Это соотношение определяет функцию распределения вероятностей через плотность вероятности и является обратным по отношению к равенству (51.1).

3. Рассмотрим (51.2) при условиях: , тогда из (51.2) следует равенство:

поскольку - как вероятность достоверного события. Соотношение (51.5) называется условием нормировки для плотности вероятности.

4. Если - плотность вероятности вектора, и - плотность вероятности случайной величины, то

Это равенство называется свойством согласованности плотности второго порядка и плотности первого порядка. Если известна плотность второго порядка, то по формуле (51.6) можно вычислить плотность вероятности - случайной величины. Аналогично,

Доказательство (51.6) получим на основе равенства

Представим через плотность согласно (51.4), а через, тогда из (51.8) следует

Дифференцирование (51.9) по приводит к равенству (51.6), что и завершает доказательство.

5. Случайные величины и называются независимыми, если независимы случайные события и при любых числах и. Для независимых случайных величин и:

Доказательство следует из определений функций и, . Поскольку и - независимые случайные величины, то события вида: и - независимые для любых и. Поэтому

Справедливо равенство (51.10). Продифференцируем (51.10) по и, тогда согласно (51.1) получаем следствие для плотностей:

6. Пусть - произвольная область на плоскости, тогда

Вероятность того, что вектор принимает любые значения из области определяется интегралом по от плотности вероятности.

Рассмотрим пример случайного вектора с равномерным распределением вероятностей, который имеет плотность вероятности на прямоугольнике и - вне этого прямоугольника. Число определяется из условия нормировки:

Вклад Б.В. Гнеденко в развитие теории вероятностей

В 1930-е годы внимание Бориса Владимировича привлекли задачи, связанные с суммированием независимых случайных величин. Интерес к таким задачам появился в математике еще в 17 веке...

Математическая статистика

Используя точечные оценки параметров нормального закона распределения и запишем плотность вероятности и функцию распределения...

Непрерывные случайные величины. Нормальный закон распределения

Пусть непрерывная случайная величина X задана плотностью распределения f(x). Допустим, что все возможные значения X принадлежат отрезку [а, b]. Разобьем этот отрезок на п частичных отрезков длиной,......

Случайные вектора

В задачах со случайным исходом обычно приходится учитывать взаимодействие нескольких случайных величин. Это естественным образом приводит к понятию многомерных (векторных) случайных величин или совокупности нескольких случайных величин...

Случайные вектора

Условной плотностью распределения вероятностей случайной величины при условии называется функция: . (53.1) Соотношение (52.5) подставим в (53.1), тогда. (53.2) Отсюда следует. (53.3) - формула умножения для плотностей...

Случайные вектора

Для независимых случайных величин и ковариация. В отличие от этого рассмотрим другой крайний случай, когда случайные величины и связаны функциональной зависимостью: , (56.1) где - числа. Вычислим ковариацию случайных величин и: . (56...

Случайные вектора

Пусть случайный вектор имеет функцию распределения вероятностей и существует частная производная, (61.1) тогда функция называется плотностью распределения вероятностей случайного вектора или - мерной плотностью вероятности...

Случайные вектора

Пусть - случайные величины, имеющие совместную плотность и совместную функцию распределения вероятностей. Пусть также заданы функций, переменных. Вместо аргументов функции подставим случайные величины, тогда (64...

Случайные вектора

66.1. Соотношение (65.11), определяющее плотность вероятности преобразованной величины через плотность исходной случайной величины, можно обобщить на случай преобразования случайных величин...

Случайные процессы

Если имеет производную, (71.1) тогда эта производная называется -мерной плотностью распределения вероятностей случайного процесса. Основные свойства плотности (71...

Теория вероятностей

Случайная величина - величина, численное значение которой может меняться в зависимости от результата стохастического эксперимента. Дискретной назовём случайную величину, возможные значения которой образуют конечное множество...

Теория вероятностей

Случайная величина - величина, численное значение которой может меняться в зависимости от результата стохастического эксперимента. Непрерывной назовём случайную величину, которая может принять любое значение из некоторого промежутка...

Теория вероятности и случайные величины

Пусть непрерывная случайная величина Х задана функцией распределения f(x). Допустим, что все возможные значения случайной величины принадлежат отрезку . Определение. Математическим ожиданием непрерывной случайной величины Х...

Что такое случайная величина

Различают два вида случайных величин: дискретные и непрерывные. К дискретным относятся те случайные величины, множество значений которых конечно или фиксировано. Примером дискретной случайной величины...

Элементы теории вероятностей

Математическое ожидание: Величина (6) называется математическим ожиданием. По существу, - это среднее значение с учетом веса реализации текущего значения. Чтобы пояснить понятие веса, примем здесь, что - дискретная величина...

Воспользуемся изложенным выше общим методом для решения одной задачи, а именно для нахождения закона распределения суммы двух случайных величин. Имеется система двух случайных величин (X,Y) с плотностью распределения f(x,у).

Рассмотрим сумму случайных величин X и Y: и найдем закон распределения величины Z. Для этого построим на плоскости хОу линию, уравнение которой (рис. 6.3.1). Это - прямая, отсекающая на осях отрезки, равные z. Прямая делит плоскость хОу на две части; правее и выше ее ; левее и ниже

Область D в данном случае - левая нижняя часть пло­скости хОу, заштрихованная на рис. 6.3.1. Согласно формуле (6.3.2) имеем:

Это - общая формула для плотности распределения суммы двух случайных величин.

Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы:

Требуется произвести композицию этих законов, т. е. найти закон распределения величины: .

Применим общую формулу для композиции законов рас­пределения:

Подставляя эти выражения в уже встречавшуюся нам формулу

а это есть не что иное, как нормальный закон с центром рассеи­вания

К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений.

Не раскрывая скобок и не производя преобразований в подынте­гральной функции (6.3.3), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида

где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С - в квадрате. Имея это в виду и применяя формулу(6.3.4), приходим к заключению, что g(z) есть показательная функция, показатель степени которой - квадратный трехчлен относительно z, а плотность аспределения; такого вида соответствует нормальному закону. Таким образом, мы; приходим к чисто качественному выводу: закон распределения вели­чины z должен быть нормальным. Чтобы найти параметры этого закона - и - воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий.

По теореме сложения математических ожиданий . По теореме сложения дисперсий или откуда следует формула (6.3.7).

Переходя от среднеквадратических отклонений к пропорциональным им вероятным отклонениям, получим:
.

Таким образом, мы пришли к следующему правилу: при компо­зиции нормальных законов получается снова нормальный за­кон, причем математические ожидания и дисперсии (или квад­раты вероятных отклонений) суммируются.

Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин.

Если имеется n независимых случайных величин: подчиненных нормальным законам с центрами рассеивания и среднеквадратическими отклонениями ,то величина также подчинена нормальному закону с параметрами

Если система случайных величин (X, Y) распределена по нормальному закону, но величины X, Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (6.3.1), что закон распределения величины есть тоже нормальный закон. Центры рассеивания по-прежнему складываются алгебраически, но для среднеквадратических отклонений правило становится более сложным: , где, r - коэффициент корреляции величин X и Y.

При сложении нескольких зависимых случайных величин, подчиненных в своей совокупности нормальному закону, закон распределения суммы также оказывается нормальным с параметрами

где - коэффициент корреляции величин X i , X j , а суммирование распространяется на все различные попарные комбинации величин .

Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это - так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа. Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. Закон равномерной плотности неустойчив: при композиции двух законов равномерной плотности на участках от 0 до 1 мы получили закон Симпсона.

Устойчивость нормального закона - одно из существенных условий его широкого распространения на практике. Однако свойством устойчивости, кроме нормального, обладают и некоторые другие законы распределения. Особенностью нор­мального закона является то, что при композиции достаточно боль­шого числа практически произвольных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча­стках от 0 до 1. Получающийся при этом закон распределения g(z) изображен на рис. 6.3.1. Как видно из чертежа, график функции g(z) весьма напоминает график нормального закона.

Пусть пространство элементарных исходов  случайного эксперимента таково, что каждому исходу  i j ставиться в соответствие значение случайной величины , равное x i и значение случайной величины , равное y j .

1. Представим себе большую совокупность деталей, имеющих вид стержня. Эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать  и толщину- (можно указать другие параметры-объем, вес, чистота обработки, выраженная в стандартных единицах).

2. Если рассмотреть акции двух различных корпораций, то в данный день биржевых торгов они каждая из них характеризуется определённой доходностью. Случайные величины  и  –это доходности акций этих корпораций.

В этих случаях мы можем говорить о совместном распределении случайных величин  и  или о “двумерной” случайной величине.

Если  и  дискретны и принимают конечное число значений ( – n значений, а  – k значений), то закон совместного распределения случайных величин  и  можно задать, если каждой паре чисел x i , y j (где x i принадлежит множеству значений , а y j -множеству значений ) поставить в соответствие вероятность p i j , равную вероятности события, объединяющего все исходы  i j (и состоящего лишь из этих исходов), которые приводят к значениям  = xi ;  = y j .

Такой закон распределения можно задать в виде таблицы:

y 1

y j

y k

р 1 j

р 1 k

x i

р i 1

р i 2

р i j

р i k

P i

x n

р n 1

р n 2

р n j

р n k

P n

P j

P k

Очевидно

Если просуммировать все р i j в i –й строке, то получим –вероятность того, что случайная величина  примет значение x i . Аналогично, если просуммировать все р i j в j –м столбце, то получим

вероятность того, что  принимает значение y j .

Соответствие x i P i (i = 1,2,,n ) определяет закон распределения , также как соответствие y j P j (j = 1,2,,k ) определяет закон распределения случайной величины .

Очевидно ,.

Раньше мы говорили, что случайные величины  и  независимы, если

pij=Pi P j (i= 1,2,,n ; j= 1,2,,k).

Если это не выполняется, то  и  зависимы.

В чем проявляется зависимость случайных величин  и  и как ее выявить из таблицы?

Рассмотрим столбец y 1 . Каждому числу x i поставим в соответствие число

p i / 1 = (1)

которое будем называть условной вероятностью = x i при =y 1 . Обратите внимание на то, что это не вероятность P i события = x i , и сравните формулу (1) с уже известной формулой условной вероятности .

Соответствие

x i р i / 1 , (i =1,2,,n )

будем называть условным распределением случайной величины  при =y 1 . Очевидно .

Аналогичные условные законы распределения случайной величины  можно построить при всех остальных значениях , равных y 2 ; y 3 ,, y n ,ставя в соответствие числу x i условную вероятность p i / j =().

В таблице приведён условный закон распределения случайной величины  при =y j

x i

x n

p i / j

Можно ввести понятие условного математического ожидания  при  = y j

Заметим, что  и  равноценны. Можно ввести условное распределение  при =x i соответствием

(j = 1,2,,k )

Также можно ввести понятие условного математического ожидания случайной величины  при =x i :

Из определения следует, что если  и  независимы, то все условные законы распределения одинаковы и совпадают с законом распределения  (напоминаем, что закон распределения  определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М (/ = y j ) при j = 1,2,,k , которые равны М.

Если условные законы распределения  при различных значениях  различны, то говорят, что между  и  имеет место статистическая зависимость.

Пример I. Пусть закон совместного распределения двух случайных величин  и  задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины , а первая и последняя строки – закон распределения случайной величины .

Полигоны условных распределений можно изобразить на трехмерном графике (рис. 1).

Здесь явно просматри­вается зависимость услов­ного закона распределения  от величины .

Пример II. (Уже встре­чавшийся).

Пусть даны две неза­висимые случайные вели­чины  и  с законами распределения

Построим таблицу закона совместного распределения  и .

Чтобы получить =2 и =0, нужно чтобы  приняла значение 0, а  приняла значение 2. Так как  и  независимы, то

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Очевидно также Р(=3; =0)=0.

Построим полигоны условных распределений. Здесь зависимость  от  довольно близка к функ­циональной: значению =1 соответствует единст­венное =2, значению =2 соот­ветствует единственное =3, но при =0 мы можем говорить лишь, что  с вероят­ностью 3/4 принимает значение 1 и с вероят­ностью 1/4 – значение 2.

Пример III.

Рассмотрим закон совместного распределения  и , заданный таблицей

В этом случае выполняется условие P(=x i ; =y j )=P(=x i )P(=y j ), i , j =1,2,3

Построим законы условных распределений

р  =1 ()=р  = 2 ()=р  = 3 ()=р  = 4 ()

Законы условных распределений  не отличаются друг от друга при =1,2,3 и совпадают с законом распределения случайной величины . В данном случае  и  независимы.

Характеристикой зависимости между случайными величинами  и  служит математическое ожидание произведения отклонений  и  от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

cov(; ) = M ((–M )(–M ))

Пусть  = x 1 , x 2 , x 3 ,, x n ,  = y 1 , y 2 , y 3 ,,y k . Тогда

cov(; )=(2)

Эту формулу можно интерпретировать так. Если при больших значениях  более вероятны большие значения , а при малых значениях  более вероятны малые значения , то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

Если же более вероятны произведения (x i M )(y j M ), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям  в основном приводят к малым значениям  и наоборот, то ковариация принимает большие по модулю отрицательные значения.

В первом случае принято говорить о прямой связи: с ростом  случайная величина  имеет тенденцию к возрастанию.

Во втором случае говорят об обратной связи: с ростом  случайная величина  имеет тенденцию к уменьшению или падению.

Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (x i M )(y j M )p i j , то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

Легко показать, что если P (( = x i )∩( = y j )) = P ( = x i )P ( = y j ) (i = 1,2,,n ; j = 1,2,,k ), то cov(; )= 0.

Действительно из (2) следует

Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю .

Доказательство (для дискретных случайных величин с конечным числом значений).

Ковариацию удобно представлять в виде

cov(; )=M (–M –M +M M )=M ()–M (M )–M (M )+M (M M )=

=M ()–M M –M M +M M =M ()–M M

Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

Легко доказывается следующее свойство математического ожидания: если  и -независимые случайные величины, то М ()=М М . (Доказать самим, используя формулу M () = )

Таким образом, для независимых случайных величин  и  cov(;)=0. Задачи . 1. Монету подбрасывают 5 раз. Случайная величина  – число выпавших гербов, случайная величина  – число выпавших гербов в последних двух бросках. Построить совместный закон распределения случайных величин, построить условные законы распределения  при различных значениях . Найти условные математические ожидания и ковариацию  и .

2. Две карты наудачу извлекаются из колоды в 32 листа. Случайная величина  – число тузов в выборке, случайная величина  – число королей в выборке. Построить совместный закон распределения  и , построить условные законы распределения  при различных значениях . Найти условные математические ожидания и ковариацию  и .

    Многоугольник распределения СВХ – выпадение очков при бросании игральной кости.

3Ряд распределения, многоугольник распределения

Способы или формы представления закона распределения СВ могут быть различными.

Простейшей формой задания закона распределения ДСВ X является ряд распределения.

Рядом распределения вероятностей ДСВ X называют таблицу в которой перечислены все возможные значения СВ и вероятности того, что СB примет эти значения.

Так как события несовместны, потому что может принять в результате опыта только одно значение, и образуют полную группу событий, то.

Поэтому для проверки правильности составления таблицы, необходимо просуммировать все вероятности.

Для наглядности ряд распределения представляют графически. Для этого все возможные значения СВ откладывают по оси , а по оси - соответствующие вероятности. Вершины полученных ординат обычно соединяют отрезками прямых.

Соединение вершин ординат делается только в целях наглядности, т.к. в промежутках между и,ии т.д. СВ X значений принять не может, поэтому вероятности ее появления в.этих промежутках равны нулю.

Такая фигура называется многоугольником распределения.

Многоугольник распределения, также как и ряд распределения является одной из форм задания закона распределения ДСВ Х.

Многоугольники распределения могут иметь самую различную форму.

Пример - Вероятность того, что курсант сдаст семестровый экзамен в сессию по дисциплинам А и В соответственно равны 0,7 и 0,8. Составить ряд распределения и построить многоугольник распределения числа семестровых экзаменов, которые сдает курсант.

Решение Возможные значения С В X - число сданных экзаменов - 0, I, 2.

Пусть событие состоит в том, что курсант сдаетi -й экзамен (i =1, 2).

Считая инезависимыми, будем иметь вероятность того,

что курсант не сдаст экзамены

что сдаст один экзамен

что сдаст два экзамена

Ряд распределения и многоугольник распределения будут иметь вид

Закон распределения ССВ может быть задан в различных формах. Одной из форм задания является таблица распределения СДСВ.

Пусть X и У - ДСВ, возможные значения которых , где,. Тогда распределение системы таких СВ может быть охарактеризовано указанием вероятностейтого, что СВ X примет значениеи одновременно с этим С В У примет значение. Вероятностисводятся в таблицу вида

Такая таблица называется таблицей (матрицей) распределения СДСВ с конечным числом возможных значений. Все возможные события составляют полную группу несовместных событий, поэтому

Итоговые столбец или строка таблицы распределения представляют соответственно распределение одномерных составляющихили.

Действительно, распределение одномерной СВХ можно получить, вычислив вероятность события , как сумму вероятностей несовместных событий

Аналогично

Таким образом, чтобы по таблице распределения найти вероятность того, что одномерная СВ приняла определенное значение, надо просуммировать вероятности из соответствующей этому значению строки (столбца) данной таблицы.

Если зафиксировать значение одного аргумента, например, положить , то полученное распределение СВХ называется условным распределением X при условии.

Вероятности этого распределения будут условными вероятностями события, найденными при условии, что событиепроизошло.

Из определения условной вероятности

Аналогично условнее распределение СВУ при условии равно

    Стандартные распределения случайных величин. Равномерное распределение и его особенности.

Закон распределения случайной величины и случайного вектора

При изучении СВ нельзя ограничиваться только лишь знанием множеств их возможных значений.

Необходимо также знать с какими вероятностями СВ принимает эти значения, и более обще, каковы вероятности попадания СВ в те или иные интервалы множества точек оси . Обычно рассматривают интервалы

Если известны все возможные значения СВ, и если имеет возможность находить вероятности различных событий, связанных со СВ, т.е. находить вероятности попадания в тот или мной интервал, то с вероятностной точки зрения об этой СВ известно всё.

Законом распределения СВ называется всякое соотношение, устанавливающее связь между возможными значениями СВ и соответствующими им вероятностями. Про СВ говорят, что она подчинена данному закону распределения. Его можно задать аналитически, таблично, графически.

Характеристикой случайного вектора также является её закон распределения.

Законом распределения ССВ называется соотношение, устанавливающее связь между областями возможных значений ССВ и вероятностями появления системы в этих областях.

Так же как и для одной СВ, закон распределения ССВ может быть задан в различных формах.