шпоры теория вероят.


27.* Функция Лапласа, ее свойства, график и геометрический смысл. Теорема о связи функции распределения нормального закона и функции Лапласа. Примеры. 
Функция Лапласа.
Найдем вероятность попадания случайной величины, распределенной по нормальному закону, в заданный интервал.  Обозначим  Тогда 
Т.к. интеграл  не выражается через элементарные функции, то вводится в рассмотрение функция , которая называется функцией Лапласа или интегралом вероятностей. Значения этой функции при различных значениях х посчитаны и приводятся в специальных таблицах.

 
Функция Лапласа обладает следующими свойствами: 1) Ф(0) = 0; 2) Ф(-х) = - Ф(х); 3) Ф¥) = 1. Функцию Лапласа также называют функцией ошибок и обозначают erf x. Еще используется нормированная функция Лапласа, которая связана с функцией Лапласа соотношением: 
Ниже показан график нормированной функции Лапласа.

При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм.
Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:  Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа:  Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю. Это правило называется правилом трех сигм. Не практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение. Пример. Поезд состоит из 100 вагонов. Масса каждого вагона – случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением s = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется. Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (100×65 = 6500) не превосходит 6600 – 6500 = 100 т. Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально. Получаем: 
Пример. Нормально распределенная случайная величина Х задана своими параметрами – а =2 – математическое ожидание и s = 1 – среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2. Плотность распределения имеет вид: 
Построим график:

Найдем вероятность попадания случайной величины в интервал (1; 3). 
Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2. 
Тот же результат может быть получен с использованием нормированной функции Лапласа. 
Центральная предельная теорема Ляпунова.
Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному. На практике для большинства случайных величин выполняются условия теоремы Ляпунова. Система случайных величин. Рассмотренные выше случайные величины были одномерными, т.е. определялись одним числом, однако, существуют также случайные величины, которые определяются двумя, тремя и т.д. числами. Такие случайные величины называются двумерными, трехмерными и т.д. В зависимости от типа, входящих в систему случайных величин, системы могут быть дискретными, непрерывными или смешанными, если в систему входят различные типы случайных величин. Более подробно рассмотрим системы двух случайных величин.
Определение. Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.
Определение. Функцией распределения системы двух случайных величин называется функция двух аргументов F(x, y), равная вероятности совместного выполнения двух неравенств X<x, Y<y.  Отметим следующие свойства функции распределения системы двух случайных величин: 1) Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной величины, соответствующей другому аргументу.  2) Если оба аргумента стремятся к бесконечности, то функция распределения системы стремится к единице.  3) При стремлении одного или обоих аргументов к минус бесконечности функция распределения стремится к нулю.  4) Функция распределения является неубывающей функцией по каждому аргументу. 5) Вероятность попадания случайной точки (X, Y) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле:  Плотность распределения системы двух случайных величин.
Определение. Плотностью совместного распределения  вероятностей двумерной случайной величины (X, Y) называется вторая смешанная частная производная от функции распределения. 
 Если известна плотность распределения, то функция распределения может быть легко найдена по формуле: 
Двумерная плотность распределения неотрицательна и двойной интеграл с бесконечными пределами от двумерной плотности равен единице. 
По известной плотности совместного распределения можно найти плотности распределения каждой из составляющих двумерной случайной величины.  ; ;
Условные законы распределения.
Как было показано выше, зная совместный закон распределения можно легко найти законы распределения каждой случайной величины, входящей в систему. Однако, на практике чаще стоит обратная задача – по известным законам распределения случайных величин найти их совместный закон распределения. В общем случае эта задача является неразрешимой, т.к. закон распределения случайной величины ничего не говорит о связи этой величины с другими случайными величинами. Кроме того, если случайные величины зависимы между собой, то закон распределения не может быть выражен через законы распределения составляющих, т.к. должен устанавливать связь между составляющими. Все это приводит к необходимости рассмотрения условных законов распределения.
Определение. Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения. Условный закон распределения можно задавать как функцией распределения так и плотностью распределения. Условная плотность распределения вычисляется по формулам:  
Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.
Условное математическое ожидание.
Определение. Условным математическим ожиданием дискретной случайной величины Y при X = x (х – определенное возможное значение Х) называется произведение всех возможных значений Y на их условные вероятности.  Для непрерывных случайных величин: , где f(y/x) – условная плотность случайной величины Y при X=x. Условное математическое ожидание M(Y/x)=f(x) является функцией от х и называется функцией регрессии Х на Y.   Пример. Найти условное математическое ожидание составляющей Y при X= x1=1 для дискретной двумерной случайной величины, заданной таблицей:
Y X
x1=1 x2=3 x3=4 x4=8
y1=3 0,15 0,06 0,25 0,04
y2=6 0,30 0,10 0,03 0,07
   
Аналогично определяются условная дисперсия и условные моменты системы случайных величин.
Зависимые и независимые случайные величины.
Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина. Понятие зависимости случайных величин является очень важным в теории вероятностей. Условные распределения независимых случайных величин равны их безусловным распределениям. Определим необходимые и достаточные условия независимости случайных величин.
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.  Аналогичную теорему можно сформулировать и для плотности распределения: Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих. 
Определение. Корреляционным моментом mxy случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин.  Практически используются формулы:
Для дискретных случайных величин: 
Для непрерывных случайных величин:  Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю. Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y. Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин. Для того, чтобы устранить этот недостаток применятся другая характеристика – коэффициент корреляции.
Определение. Коэффициентом корреляции rxy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.  Коэффициент корреляции является безразмерной величиной. Коэффициент корреляции независимых случайных величин равен нулю.
Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Yне превышает среднего геометрического их дисперсий. 
Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.  Случайные величины называются коррелированными, если их корреляционный момент отличен от нуля, и некоррелированными, если их корреляционный момент равен нулю. Если случайные величины независимы, то они и некоррелированы, но из некоррелированности нельзя сделать вывод о их независимости. Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Часто по заданной плотности распределения системы случайных величин можно определить зависимость или независимость этих величин. Наряду с коэффициентом корреляции степень зависимости случайных величин можно охарактеризовать и другой величиной, которая называется коэффициентом ковариации. Коэффициент ковариации определяется формулой:  Пример. Задана плотность распределения системы случайных величин Х и Y. 
Выяснить являются ли независимыми случайные величины Х и Y. Для решения этой задачи преобразуем плотность распределения: 
Таким образом, плотность распределения удалось представить в виде произведения двух функций, одна из которых зависит только от х, а другая – только от у. Т.е. случайные величины Х и Y независимы. Разумеется, они также будут и некоррелированы. Линейная регрессия.
Рассмотрим двумерную случайную величину (X, Y), где X и Y – зависимые случайные величины. Представим приближенно одну случайную величину как функцию другой. Точное соответствие невозможно. Будем считать, что эта функция линейная.  Для определения этой функции остается только найти постоянные величины>a и b.
Определение Функция g(X) называется наилучшим приближением случайной величины Y в смысле метода наименьших квадратов, если математическое ожидание  принимает наименьшее возможное значение. Также функция g(x) называется среднеквадратической регрессией Y на X.
 Теорема. Линейная средняя квадратическая регрессия Y на Х вычисляется по формуле:  в этой формуле mx=M(X), my=M(Y), коэффициент корреляции величин Х и Y. Величина  называется коэффициентом регрессии Y на Х. Прямая, уравнение которой , называется прямой сренеквадратической регрессии Y на Х. Величина  называется остаточной дисперсией случайной величины Y относительно случайной величины Х. Эта величина характеризует величину ошибки, образующейся при замене случайной величины Y линейной функцией g(X)=aХ + b. Видно, что если r=±1, то остаточная дисперсия равна нулю, и, следовательно, ошибка равна нулю и случайная величина Y точно представляется линейной функцией от случайной величины Х.
 Прямая среднеквадратичной регрессии Х на Y определяется аналогично по формуле:  Прямые среднеквадратичной регрессии пересекаются в точке (тх, ту), которую называют центром совместного распределения случайных величин Х и Y.
Линейная корреляция.
Если две случайные величины Х и Y имеют в отношении друг друга линейные функции регрессии, то говорят, что величины Х и Y связаны линейной корреляционной зависимостью. Теорема. Если двумерная случайная величина (X, Y) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.
Закон больших чисел.
Неравенство Чебышева.
(Чебышев Пафнутий Львович (1821 – 1824) – русский математик) На практике сложно сказать какое конкретное значение примет случайная величина, однако, при воздействии большого числа различных факторов поведение большого числа случайных величин практически утрачивает случайный характер и становится закономерным. Этот факт очень важен на практике, т.к. позволяет предвидеть результат опыта при воздействии большого числа случайных факторов. Однако, это возможно только при выполнении некоторых условий, которые определяются законом больших чисел. К законам больших чисел относятся теоремы Чебышева (наиболее общий случай) и теорема Бернулли (простейший случай), которые будут рассмотрены далее. Рассмотрим дискретную случайную величину Х (хотя все сказанное ниже будет справедливо и для непрерывных случайных величин), заданную таблицей распределения:
X x1 x2 … xnp p1 p2 … pnТребуется определить вероятность того, что отклонение значения случайной величины от ее математического ожидания будет не больше, чем заданное число Теорема.(Неравенство Чебышева) Вероятность того, что отклонение случайной величины Х от ее математического ожидания по абсолютной величине меньше положительного числа e, не меньше чем .  Доказательство этой теоремы приводить не будем, оно имеется в литературе.
Теорема Чебышева.
Теорема. Если Х1, Х2, …, Хn- попарно независимые случайные величины, причем дисперсии их равномерно ограничены (не превышаю постоянного числа С), то, как бы мало не было положительное число e, вероятность неравенства  будет сколь угодно близка к единице, если число случайных величин достаточно велико.
Т.е. можно записать: 
Неопределенность исхода испытания до испытания автоматически определяет информативность исхода испытания после испытания. Поэтому в битах также измеряется информативность исхода.
Рассмотрим два вероятностных пространства:
  
Проводим композицию двух испытаний. Композиционное пространство имеет вид:
  i=1, ..., s1 j=1, ..., s2 
С точки зрения качественного анализа максимальная энтропия композиционного вероятностного пространства достигается тогда, когда испытания независимы. Найдем энтропию композиционного пространства для случая независимых испытаний.


Биномиальное распределение.
n испытаний называются системой испытаний Бернулли, если испытания независимы, в каждом из них происходит событие , либо  с вероятностью наступления P(A) = p; 
Найдем вероятность того, что в результате проведенных n испытаний событие А произошло m раз:

Рассмотрим композицию n независимых испытаний и построим композиционное пространство элементарных событий.
Общий вид элемента этого пространства следующий:

где
При этом вероятность наступления такого события равна:
(умножение при независимых событиях)
Найдем вероятность наступления любого элементарного события из композиционного пространства:

Рассмотрим в композиционном вероятностном пространстве событие: в n испытаниях событие A произошло m раз.
Событие A состоит из  - общее кол-во элементарных событий, в которое входит событие А. А произошло m раз,  - n-m раз. Вероятность каждого из этих элементарных событий одинакова и равна:

Следовательно, на основании III аксиомы теории вероятности результат равняется:
  (сложение вероятностей)

28.* Свойства случайной величины, распределенной по нормальному закону. Правило трех сигм/ Примеры.
Нормальное распределение случайной величины
Нормальное распределение часто используется для описания случайных явлений, в которых на результат измерения влияет большое число независимых случайных факторов.
Определение. Случайная величина ξ имеет Нормальное или гауссовское Распределение, Если Ее плотность распределения вероятностей при всех X задается равенством  . (2.29)
Числа M и σ называются параметрами распределения: параметр M Может быть любым действительным числом: -∞ < M < +∞, а параметр σ – положительным: σ>0. Символическая запись означает, что cлучайная величина ξ имеет нормальное распределение с параметрами M и σ2.

Отметим некоторые свойства графика этой функции (кривой нормального распределения).
Во-первых, функция Принимает максимальное значение  при X=M.
Во-вторых, функция  симметрична относительно вертикальной прямой X=M.
В-третьих, асимптотой кривой нормального распределения является ось ОХ. Особую роль играет нормальное распределение с параметрами M=0, σ=1, которое часто называют Стандартным (или нормированным) Нормальным распределением. Плотность стандартного нормального распределения имеет вид
, (2.30) Ниже приведен график Y = F0(X).

Функция распределения случайной величины, имеющей нормальный закон, может быть представлена в виде несобственного интеграла
F(X) =. (2.31)
Функцию распределения стандартного Нормального закона
Ф(Х) =  (2.32)
Часто называют функцией Лапласа, для которой имеются таблицы значений, широко используемые в статистических исследованиях. Рассмотрим свойства нормального распределения.
Свойство 1. Пусть случайная величина ξ имеет нормальное распределение с параметрами M и σ, т. е. . Тогда математическое ожидание равно параметру M, А дисперсия равна σ2 , Т. е.
M(ξ)=M; D(ξ)= σ2.
Свойство 2. Между функциями распределения F(X) и  Имеет место следующее соотношение
 . (2.33)
Таблицы значений функции  Не содержат значений при X<0. В таких случаях можно использовать следующее свойство.
Свойство 3. При любых значениях X имеет место равенство
 . (2.34)
Следующее свойство позволяет вычислить вероятность попадания случайной величины в интервал, используя таблицы значений функции .Свойство 4. Пусть случайная величина ξ имеет нормальное распределение с параметрами M и σ, Т. е. . Тогда вероятность попадания случайной величины ξ в интервал [A,B] можно найти по формуле
 . (2.35)
В частности, для симметричного интервала относительно M имеет место формула для любого :. (2.36)
Формула (2.36) непосредственно следует из (2.35), в которой надо положить  и использовать свойство, что . Тогда получим
.
Свойство 5 (закон трех сигм). Пусть случайная величина ξ имеет нормальное распределение с параметрами M и σ, т. е. . Тогда с вероятностью больше 0,99 значения случайной величины содержатся в интервале 
Действительно, по свойству 4, . Из таблицы функций находим значение =0,9987. Отсюда следует, что

При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм.
Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:

 
Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа:

 
Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.
Это правило называется правилом трех сигм.
Не практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.
 
Пример. Поезд состоит из 100 вагонов. Масса каждого вагона – случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением s = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется.
Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (100×65 = 6500) не превосходит 6600 – 6500 = 100 т.
Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально.
Получаем:

Пример. Нормально распределенная случайная величина Х задана своими параметрами – а =2 – математическое ожидание и s = 1 – среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2.
Плотность распределения имеет вид:

Построим график:
 

 
Найдем вероятность попадания случайной величины в интервал (1; 3).

Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2.


Приложенные файлы

  • docx 23651761
    Размер файла: 138 kB Загрузок: 0

Добавить комментарий