Нормальное распределение определение. Нормальное распределение случайной величины. Вычисления процентных точек нормального распределения с помощью вероятностного калькулятора STATISTICA

Определение 1

Случайная величина $X$ имеет нормальное распределение (распределение Гаусса), если плотность её распределения определяется формулой:

\[\varphi \left(x\right)=\frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-{(x-a)}^2}{2{\sigma }^2}}\]

Здесь $aϵR$ -- математическое ожидание, а $\sigma >0$ -- среднее квадратическое отклонение.

Плотность нормального распределения.

Покажем, что эта функция действительно является плотностью распределения. Для этого проверим следующее условие:

Рассмотрим несобственный интеграл $\int\limits^{+\infty }_{-\infty }{\frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-{(x-a)}^2}{2{\sigma }^2}}dx}$.

Сделаем замену: $\frac{x-a}{\sigma }=t,\ x=\sigma t+a,\ dx=\sigma dt$.

Так как $f\left(t\right)=e^{\frac{-t^2}{2}}$ четная функция, то

Равенство выполняется, значит, функция $\varphi \left(x\right)=\frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-{(x-a)}^2}{2{\sigma }^2}}$ действительно является плотностью распределения некоторой случайной величины.

Рассмотрим некоторые простейшие свойства функции плотности вероятности нормального распределения $\varphi \left(x\right)$:

  1. График функции плотности вероятности нормального распределения симметричен относительно прямой $x=a$.
  2. Функция $\varphi \left(x\right)$ достигает максимума при $x=a$, при этом $\varphi \left(a\right)=\frac{1}{\sqrt{2\pi }\sigma }e^{\frac{-{(a-a)}^2}{2{\sigma }^2}}=\frac{1}{\sqrt{2\pi }\sigma }$
  3. Функция $\varphi \left(x\right)$ убывает, при $x>a$, и возрастает, при $x
  4. Функция $\varphi \left(x\right)$ имеет точки перегиба при $x=a+\sigma $ и $x=a-\sigma $.
  5. Функция $\varphi \left(x\right)$ асимптотически приближается к оси $Ox$ при $x\to \pm \infty $.
  6. Схематический график выглядит следующим образом (рис. 1).

Рисунок 1. Рис. 1. График плотности нормального распределения

Заметим, что, если $a=0$, то график функции симметричен относительно оси $Oy$. Следовательно, функция $\varphi \left(x\right)$ четна.

Функция нормального распределения вероятности.

Для нахождения функции распределения вероятности при нормальном распределении воспользуемся следующей формулой:

Следовательно,

Определение 2

Функция $F(x)$ называется стандартным нормальным распределением, если $a=0,\ \sigma =1$, то есть:

Здесь $Ф\left(x\right)=\frac{1}{\sqrt{2\pi }}\int\limits^x_0{e^{\frac{-t^2}{2}}dt}$ - функция Лапласса.

Определение 3

Функция $Ф\left(x\right)=\frac{1}{\sqrt{2\pi }}\int\limits^x_0{e^{\frac{-t^2}{2}}dt}$ называется интегралом вероятности.

Числовые характеристики нормального распределения.

Математическое ожидание: $M\left(X\right)=a$.

Дисперсия : $D\left(X\right)={\sigma }^2$.

Среднее квадратическое распределение: $\sigma \left(X\right)=\sigma $.

Пример 1

Пример решения задачи на понятие нормального распределения.

Задача 1 : Длина пути $X$ представляет собой случайную непрерывную величину. $X$ распределена по нормальному закону распределения среднее значение которого равно $4$ километра, а среднее квадратическое отклонение равно $100$ метров.

  1. Найти функцию плотности распределения $X$.
  2. Построить схематически график плотности распределения.
  3. Найти функцию распределения случайной величины $X$.
  4. Найти дисперсию.
  1. Для начала представим все величины в одном измерении: 100м=0,1км

Из определения 1, получим:

\[\varphi \left(x\right)=\frac{1}{0,1\sqrt{2\pi }}e^{\frac{-{(x-4)}^2}{0,02}}\]

(так как $a=4\ км,\ \sigma =0,1\ км)$

  1. Используя свойства функции плотности распределения, имеем, что график функции $\varphi \left(x\right)$ симметричен относительно прямой $x=4$.

Максимум функция достигает в точке $\left(a,\frac{1}{\sqrt{2\pi }\sigma }\right)=(4,\ \frac{1}{0,1\sqrt{2\pi }})$

Схематический график имеет вид:

Рисунок 2.

  1. По определению функции распределения $F\left(x\right)=\frac{1}{\sqrt{2\pi }\sigma }\int\limits^x_{-\infty }{e^{\frac{-{(t-a)}^2}{2{\sigma }^2}}dt}$, имеем:
\
  1. $D\left(X\right)={\sigma }^2=0,01$.

(вещественный, строго положительный)

Норма́льное распределе́ние , также называемое распределением Гаусса или Гаусса - Лапласа - распределение вероятностей , которое в одномерном случае задаётся функцией плотности вероятности , совпадающей с функцией Гаусса :

f (x) = 1 σ 2 π e − (x − μ) 2 2 σ 2 , {\displaystyle f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\;e^{-{\frac {(x-\mu)^{2}}{2\sigma ^{2}}}},}

где параметр μ - математическое ожидание (среднее значение), медиана и мода распределения, а параметр σ - среднеквадратическое отклонение ( σ  ² - дисперсия) распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений. Многомерный случай описан в статье «Многомерное нормальное распределение ».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием μ = 0 и стандартным отклонением σ = 1 .

Энциклопедичный YouTube

  • 1 / 5

    Важное значение нормального распределения во многих областях науки (например, в математической статистике и статистической физике) вытекает из центральной предельной теоремы теории вероятностей . Если результат наблюдения является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то при увеличении числа слагаемых распределение центрированного и нормированного результата стремится к нормальному. Этот закон теории вероятностей имеет следствием широкое распространение нормального распределения, что и стало одной из причин его наименования.

    Свойства

    Моменты

    Если случайные величины X 1 {\displaystyle X_{1}} и X 2 {\displaystyle X_{2}} независимы и имеют нормальное распределение с математическими ожиданиями μ 1 {\displaystyle \mu _{1}} и μ 2 {\displaystyle \mu _{2}} и дисперсиями σ 1 2 {\displaystyle \sigma _{1}^{2}} и σ 2 2 {\displaystyle \sigma _{2}^{2}} соответственно, то X 1 + X 2 {\displaystyle X_{1}+X_{2}} также имеет нормальное распределение с математическим ожиданием μ 1 + μ 2 {\displaystyle \mu _{1}+\mu _{2}} и дисперсией σ 1 2 + σ 2 2 . {\displaystyle \sigma _{1}^{2}+\sigma _{2}^{2}.} Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

    Максимальная энтропия

    Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину .

    Моделирование нормальных псевдослучайных величин

    Простейшие приближённые методы моделирования основываются на центральной предельной теореме . Именно, если сложить несколько независимых одинаково распределённых величин с конечной дисперсией , то сумма будет распределена приблизительно нормально. Например, если сложить 100 независимых стандартно равномерно  распределённых случайных величин, то распределение суммы будет приближённо нормальным .

    Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса - Мюллера . Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

    Нормальное распределение в природе и приложениях

    Нормальное распределение часто встречается в природе. Например, следующие случайные величины хорошо моделируются нормальным распределением:

    • отклонение при стрельбе.
    • погрешности измерений (однако погрешности некоторых измерительных приборов имеют не нормальные распределения).
    • некоторые характеристики живых организмов в популяции.

    Такое широкое распространение этого распределения связано с тем, что оно является бесконечно делимым непрерывным распределением с конечной дисперсией. Поэтому к нему в пределе приближаются некоторые другие, например, биномиальное и пуассоновское . Этим распределением моделируются многие не детерминированные физические процессы.

    Связь с другими распределениями

    • Нормальное распределение является распределением Пирсона типа XI .
    • Отношение пары независимых стандартных нормально распределенных случайных величин имеет распределение Коши . То есть, если случайная величина X {\displaystyle X} представляет собой отношение X = Y / Z {\displaystyle X=Y/Z} (где Y {\displaystyle Y} и Z {\displaystyle Z} - независимые стандартные нормальные случайные величины), то она будет обладать распределением Коши.
    • Если z 1 , … , z k {\displaystyle z_{1},\ldots ,z_{k}} - совместно независимые стандартные нормальные случайные величины, то есть z i ∼ N (0 , 1) {\displaystyle z_{i}\sim N\left(0,1\right)} , то случайная величина x = z 1 2 + … + z k 2 {\displaystyle x=z_{1}^{2}+\ldots +z_{k}^{2}} имеет распределение хи-квадрат с k степенями свободы.
    • Если случайная величина X {\displaystyle X} подчинена логнормальному распределению , то её натуральный логарифм имеет нормальное распределение. То есть, если X ∼ L o g N (μ , σ 2) {\displaystyle X\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} , то Y = ln ⁡ (X) ∼ N (μ , σ 2) {\displaystyle Y=\ln \left(X\right)\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} . И наоборот, если Y ∼ N (μ , σ 2) {\displaystyle Y\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} , то X = exp ⁡ (Y) ∼ L o g N (μ , σ 2) {\displaystyle X=\exp \left(Y\right)\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} .
    • Отношение квадратов двух стандартных нормальных случайных величин имеет имеет

    Закон нормального распределения вероятностей непрерывной случайной величины занимает особое место среди различных теоретических законов, т. к. является основным во многих практических исследованиях. Им описывается большинство случайных явлений, связанных с производственными процессами.

    К случайным явлениям, подчиняющимся нормальному закону распределения, относятся ошибки измерений производственных параметров, распределение технологических погрешностей изготовления, рост и вес большинства биологических объектов и др.

    Нормальным называют закон распределения вероятностей непрерывной случайной величины, который описывается дифференциальной функцией

    a - математическое ожидание случайной величины;

    Среднее квадратичное отклонение нормального распределения.

    График дифференциальной функции нормального распределения называют нормальной кривой (кривой Гаусса) (рис.7).

    Рис. 7 Кривая Гаусса

    Свойства нормальной кривой (кривой Гаусса):

    1. кривая симметрична относительно прямой x = a;

    2. нормальная кривая расположена над осью X, т. е. при всех значениях X функция f(x) всегда положительна;

    3. ось ox является горизонтальной асимптотой графика, т. к.

    4. при x = a функция f(x) имеет максимум равный

    ,

    в точках A и B при и кривая имеет точки перегиба, ординаты которых равны.

    При этом, вероятность того, что абсолютная величина отклонения случайной величины, распределенной нормально, от ее математического ожидания не превысит среднего квадратичного отклонения , равна 0,6826.

    в точках E и G, при и , значение функции f(x) равно

    а вероятность того, что абсолютная величина отклонения случайной величины, распределенной нормально, от ее математического ожидания не превысит удвоенного среднего квадратичного отклонения, равна 0,9544.

    Асимптотически приближаясь к оси абсцисс, кривая Гаусса в точках C и D, при и , очень близко подходит к оси абсцисс. В этих точках значение функции f(x) очень мало

    а вероятность того, что абсолютная величина отклонения случайной величины, распределенной нормально, от ее математического ожидания не превысит утроенного среднего квадратичного отклонения, равна 0,9973. Это свойство кривой Гаусса называется "правило трех сигм ".



    Если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения.

    Изменение величины параметра a (математического ожидания случайной величины) не изменяет форму нормальной кривой, а приводит лишь к ее смещению вдоль оси X: вправо, если a возрастает, и влево, если a убывает.

    При a=0 нормальная кривая симметрична относительно оси ординат.

    Изменение величины параметра (среднего квадратичного отклонения) изменяет форму нормальной кривой: с возрастанием ординаты нормальной кривой убывают, кривая растягивается вдоль оси X и прижимается к ней. При убывании ординаты нормальной кривой увеличиваются, кривая сжимается вдоль оси X и становится более "островершинной".

    При этом, при любых значениях и площадь ограниченная нормальной кривой и осью X, остается равной единице (т. е. вероятность того, что случайная величина, распределенная нормально, примет значение ограниченное на оси X нормальной кривой, равна 1).

    Нормальное распределение с произвольными параметрами и , т. е. описываемое дифференциальной функцией

    называется общим нормальным распределением .

    Нормальное распределение с параметрами и называется нормированным распределением (рис. 8). В нормированном распределении дифференциальная функция распределения равна:

    Рис. 8 Нормированная кривая

    Интегральная функция общего нормального распределения имеет вид:

    Пусть случайная величина X распределена по нормальному закону в интервале (c, d). Тогда вероятность того, что X примет значение, принадлежащее интервалу (c, d) равна

    Пример. Случайная величина X распределена по нормальному закону. Математическое ожидание и среднее квадратичное отклонение этой случайной величины равны a=30 и . Найти вероятность того, что X примет значение в интервале (10, 50).

    По условию: . Тогда

    Пользуясь готовыми таблицами Лапласа (см. приложение 3), имеем.

    Нормальный закон распределения наиболее часто встречается на практике. Главная особенность, выделяющая его среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.

    Определение. Непрерывная случайная величина Х имеет нормальный закон распределения (закон Гаусса ) с параметрами а и σ 2 , если ее плотность вероятности f (x ) имеет вид :

    . (6.19)

    Кривую нормального закона распределения называют нормальной или гауссовой кривой . На рис. 6.5 а), б) показана нормальная кривая с параметрами а и σ 2 и график функции распределения.

    Обратим внимание на то, что нормальная кривая симметрична относительно прямой х = а , имеет максимум в точке х = а , равный , и две точки перегиба х = а σ с ординатами .

    Можно заметить, что в выражении плотности нормального закона параметры распределения обозначены буквами а и σ 2 , которыми мы обозначали математическое ожидание и дисперсию. Такое совпадение не случайно. Рассмотрим теорему, которая устанавливает теоретико-вероятностный смысл параметров нормального закона.

    Теорема. Математическое ожидание случайной величины Х, распределенной по нормальному закону, равно параметру a этого распределения , т.е.

    М (Х ) = а , (6.20)

    а ее дисперсия – параметру σ 2 , т.е.

    D (X ) = σ 2 . (6.21)

    Выясним, как будет меняться нормальная кривая при изменении параметров а и σ .

    Если σ = const, и меняется параметр a (а 1 < а 2 < а 3), т.е. центр симметрии распределения, то нормальная кривая будет смещаться вдоль оси абсцисс, не меняя формы (рис. 6.6).

    Рис. 6.6

    Рис. 6.7

    Если а = const и меняется параметр σ , то меняется ордината максимума кривой f max (a ) = . При увеличении σ ордината максимума уменьшается, но так как площадь под любой кривой распределения должна оставаться равной единице, то кривая становится более плоской, растягиваясь вдоль оси абсцисс. При уменьшении σ , напротив, нормальная кривая вытягивается вверх, одновременно сжимаясь с боков (рис. 6.7).

    Таким образом, параметр a характеризует положение, а параметр σ – форму нормальной кривой.

    Нормальный закон распределения случайной величины с параметрами a = 0 и σ = 1 называется стандартным или нормированным , а соответствующая нормальная кривая – стандартной или нормированной .

    Сложность непосредственного нахождения функции распределения случайной величины, распределенной по нормальному закону, связана с тем, что интеграл от функции нормального распределения не выражается через элементарные функции. Однако его можно вычислить через специальную функцию, выражающую определенный интеграл от выражения или . Такую функцию называют функцией Лапласа , для нее составлены таблицы. Существует много разновидностей такой функции, например:

    , .

    Мы будем использовать функцию

    Рассмотрим свойства случайной величины, распределенной по нормальному закону.

    1. Вероятность попадания случайной величины Х, распределенной по нормальному закону, в интервал [α , β ] равна

    Вычислим по этой формуле вероятности при различных значениях δ (используя таблицу значений функции Лапласа):

    при δ = σ = 2Ф(1) = 0,6827;

    при δ = 2σ = 2Ф(2) = 0,9545;

    при δ = 3σ = 2Ф(3) = 0,9973.

    Отсюда вытекает так называемое «правило трех сигм »:

    Если случайная величина Х имеет нормальный закон распределения с параметрами a и σ, то практически достоверно, что ее значения заключены в интервале (a – 3σ ; a + 3σ ).

    Пример 6.3. Полагая, что рост мужчин определенной возрастной группы есть нормально распределенная случайная величина Х с параметрами а = 173 и σ 2 = 36, найти:

    1. Выражение плотности вероятности и функции распределения случайной величины Х ;

    2. Долю костюмов 4-го роста (176 – 183 см) и долю костюмов 3-го роста (170 – 176 см), которые нужно предусмотреть в общем объеме производства для данной возрастной группы;

    3. Сформулировать «правило трех сигм» для случайной величины Х .

    1. Находим плотность вероятности

    и функцию распределения случайной величины Х

    = .

    2. Долю костюмов 4-го роста (176 – 182 см) находим как вероятность

    Р (176 ≤ Х ≤ 182) = = Ф(1,5) – Ф(0,5).

    По таблице значений функции Лапласа (Приложение 2 ) находим:

    Ф(1,5) = 0,4332, Ф(0,5) = 0,1915.

    Окончательно получаем

    Р (176 ≤ Х ≤ 182) = 0,4332 – 0,1915 = 0,2417.

    Долю костюмов 3-го роста (170 – 176 см) можно найти аналогично. Однако проще это сделать, если учесть, что данный интервал симметричен относительно математического ожидания а = 173, т.е. неравенство 170 ≤ Х ≤ 176 равносильно неравенству │Х – 173│≤ 3. Тогда

    Р (170 ≤Х ≤176) = Р (│Х – 173│≤ 3) = 2Ф(3/6) = 2Ф(0,5) = 2·0,1915 = 0,3830.

    3. Сформулируем «правило трех сигм» для случайной величины Х:

    Практически достоверно, что рост мужчин данной возрастной группы заключен в границах от а – 3σ = 173 – 3·6 = 155 до а + 3σ = 173 + 3·6 = 191, т.е. 155 ≤ Х ≤ 191. ◄


    7. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

    Как уже говорилось при изучении случайных величин, невозможно заранее предсказать, какое значение примет случайная величина в результате единичного испытания – это зависит от многих причин, учесть которые невозможно.

    Однако при многократном повторении испытаний характер поведения суммы случайных величин почти утрачивает случайный характер и становится закономерным. Наличие закономерностей связано именно с массовостью явлений, порождающих в своей совокупности случайную величину, подчиненную вполне определенному закону. Суть устойчивости массовых явлений сводится к следующему: конкретные особенности каждого отдельного случайного явления почти не сказываются на среднем результате массы таких явлений; случайные отклонения от среднего, неизбежные в каждом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются.

    Именно эта устойчивость средних и представляет собой физическое содержание «закона больших чисел», понимаемого в широком смысле слова: при очень большом числе случайных явлений их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности.

    В узком смысле слова под «законом больших чисел» в теории вероятностей понимается ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа опытов к некоторым определенным постоянным.

    Закон больших чисел играет важную роль в практических применениях теории вероятностей. Свойство случайных величин при определенных условиях вести себя практически как не случайные позволяет уверенно оперировать этими величинами, предсказывать результаты массовых случайных явлений почти с полной определенностью.

    Возможности таких предсказаний в области массовых случайных явлений еще больше расширяются наличием другой группы предельных теорем, касающихся уже не предельных значений случайных величин, а предельных законов распределения. Речь идет о группе теорем, известных под названием «центральной предельной теоремы». Различные формы центральной предельной теоремы различаются между собой теми условиями, для которых устанавливается это предельное свойство суммы случайных величин.

    Различные формы закона больших чисел с различными формами центральной предельной теоремы образуют совокупность так называемых предельных теорем теории вероятностей. Предельные теоремы дают возможность не только осуществлять научные прогнозы в области случайных явлений, но и оценивать точность этих прогнозов.

    Определение. Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности

    Нормальный закон распределения также называется законом Гаусса .

    Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.

    Можно легко показать, что параметры и , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х.

    Найдем функцию распределения F(x) .

    График плотности нормального распределения называется нормальной кривой или кривой Гаусса .

    Нормальная кривая обладает следующими свойствами:

    1) Функция определена на всей числовой оси.

    2) При всех х функция распределения принимает только положительные значения.

    3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х , значение функции стремится к нулю.

    4) Найдем экстремум функции.

    Т.к. при y’ > 0 при x < m и y’ < 0 при x > m , то в точке х = т функция имеет максимум, равный .

    5) Функция является симметричной относительно прямой х = а , т.к. разность

    (х – а ) входит в функцию плотности распределения в квадрате.

    6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.

    При x = m + s и x = m - s вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб.

    В этих точках значение функции равно .

    Построим график функции плотности распределения.

    Построены графики при т =0 и трех возможных значениях среднего квадратичного отклонения s = 1, s = 2 и s = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается..

    Если а > 0, то график сместится в положительном направлении, если а < 0 – в отрицательном.

    При а = 0 и s = 1 кривая называется нормированной . Уравнение нормированной кривой:

    Для краткости говорят, что СВ Х подчиняется закону N(m, s), т.е. Х ~ N(m, s). Параметры m и s совпадают с основными характеристиками распределения: m = m X , s = s Х = . Если СВ Х ~ N(0, 1), то она называется стандартизованной нормальной величиной . ФР стандартизованной нормальной величиной называется функцией Лапласа и обозначается как Ф(x) . С ее помощью можно вычислять интервальные вероятности для нормального распределения N(m, s):

    P(x 1 £ X < x 2) = Ф - Ф .

    При решении задач на нормальное распределение часто требуется использовать табличные значения функции Лапласа. Поскольку для функции Лапласа справедливо соотношение Ф(-х) = 1 - Ф(х) , то достаточно иметь табличные значения функции Ф(х) только для положительных значений аргумента.

    Для вероятности попадания на симметричный относительно математического ожидания интервал справедлива формула: P(|X - m X | < e) = 2×Ф(e/s) - 1.

    Центральные моменты нормального распределения удовлетворяют рекуррентному соотношению: m n +2 = (n+1)s 2 m n , n = 1, 2, ... . Отсюда следует, что все центральные моменты нечетного порядка равны нулю (так как m 1 = 0).

    Найдем вероятность попадания случайной величины, распределенной по нормальному закону, в заданный интервал.

    Обозначим

    Т.к. интеграл не выражается через элементарные функции, то вводится в рассмотрение функция

    ,

    которая называется функцией Лапласа или интегралом вероятностей .

    Значения этой функции при различных значениях х посчитаны и приводятся в специальных таблицах.

    Ниже показан график функции Лапласа.

    Функция Лапласа обладает следующими свойствами:

    2) Ф(-х ) = - Ф(х );

    Функцию Лапласа также называют функцией ошибок и обозначают erf x .

    Еще используется нормированная функция Лапласа, которая связана с функцией Лапласа соотношением:

    Ниже показан график нормированной функции Лапласа.

    При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм .

    Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:

    Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа:

    Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

    Это правило называется правилом трех сигм .

    Не практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.

    Пример. Поезд состоит из 100 вагонов. Масса каждого вагона – случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением s = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется.

    Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (100×65 = 6500) не превосходит 6600 – 6500 = 100 т.

    Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально.

    Получаем:

    Пример. Нормально распределенная случайная величина Х задана своими параметрами – а =2 – математическое ожидание и s = 1 – среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2.

    Плотность распределения имеет вид:

    Построим график:

    Найдем вероятность попадания случайной величины в интервал (1; 3).

    Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2.

    Тот же результат может быть получен с использованием нормированной функции Лапласа.

    Лекция 8 Закон больших чисел (Раздел 2)

    План лекции

    Центральная предельная теорема (общая формулировка и частная формулировка для независимых одинаково распределенных случайных величин).

    Неравенство Чебышева.

    Закон больших чисел в форме Чебышева.

    Понятие частоты события.

    Статистическое понимание вероятности.

    Закон больших чисел в форме Бернулли.

    Изучение статистических закономерностей позволило установить, что при некоторых условиях суммарное поведение большого количества случайных величин почти утрачивает случайный характер и становится закономерным (иначе говоря, случайные отклонения от некоторого среднего поведения взаимно погашаются). В частности, если влияние на сумму отдельных слагаемых является равномерно малым, закон распределения суммы приближается к нормальному. Математическая формулировка этого утверждения дается в группе теорем, называемой законом больших чисел .

    ЗАКОН БОЛЬШИХ ЧИСЕЛ общий принцип, в силу которого совместное действие случайных факторов приводит при некоторых весьма общих условиях к результату, почти не зависящему от случая. Первым примером действия этого принципа может служить сближение частоты наступления случайного события с его вероятностью при возрастании числа испытаний (часто использующееся на практике, например, при использовании частоты встречаемости какого-либо качества респондента в выборке как выборочной оценки соответствующей вероятности).

    Сущность закона больших чисел состоит в том, что при большом числе независимых опытов частота появления какого-то события близка к его вероятности.

    Центральная предельная теорема (ЦПТ) (в формулировке Ляпунова А.М. для одинаково распределенных СВ). Если попарно независимые СВ X 1 , X 2 , ..., X n , ... имеют одинаковый закон распределения с конечными числовыми характеристиками M = m и D = s 2 , то при n ® ¥ закон распределения СВ неограниченно приближается к нормальному закону N(n×m, ).

    Следствие. Если в условии теоремы СВ , то при n ® ¥ закон распределения СВ Y неограниченно приближается к нормальному закону N(m, s/ ).

    Теорема Муавра-Лапласа. Пусть СВ К - число “успехов” в n испытаниях по схеме Бернулли. Тогда при n ® ¥ и фиксированном значении вероятности “успеха” в одном испытании p закон распределения СВ K неограниченно приближается к нормальному закону N(n×p, ).

    Следствие. Если в условии теоремы вместо СВ К рассмотреть СВ К/n - частоту “успехов” в n испытаниях по схеме Бернулли, то ее закон распределения при n ® ¥ и фиксированном значении p неограниченно приближается к нормальному закону N(p, ).

    Замечание. Пусть СВ К - число “успехов” в n испытаниях по схеме Бернулли. Законом распределения такой СВ является биноминальный закон. Тогда при n ® ¥ биноминальный закон имеет два предельных распределения:

    n распределение Пуассона (при n ® ¥ и l = n×p = const);

    n распределение Гаусса N(n×p, ) (при n ® ¥ и p = const).

    Пример. Вероятность “успеха” в одном испытании всего лишь p = 0,8. Сколько нужно провести испытаний, чтобы с вероятностью не менее 0,9 можно ожидать, что наблюдаемая частота “успеха” в испытаниях по схеме Бернулли отклонится от вероятности p не более чем на e = 0,01?

    Решение. Для сравнения решим задачу двумя способами.

Статьи по теме