Автор: Пользователь скрыл имя, 11 Октября 2011 в 19:28, шпаргалка
Работа содержит ответы на вопросы по курсу "Теории вероятностей и математической статистике".
1.Введение.Предмет ТВ.Предмет мат-кой статистики.История.Предметом теории вер-ти является изучение вероятностных закономерностей массовых однородных случайных событий. Предметом математической статистики обычно называют разработку методов получения научно обоснованных выводов о случайных явлениях по результатам наблюдений и экспериментов.
2.Испытания
и события.Событие-это
исход испытания.события обозначают:А,В,С,А1,А2и
т.д.События:невозможные-
3.Элементы
комбинаторики.Формулы
комбинаторий изучает различные комбинации,которые
можно составлять из элементов конечного
множества.1.Перестановка:Pn=n!
4.Классическое
определение вероятности.Вероят
5.Теорема
сложения.теорема
сложения вероятностей
несовместных событий:вер-ть появления
одного из двух событий,безразлично какого,равна
сумме вер-тей этих событий: P(A+B)=P(A)+P(B).
Теорема сложения
вер-тей совместных
событий:Вер-ть появления хотя бы одного
из двух совместных событий равна сумме
вер-тей этих событий без вероятности
их совместного появления:P(A+B)=P(A)+P(B)-P(
6.Теоремы
умножения.если
события А1 ,А2
, …Аn независимы,то вероятность их произведения
равна произведению вероятностей этих
событий:Р(А1
∙А2∙∙…Аn)=
Р(А1)∙
Р(А2)∙…∙
Р(Аn).Два события называются
зависимыми,если вероятность появления
одного из них зависит от наступления
либо ненаступления другого события. Условной
вероятностью РА(В) называют
вероятность события В,вычесленную в предположении,что
событие A уже наступило.Вероятность
произведения зависимых событий А
и В равна произведению вероятности
одного из них на условную вероятность
другого,найденную в предположении,что
первое событие уже наступило,т.е.:Р(А∙В)=Р(А)∙Р(
7.Формула
полной вероятности.Пусть
некоторое событие А может произойти
при условии,что появится одно из совместных
событий В1,В2 …Вn ,образующих
полную группу событий.Вероятность события
А,которое может наступить лишь при
появлении одного из несовместных событий
В1,В2 …Вn,образующих
полную группу событий,равна сумме произведений
вероятностей каждого из этих событий
на соответствующую условную вероятность
события А :P(A)=P(B1)∙PB1(A)+P(B2)∙PB2(
8. Формула Байеса.Пусть событие А произошло.Это изменит вероятности гипотез В1,В2, … Вn и условная вероятность события PA(Bk)в предположении,что событие А произошло,определяется по формуле Бейеса: PA(Bk)==.
9.
Повторные независимые
испытания. Формула
Бернули.Испытания
называются независимыми
относительно события
А,если вероятность события А в каждом
испытании постоянна и не зависит от исходов
других испытаний.Обозначения:Pn(K)-ве
10. Локальная теорема Лапласа.Вычесление Pn(K) по формуле Бернули при больших n и k связаны с арифметическими трудностями,поэтому при n>50 пользуются приближённой формулой Лапласа:Pn(K)≈∙ф(x)где х=.
11. Интегральная теорема Лапласа.Если вероятность наступления события А в каждом из независимых испытаний постоянна и0<р<1,то вероятность того,что в nиспытаниях событие произойдёт от k1 до k2равна: Pn(k1; k2)=Ф(х2)- Ф(х1).
12.Формула Пуассона.Pn(k)=
13.Вероятность отклонения относит-й частоты от постоянной вер-ти в n-независимых испытаниях. P(Іm/n - pІ≤ε)~2Ф(ε.
14.Наивероятнейшее число появления события в независимых испытаниях.Число наступлений события в независимых испытаниях называется наивероятнейшим ,если вероятность наступления события данное число раз в этой серии испытаний наибольшая по сравнению с вероятностями других исходов.Наивероятнейшее число события удовлетворяет неравенствам np-g≤k0≤np+p ,где n- число испытаний,p- вероятность наступления события А в отдельном испытании,g=1-р – вероятность того,что событие А не произойдёт.
15.Случайные
величины.Случайной
величиной называется величина ,которая
в результате испытания из множества возможных
значений принимает одно значение,заранее
неизвестное и зависящее от случая.Случайная
величина характеризуется значениями,которыми
она может принимать,и вероятностями,с
которыми эти значения принимаются.Случайные
величины могут быть дискретными и непрерывными.случайные
величины обозначаютя заглавными буквами,а
их значения строчными.
16.
ДСВ.Закон распределения.
Многоугольник распределения.
Дискретной
называют случайную величину, которая
принимает отдельные, изолированные возможные
значения с определенными вероятностями.
Число возможных значений дискретной
случайной величины может быть конечным
либо бесконечным.
Законом распределения
дискретной случайной
величины называют перечень ее возможных
значений и соответствующих вероятностей.Закон
распределения дискретной случайной величины
X может быть задан в виде таблицы, первая
строка которой содержит все возможные
значения xi, а вторая – вероятности
pi:
X | x1 | x2 | x3 | … | xn |
P | p1 | p2 | p3 | … | pn |
Закон распределения ДСВ изображают графически, для этого в системе координат строят точки (xi, pi) и соединяют их последовательно отрезками прямых. Полученную фигуру называют многоугольником распределения.
Математическим ожиданием М(Х) дискретной случайной величины Х называется сумма произведений всех ее значений на соответствующие им вероятности, т.е.: M(X)= x1p1+ x2p2+ …+ xnpn. Дисперсия ДСВ – это математич. ожидание квадрата отклонения ДСВ от ее математич. ожидания. D(X)=M(X)2-(M(X))2.
Функцей распределения (интегральной функцией) случайной величины X называется функция действительной переменной х, определяемая равенством : F(x) = P(X < x), где P(X < x) – вероятность того, что случайная величина X примет значение, меньшее x. Свойства:
1. Функция распределения является неубывающей, т. е. если x1 < x2, то .
2. .
3.
Если возможные значения
4.
Вероятность того, что значение
случайной величины X окажется
на заданном интервале (a;b) определяется
формулой:
.
19. Непрерывные СВ. Ф-ция распределения.
Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Число возможных значений непрерывной случайной величины бесконечно. Функцей распределения (интегральной функцией) случайной величины X называется функция действительной переменной х, определяемая равенством : F(x) = P(X < x), где P(X < x) – вероятность того, что случайная величина X примет значение, меньшее x.
Плотностью распределения вероятностей непрерывной случайной величины называют первую производную от функции распределения: .Зная плотность распределения, можно найти функцию распределения: . Св-ва:1. . 2. .3. . 4. , если .
Математическим ожиданием M(x) дискретной случайной величины X называется сумма произведений всех ее возможных значений на их вероятности:
.
Дисперсией D(x) дискретной случайной величины X называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:
.
Среднее квадратическое отклонение ( ) вычисляется по формуле
.
Начальным моментом порядка k случайной величины X называют математическое ожидание величины Xk:
. (45)
Начальный момент первого порядка равен математическому ожиданию v1 = M(X).
Центральным моментом порядка k случайной величины X называют математическое ожидание величины [X – M(X)]k:
.
Биноминальное распределение:Если производится п независимых испытаний, в каждом из которых событие А может появиться с одинаковой вероятностью р в каждом из испытаний, то вероятность того, что событие не появится, равна q = 1 – p. Примем число появлений события в каждом из испытаний за некоторую случайную величину Х. Чтобы найти закон распределения этой случайной величины, необходимо определить значения этой величины и их вероятности.Вероятность каждого значения этой случайной величины можно найти по формуле Бернулли: Pn (k) = cnk pk qn-k .Этот закон распределения называется биноминальным. Распределение Пуассона: Pn (k)=αk e-α/k!. Явл-ся предельным для биноминального, если число опытов устремляется к бесконечности, а вероятность события к 0.
Распределение вероятностей случайной величины X называется равномерным на отрезке [a; b], если плотность вероятностей этой величины постоянна на данном отрезке и равно нулю вне этого отрезка. Нормальным распределением называется распределение с плотностью вероятностей , где a – математическое ожидание;
Информация о работе Шпаргалка по "Теория вероятностей и математическая статистика"