Условная вероятность. Независимые события. Вероятность появления хотя бы одного события

Автор: Пользователь скрыл имя, 24 Января 2015 в 21:05, реферат

Краткое описание

Теория вероятностей является одним из классических разделов математики. Она имеет длительную историю. Основы этого раздела науки были заложены великими математиками как например, Ферма, Бернулли, Паскаль. Позднее развитие теории вероятностей определились в работах многих ученых. Большой вклад в теорию вероятностей внесли ученые нашей страны: П.Л.Чебышев, А.М.Ляпунов, А.А.Марков, А.Н.Колмогоров.

Файлы: 1 файл

реферат по ТВ.doc

— 78.50 Кб (Скачать)

 


 


Институт экономики, управления и права (г.Казань) Чистопольский филиал

 

 

 

 

 

 

Реферат

По дисциплине: «»

На тему: «Условная вероятность. Независимые события. Вероятность появления хотя бы одного события»

 

 

 

 

 

 

 

Выполнила студентка гр. 931/1у

ССО заочного отделения

с применением дистанционных

технологий Галимова А.Ф.

проверил препадователь

 

 

 

 

 

Чистополь 2015 г.

 

Введение.

 

Теория вероятностей является одним из классических разделов математики. Она имеет длительную историю. Основы этого раздела науки были заложены великими математиками как например, Ферма, Бернулли, Паскаль. Позднее развитие теории вероятностей определились в работах многих ученых. Большой вклад в теорию вероятностей внесли ученые нашей страны: П.Л.Чебышев, А.М.Ляпунов, А.А.Марков, А.Н.Колмогоров. Вероятностные и статистические методы в настоящее время глубоко проникли в приложения. Они используются в физике, технике, экономке, биологии и медицине. Особенно возросла их роль в связи с развитием вычислительной техники.

Например, для изучения физических явлений производят наблюдения или опыты. Их результаты обычно регистрируют в виде значений некоторых наблюдаемых величин. При повторении опытов мы обнаруживаем разброс их результатов. Например, повторяя измерения одной и той же величины одним и тем же прибором при сохранении определенных условий (температура, влажность и т.п.), мы получаем результаты, которые хоть немного, но все же отличаются друг от друга. Даже многократные измерения не дают возможности точно предсказать результат следующего измерения. В этом смысле говорят, что результат измерения есть величина случайная. Еще более наглядным примером случайной величины может служить номер выигрышного билета в лотерее. Можно привести много других примеров случайных величин. Все же и в мире случайностей обнаруживаются определенные закономерности. Математический аппарат для изучения таких закономерностей и дает теория вероятностей. Таким образом, теория вероятностей занимается математическим анализом случайных событий и связанных с ними случайных величин.

 

Вероятность.

 

Теория вероятностей изучает случайные события. Это значит, что до определенного момента времени, вообще говоря, нельзя сказать заранее о случайном событии А произойдет это событие или нет. Только после этого момента реализуется определенность: Да, событие А произошло, или наоборот Нет, событие А не произошло, т.е. произошло событие А*.

Каждому из рассматриваемых случайных событий приписывается число P,0≤P≤1(P(A),P(B),P(C),…),которое называется его вероятностью. Это число характеризует шансы, что соответствующее событие произойдет. На практике для интересующих событий числа P назначаются, исходя из опыта и здравого смысла. Когда говорят о событиях, оговаривают обстоятельства, при которых рассматриваются эти события.

Принимают, что Р(Ω)=1, Р()=0. Если события A1,A2,…,Ak попарно не пересекаются, то полагают Р(Ai)=Р(A1)+Р(A2)+…+Р(Ak). Поэтому Р(A)+Р(A*)=1.

Например, если подбрасывается хорошо сбалансированная монета, то вероятность того события A, что она упадет орлом вверх принимается равной 1/2, а вероятность противоположного события A*, то есть того, что она упадет решкой вверх, принимается тоже равной 1/2. При этом событие, состоящее в том, что монета встанет и останется стоять на ребре, принимается за невозможное. Если бросают игральную кость, то вероятность того, что выпадет, например, четыре очка, принимается равной 1/6. Вероятность противоположного события, то есть того, что выпадет какое-либо число очков, не равное четырем, принимается равной 5/6. Если из хорошо перетасованной колоды в пятьдесят две карты вынимают наугад одну карту, то вероятность того, что вынут короля, равна 4/52=1/13 и т. д.

Говорят, что некоторое событие B благоприятствует событию A, если всякий раз как происходит событие B, происходит и событие A. Принимают следующее соглашение. Если из n всех возможных непересекающихся равновозможных событий, то есть таких, для которых вероятности полагаются равными, некоторому событию A благоприятствует m из таких равновозможных случаев, то принимают

 

Р(A)=m/n.

 

В приведенном выше примере с колодой карт имеется n=52 равновозможных события: вынут одну какую-нибудь карту. Событию A–тому, что вынут короля, благоприятствуют m=4 события: B1–вынут короля пик,B2–короля треф, B3–короля бубен, B4–короля червей. И только такие события Bi благоприятствуют событию A. При этом A есть объединение событий Bi: A=UBi и события Bi и Bj не пересекаются: Bi∩Bj=,i≠j. Поэтому и принимают Р(А)=m/n=4/52=1/13.

Данное определение вероятности через благоприятствующие равновозможные непересекающиеся события называют часто классическим определением вероятности. Оно подтверждается на практике в виде закона больших чисел. Он проявляется следующим образом. Если сделать большое число n* испытаний, в каждом из которых может появиться событие A, то в результате оказывается, что число m* появлений события A оказывается как правило очень близким к величине Р(A), то есть выполняется с вероятностью очень близкой к единице – практически обязательно, с большой степенью точности приближенное равенство

 

m*/n* ≈ m/n=Р(A)

 

Условной вероятностью события А по событию В называют величину Р(А|В), которая дает равенство Р(А∩В)=Р(A|B)·P(B). Смысл этого определения таков. Условная вероятность оценивает шансы осуществления события А, когда известно, что произошло событие В.

События А и В называются независимыми, если Р(A|B)=P(A). Тогда Р(А∩В)=Р(A)·P(B). Иначе говоря, события А и В независимы, когда вероятность осуществления события А не зависит от того, осуществилось или нет событие В. И наоборот, вероятность осуществления события В не зависит от осуществления события А.

Например, пусть бросают две не связанные друг с другом игральные кости. Пусть событие А–на первой кости выпало 4 очка. Событие В–на второй кости выпало 2 очка. Тогда Р(А)=1/6,Р(В)=1/6. События А и В естественно полагать независимыми. Стало быть, полагаем Р(А|B)=P(A), P(B|A)=P(B) и P(А∩В)=P(A)·P(B)=1/6·1/6=1/36. То есть вероятность события С=А∩В – на первой кости выпало 2 очка и при этом на второй кости выпало 4 очка равна 1/36.

Несколько событий A1,A2,…,Ak называются независимыми в совокупности, если Р(∩Ai)=Р(A1)·Р(A2)·…·Р(Ak). Важно заметить, что из попарной независимости всех событий Аi и Aj, i=1,…,k, j=1,…,k, ij, вообще говоря, не следует независимость событий A1,A2,…,Ak в совокупности. В этом можно убедиться на конкретном примере.

 

Независимые события.

 

Событие В называется независимым от события А, если условная вероятность события В равна его безусловной вероятности (появление события А не влияет на вероятность события В):

 

РА(В) = Р(В)

 

Отсюда следует, что и событие А также независимо от события В:

 

РВ(А) = Р(А)

 

Для независимых событий теорема умножения вероятностей имеет вид

 

Р(А1А2А3…Аn) = Р(А1)Р(А2)Р(А3)…Р(Аn), n>1

 

Равенство принимается за определение независимых событий. При этом если события независимы, то независимы также и соответствующие им противоположные события.

Найти вероятность поражения цели при совместной стрельбе тремя орудиями, если вероятности поражения цели орудиями соответственно равны 0,9, 0,8 и 0,7 (события А, B и С).

Решение. Поскольку события А, В и С являются независимыми, то искомая вероятность вычисляется, согласно формуле, при n = 3:

 

Р(АВС) = Р(А) Р(В)Р(С) = 0,9*0,8*0,7 = 0,504

 

Когда в результате испытания может иметь место N независимых событий с известными вероятностями их появления, особый интерес представляет случай нахождения вероятности наступления хотя бы одного из них (например, в случае трех событий найти вероятность наступления либо одного, либо двух, либо трех событий). Обозначим это событие через А. Справедлива следующая теорема.

Вероятность появления хотя бы одного из независимых событий А1, A2, ... , А определяется формулой

 

Р(А) = 1 - q1 q2… qn

 

Где qi = 1 - pi — вероятности соответствующих противоположных событий.

Например надо найти вероятность поражения цели (хотя бы одного попадания) при залповой стрельбе орудий.

Решение. Вероятности противоположных событий (промахов) соответственно равны q1 = 0,1, q2 = 0,2, q3 = 0,3. Искомая вероятность находится следующим образом:

 

Р(А) = 1 - q1 q2 q3 = 1-0,006 = 0,994

 

Из этого примера наглядно видно преимущество совместного воздействия случайных событий с целью достижения общего результата.

Пример.

На перевозку груза направлены 4 автомобиля. Вероятность нахождения каждой из машин в исправном состоянии равна 0,8. Найти вероятность того, что в работе участвует хотя бы один из выделенных для этого автомобилей.

Решение. Вероятность противоположного события (машина неисправна) равна q = 1 - 0,8 = 0,2.

 

Р(А) = 1 – q4 = 1-0,24 = 0,9984

 

Пример.

Вероятность обслуживания клиента одним операционистом в банке равна 0,6. Какое минимальное число операционистов должно работать в банке, чтобы вероятность обслуживания клиента была не менее 0,95?

Решение.

Вероятность противоположного события (отказ в обслуживании клиента операционистом) равна 0,4. Пусть n — количество операционистов, удовлетворяющее условию задачи, т. е.

 

Р(А) = 1 – qn = 1-0,4n ≥ 0,95

 

Решая это неравенство, получаем

 

0,4n ≤ 0,05

 

Логарифмирование обеих частей этого неравенства дает

 

n ≥ lg0,05/lg0,4 = 3.27

 

Поскольку n должно быть целым числом, окончательно получаем, что в банке должны работать не менее 4 операционистов.

 

Случайные события и величины, их основные характеристики.

 

При анализе больших систем наполнителем каналов связи между элементами, подсистемами и системы в целом могут быть:

продукция, т. е. реальные, физически ощутимые предметы с заранее заданным способом их количественного и качественного описания;

деньги, с единственным способом описания - суммой;

информация, в виде сообщений о событиях в системе и значениях описывающих ее поведение величин.

Начнем с того, что обратим внимание на тесную (системную!) связь показателей продукции и денег с информацией об этих показателях. Если рассматривать некоторую физическую величину, скажем - количество проданных за день образцов продукции, то сведения об этой величине после продажи могут быть получены без проблем и достаточно точно или достоверно. Но, уже должно быть ясно, что при системном анализе нас куда больше интересует будущее - а сколько этой продукции будет продано за день? Этот вопрос совсем не праздный - наша цель управлять, а по образному выражению "управлять - значит предвидеть".

Итак, без предварительной информации, знаний о количественных показателях в системе нам не обойтись. Величины, которые могут принимать различные значения в зависимости от внешних по отношению к ним условий, принято называть случайными (стохастичными по природе).

Для случайных величин (далее - СВ) приходится использовать особые, статистические методы их описания. В зависимости от типа самой СВ - дискретная или непрерывная это делается по разному.

Дискретное описание заключается в том, что указываются все возможные значения данной величины (например - 7 цветов обычного спектра) и для каждой из них указывается вероятность или частота наблюдений именного этого значения при бесконечно большом числе всех наблюдений.

Можно доказать (и это давно сделано), что при увеличении числа наблюдений в определенных условиях за значениями некоторой дискретной величины частота повторений данного значения будет все больше приближаться к некоторому фиксированному значению - которое и есть вероятность этого значения.

К понятию вероятности значения дискретной СВ можно подойти и иным путем - через случайные события. Это наиболее простое понятие в теории вероятностей и математической статистике - событие с вероятностью 0.5 или 50% в 50 случаях из 100 может произойти или не произойти, если же его вероятность более 0.5 - оно чаще происходит, чем не происходит. События с вероятностью 1 называют достоверными, а с вероятностью 0 - невозможными.

Отсюда простое правило: для случайного события X вероятности P(X) (событие происходит) и P(X) (событие не происходит), в сумме для простого события дают 1.

Если мы наблюдаем за сложным событием - например, выпадением чисел 1..6 на верхней грани игральной кости, то можно считать, что такое событие имеет множество исходов и для каждого из них вероятность составляет 1/6 при симметрии кости.

Если же кость несимметрична, то вероятности отдельных чисел будут разными, но сумма их равна 1.

Стоит только рассматривать итог бросания кости как дискретную случайную величину и мы придем к понятию распределения вероятностей такой величины.

Пусть в результате достаточно большого числа наблюдений за игрой с помощью одной и той же кости мы получили следующие данные:

 

Грани

1

2

3

4

5

6

Итого

Наблюдения

140

80

200

400

100

80

1000

Информация о работе Условная вероятность. Независимые события. Вероятность появления хотя бы одного события