Шпаргалка по "Теория вероятностей и математическая статистика"

Автор: Пользователь скрыл имя, 11 Октября 2011 в 19:28, шпаргалка

Краткое описание

Работа содержит ответы на вопросы по курсу "Теории вероятностей и математической статистике".

Файлы: 1 файл

Теория вероятностей и математическая статистика.docx

— 108.26 Кб (Скачать)
gn="justify">    – среднее квадратическое  отклонение. Показательным распределением называется распределение с плотностью вероятностей, определяемой следующей функцией:

      

24. Понятие многомерной  СВ.

Многомерной случайной величиной называется величина, которая при проведении опыта принимает в качестве своего значения не число, а целый набор  чисел, заранее не известно каких. Эти  наборы, которые случайная величина может принять, образуют множество  ее возможных значений. Таким образом, он будет из множества возможных  наборов.

25. Двумерная СВ.

  Двумерной называют случайную величину (X; Y), возможные значения которой есть пары чисел (x; y).Случайные величины X и Y, рассматриваемые совместно, образуют систему двух случайных величин. Каждую из величин X и Y называют составляющей.

  Общей характеристикой двумерной случайной  величины является функция распределения вероятностей, которая представляет собой вероятность события (X < x, Y < y); F(x,y) = P(X < x, Y < y).Различают дискретные  и непрерывные двумерные случайные величины.

26. Закон распределения  дискретной двумерной  СВ.

  Законом распределения дискретной двумерной случайной  величины называют перечень возможных значений этой величины (т. е. пар чисел) (xi; yi) и их вероятностей p(xi; yj) (i = 1, 2, …, n; j = 1, 2, …, m). Зная закон распределения двумерной дискретной величины, можно найти законы распределения каждой из составляющих.

  Например, события (X = x1, Y = y1), (X = x1, Y = y2), …, (X = x1, Y
= ym) несовместны, поэтому

      .

27. Математич. ожидание  двумерной ДСВ.- совокупность двух матем. ожиданий М(Х) и М(У), определяемые равенством: М(Х) = xi pij , М(У) = yj pij, если (Х;У) – ДСВ. Для характеристики связи между величинами Х и У служит корреляционный момент, который опред-ся по формуле: Kxy=M(Х;У)= М(Х) · М(У). если СВ Х,У независимы, то Kxy=0. Если Kxy≠0, то Х,У зависимы и в этом случае СВ наз-ют коррелированными. Коф-т корреляции rxy= K0/ δ(x)δ(y) характеризует степень линейной зависимости СВ(Х;У).

28. Ф-ция одного случайного  аргумента.

  Если  каждому возможному значению случайной  величины X соответствует одно возможное значение случайной величины Y, то Y называют функцией случайного аргумента X: Y = j(X).

   - если СВ имеет закон распределения   ; - если  X – непрерывная случайная величина, заданная дифференциальной функцией f(x), и если ; - если функция кусочно монотонная.

  29. Закон больших  чисел. Неравенство  Маркова:Теорема. Если случайная величина X может принимать только неотрицательные значения и у нее есть математическое ожидание, то какова бы ни была положительная величина x той же размерности, что и X, всегда выполняется неравенство

    .                              

  Неравенство Чебышева :Теорема. Каково бы ни было для любой случайной величины Х, дисперсия которой конечна, имеет место неравенство Чебышева

   .

  Теорема Чебышева:Если X1, X2,…,Xn,… – последовательность независимых случайных величин, у каждой из которых есть математическое ожидание M(Xi) = ai и дисперсия , причем дисперсии ограничены сверху одним и тем же числом С, то для любого положительного числа e выполняется неравенство  

   .    

  Теорема Бернулли:Если в каждом из независимых испытаний вероятность p появления события A постоянна, то вероятность того, что отклонение частости от вероятности p меньше по абсолютной величине положительного числа e, не меньше, чем разность   , т. е.

    .                           

  Центр. предельная теорема: { έk }- последовательность взаимно независимых СВ с одинаковыми распределениями. Предположим, что μM{ έk } и δ2 = Д { έk } существует. Пусть , тогда для любых ά и β (ά > β) справедливо P { ά < < β } → Ф(β) – Ф(ά). Где Ф(Х) – нормальная ф-ция распеделения. 

30.Выборочный  метод.Генеральная  и выборочная сов-ти.Задача математ-ой статистики состоит в создании методов сбораи обработки стат-их данных для получения научных и практических выводов.Выборочной сов-тью или просто выборкой называют сов-ть случайно отобранных объектов.Генеральной сов-тьюназывают сов-ть объектов,из которыхпроизводится выборка.

31.Статистическое  распределение выборки.Эмпирическая  ф-ция распределения.Стат-ким распределением выборки называют перечень вариант и соответствующих им частот или отност-х частот.Стат-кое распределение можно задать также в виде послед-ти интервалов и соответсв-х им частот.эмпирической ф-цией распределения  называют функцию F*(x)определяющую для каждого значения х относит-ную частоту события Х‹х.Итак по определению,F*(х)=,где nx-число вариант меньших х;n-объём выборки.

32.Графическое  изображение стат-го  распределения.Полигоном частот называют ломанную,отрезки которой соединяют точки (x1;n1)…( xk;nk),Для построения полигона частот на оси абсцисс откладывают варианты xi,а на оси ординат-соответствующие им частоты ni.точки (xi;ni) соединяют отрезками прямых и получают полигон частот.полигоном относит-х частот называют ломанную,отрезки которой соединяют точки (x1;W1)… (xk;Wk).Для построения полигона относит-х частот на оси абсцисс откладывают варианты xi,а на оси ординат-соответсвующие им относит-е частоты Wi.точки (xi;Wi) соединяют отрезками прямых  и получают полигон относит-х частот.Гистограммой частот называют ступеньчатую фигуру,состоящую из прямоугольников,основаниями которых служат частичные интервалы длиною h,а высоты равны отношению ni/h.Для построения  гистограммы частот на оси абсцисс откладывают частичные интервалы,а над ними проводят отрезки ,параллельные оси абсцисс на расстоянии ni/h.Гистограммой относит-х частот называют ступеньчатую фигуру,состоящую из прямоугольников,основаниями которых служат частичные интервалы длиною h,а высоты равны отношению Wi/h.Для построения гистограммы относит-х частот на оси абсцисс откладывают частичные интервалы,а над ними проводят отрезки,параллельные оси абсцисс на расстоянииWi/h.

33.Числовые  хар-ки стат-го  распределения. Числовые характеристики статистического распределения: выборочное среднее, оценки дисперсии, оценки моды и медианы, оценки начальных и центральных моментов. Одна из задач математической статистики: по имеющейся выборке оценить значения числовых характеристик исследуемой случайной величины. Выборочным средним называется среднее арифметическое значений случайной величины, принимаемых в выборке:xв= где xi – варианты, ni - частоты. Выборочной дисперсией называется:Dв== -)2×n,а выборочным средним квадратическим отклонением – θв=

Так же, как в  теории случайных величин, можно  доказать, что справедлива следующая  формула для вычисления выборочной дисперсии:D=x2-(x)2.

34.Метод  произведений для  вычислений выборочных  средних и дисперсий. x=M1*h+C;Dв=(M2*-(M1*)2)h2, где h –шаг(разность между двумя соседними вариантами); С-ложный нуль (варианта, которая расположена примерно в середине вариационного ряда). М1*-условный момент первого порядка. М2*-условный момент второго порядка.

35. Статистич. оценивание  параметров. Понятие  оценки. Оценивание – это метод, кот. использ-ся с целью получения представления о значении одного или нескольких параметров с максимально возможной точностью. Статистич. оценкой θ*неизвестного параметра θ теоретического распределения наз-ют его приближенное значение, зависящее от данных выбора. Оценка θ* - есть значения некоторой ф-ции, результатов наблюдений над СВ, т.е. θ* = f ( X1, X2, … , Xn). Ф-цию результатов наблюдений наз-ют статистикой.  

  36. Точечные оценки: Точечн. оценка -  статистическая оценка, кот. опред-ся одним числом. θ* = f ( X1, X2, … , Xn). Они должны быть несмещенными(т.е. = оцениваемому параметру), состоятельными (которая при n →∞ стремится к параметру θ ),эффективными (которая при фиксированном n имеет наименьшую дисперсию)для обеспечения хорошего приближения неизвестых параметров. Примеры: метод моментов, метод наименьших квадратов и т.д.  Недостаток точечных оценок в том, что они неизвестно с какой точностью дают оцениваемый параметр.  

  37. Интервальные оценки: Интерв. оценка – оценка, кот. определяется 2умя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал для математического ожидания при известной дисперсии с доверительной вероятностью имеет вид: - t < a < t . Где t - точность оценки, n – объем выборки, t – значение аргумента ф-ции лапласа Ф(t). 

  38. Проверка стат. гипотез. Проверка гипотез - это процедура сопоставления высказанной гипотезы с выборочными данными. Статистич. гипотеза – высказываение о  генеральной совокупности, проверяемое по выборке.  Одну их гипотез выделяют в качестве основной и обозначают H0 , а противоположную H1.  Имея 2 гипотезы, надо на основе выборки X1, X2, … , Xn принять либо H0, либо H1. Правило, по которому принимается решение принять или отклонить гипотезу наз-ся статистическим проверки гипотезы. H0 критерий. Критерий согласия – статистич. критерий проверки гипотезы о предполагаемом законе неизвестного распределения. На практике чаще всего используются специально подобранные случайные величины, распределения которых известны:Z (стандартизированное нормальное распределение);t (распределение Стьюдента); (закон Пирсона );F (распределение Фишера).

  39. Корреляционный анализ. Регрессионный анализ. Основная задача коррел. анализа – выявление связи между случайными переменными и оценка её тесноты,а регресс. анализа – установление формы и изучение зависимости между переменными. Корреляц. зависимость : = ax + b. Уравнение регрессии: - = a ( ), где a = . Коэффициент корреляции: rв. = . Чем ближе rв. к 1, тем теснее связь, чем ближе к 0, тем слабее

  40. Дисперсионный анализ. Дисперсионный анализ служит для статистического установления влияния отдельных факторов на изменчивость какого-либо признака, значения которого могут быть получены опытным путем в виде выборки из генеральной совокупности случайной величины X. Факторы - различные независимые показатели, количество которых может быть различным. Конкретная реализация фактора А называется уровнем этого фактора. В зависимости от количества факторов различают однофакторный и многофакторный дисперсионный анализ. Величина X называется результативным фактором Y. Дисперсионный анализ состоит в том, что дисперсия признака Y разлагается на сумму дисперсии.  Затем указанные дисперсии сравниваются и проверяются по статистическим критериям.Однофакторный дисперсионный анализ позволяет статистически обосновать степень влияния на результативный признак Y одного фактора A. Дисперсионный анализ рассматривает влияние двух независимых факторов A и B на изменчивость результативного признака Y.  
 
 
 
 
 
 
 
 
 
 

Информация о работе Шпаргалка по "Теория вероятностей и математическая статистика"