Автор: Пользователь скрыл имя, 10 Ноября 2011 в 16:54, реферат
Наличие в выборках даже небольшого числа резко выделяющихся наблюдений способно фатально повлиять на результат статистического исследования (к примеру, того же метода наименьших квадратов или метода максимального правдоподобия), и может получиться так, что значения, полученные в результате, перестанут нести в себе какой-либо смысл.
Введение
Понятие робастности
Основные подходы
Группирование данных как метод робастной статистики
Подход, основанный на функции влияния
Основные понятия
М-оценки
Процедура оценивания параметров
Заключение
Список использованной литературы
Введение
Заключение
Список использованной
литературы
Наличие в выборках
даже небольшого числа резко выделяющихся
наблюдений способно фатально повлиять
на результат статистического
Для того, чтобы избежать подобных неприятностей, необходимо каким-то образом снизить влияние «плохих» наблюдений, либо вовсе исключить их. Однако возникает вопрос: «Как отличить „плохое“ наблюдение от „хорошего“?» .
Даже самый простой из подходов — субъективный (основанный на внутренних ощущениях статистика) — может принести значительную пользу, однако для отбраковки все же предпочтительнее применять методы, имеющие в своей основе некие строгие математические обоснования, а не только интуитивные предположения исследователя. Этот процесс представляет собой весьма нетривиальную задачу для статистика и определяет собой одно из направлений статистической науки.
Робастность в статистике предоставляет подходы, направленные на снижение влияния выбросов и других отклонений в исследуемой величине от моделей, используемых в классических методах статистики. На практике наличие в выборках даже небольшого числа резко выделяющихся наблюдений способно фатально повлиять на результат статистического исследования (примером может служить метод наименьших квадратов или метод максимального правдоподобия), и значения, получаемые в результате, могут перестать нести в себе какой-либо смысл. Для того, чтобы избежать подобных неприятностей, необходимо каким-то образом снизить влияние «плохих» наблюдений, либо вовсе исключить их. Однако возникает вопрос: «Как отличить „плохое“ наблюдение от „хорошего“?» Даже самый простой из подходов — субъективный (основанный на внутренних ощущениях статистика) — может принести значительную пользу, однако для отбраковки все же предпочтительнее применять методы, имеющие в своей основе некие строгие математические обоснования, а не только интуитивные предположения исследователя. Этот процесс представляет собой весьма нетривиальную задачу для статистика и определяет собой одно из направлений статистической науки.
Термин "робастная
статистика" достаточно общепринят
в математической статистике и означает
только одно - это статистика, которая
имеет близкие хорошие свойства (состоятельность
и т. п.), как на чистой стационарной выборке,
так и на выборке, зашумленной редкими
выбросами с большой (по сравнению с исходной
выборкой) дисперсией. Например, в задаче
о линейной регрессии таковой является
оценка наименьших модулей, а не общепринятая
оценка наименьших квадратов.
Под робастностью в статистике понимают нечувствительность к различным отклонениям и неоднородностям в выборке, связанным с теми или иными, в общем случае неизвестными, причинами. Это могут быть ошибки детектора, регистрирующего наблюдения, чьи-то добросовестные или не очень попытки «подогнать» выборку до того, как она попадёт к статистику, ошибки оформления, вкравшиеся опечатки и многое другое. Например, наиболее робастной оценкой параметра сдвига закона распределения является медиана, что на интуитивном уровне вполне очевидно (для строгого доказательства следует воспользоваться тем, что медиана является усечённой М-оценкой).[1] Помимо непосредственно «бракованных» наблюдений также может присутствовать некоторое количество наблюдений, подчиняющихся другому распределению. Ввиду условности законов распределений, а это не более, чем модели описания, сама по себе выборка может содержать некоторые расхождения с идеалом.[1]
Тем не менее, параметрический подход настолько вжился, доказав свою простоту и целесообразность, что нелепо от него отказываться. Поэтому и возникла необходимость приспособить старые модели к новым задачам.
Стоит отдельно
подчеркнуть и не забывать, что
отбракованные наблюдения нуждаются
в отдельном, более пристальном
внимании. Наблюдения, кажущиеся «плохими»
для одной гипотезы, могут вполне соответствовать
другой. Наконец, отнюдь не всегда резко
выделяющиеся наблюдения являются «браком».
Одно такое наблюдение для генной инженерии,
к примеру, стоит миллионов других, мало
отличающихся друг от друга.
2 Основные подходы
Для того, чтобы ограничить влияние неоднородностей, либо вовсе его исключить, существует множество различных подходов. Среди них выделяются два основных направления:
3 Группирование данных как метод робастной статистики
Посредством группирования выборки можно резко снизить влияние отдельных наблюдений, не отбрасывая их. Разбиение на интервалы не представляет особых трудностей и даёт весьма ощутимый результат. Существует три наиболее распространённых способа разбиения:
Разбиение на интервалы равной длины. Наиболее простой и потому распространённый способ.
Разбиение на интервалы равной вероятности, также называемое равночастотным группированием, что отражает практическую реализацию этого метода. В результате такого группирования выборки осуществляется максимизация величины информационной энтропии , где и достигается наибольшая асимптотическая мощность критерия согласия либо критерия отношения правдоподобия.[3]
Разбиение на асимптотически
оптимальные интервалы. При таком
разбиении минимизируются потери информации
в результате группирования, то есть максимизируется
фишеровская информация
,где
- оцениваемый
параметр закона. Для многих законов распределения
удалось получить инвариантные относительно
параметров границы интервалов, и были
составлены соответствующие таблицы.
Такое разбиение позволяет максимизировать
мощность критерия.[2]
4 Подход, основанный на функции влияния
В данном разделе
рассматриваются аспекты, касающиеся
оценивания параметров закона распределения
по «засорённой» выборке с использованием
подхода, предложенного Хампелем. Для
того, чтобы изучить влияние отдельно
взятого наблюдения на оценку (рассматриваемую
статистику) того или иного параметра
закона распределения Хампелем вводится
так называемая функция влияния (influence
function), которая представляет собой ни что
иное, как производную этой статистики.
Введём функционал ,как функцию от некоторой выборки из распределения c параметром (оно же ). зависит от . Значит является функцией от закона и от параметра . Пусть также удовлетворяет некоторым условиям состоятельности и регулярности:
Определим производную этого функционала в точке с распределением следующим образом:
Где -некая функция, смысл которой прояснится на следующем шаге, а - некий закон распределения, отличный от .[1]
Подставим , приписывающую единичную массу событию , вместо , в результате чего от интеграла в правой части выражения останется только , и перепишем получившийся результат в следующем виде:
Эту функцию и называют функцией влияния.
Чтобы пояснить смысл введённого понятия подставим вместо , заменив предел. В результате выражение преобразуется в , что соответствует ситуации, когда в выборку, состоящую из наблюдения, подчиняющихся распределению , добавляют ещё одно новое. Таким образом отслеживает реакцию используемого функционала на внесённое добавление, показывая влияние от вклада отдельного наблюдения на оценку по всей совокупности данных.[2]
Для характеристики влияния отдельных наблюдений также вводят понятие чувствительности к большой ошибке γ :
Если функция
влияния ограничена, то соответствующую
оценку называют B(бэ)-робастной.
Наиболее эффективными и широко используемыми оценками параметров законов распределений являются оценки максимального правдоподобия (ОМП), которые определяются одним из следующих условий:
где в случае негруппированной выборки а в случае группированной — .
М-оценки — есть некое обобщение ОМП. Они определяются аналогично одним из соотношений:
Если наложить условие регулярности в подстановке и продифференцировать его по и 0:
то не представляет большого труда получить выражение функции влияния для M-оценок: .
Указанное выражение позволяет сделать вывод о том, что M-оценки эквивалентны с точностью до ненулевого множителя-константы.[1]
Пример функций влияния для усечённых ОМП параметров сдвига (син.) и параметра масштаба (красн.) стандартного нормального закона распределения.
Несложно проверить, что для ОМП стандартного нормального закона распределения функции влияния параметра сдвига и параметра масштаба выглядят соответственно:
Эти функции неограничены, а это значит, что ОМП не является робастной в терминах B-робастности.
Для того, чтобы это исправить, M-оценки искусственно ограничивают, а значит и ограничивают ее устанавливая верхний барьер на влияние резко выделяющихся (далеко отстоящих от предполагаемых значений параметров) наблюдений. Делается это введением так называемых усечённых M-оценок, определяемых выражением: