Шпаргалка По Теории Вероятности Формулы

 Posted admin

Рейтинг: 0 / 5 Пожалуйста, оцените Формат: pdf Размер: 4,3 мб Количество вопросов: 72 Год издания: 2013 Стоимость: бесплатно Учеб. 2-е изд., стер. М.: Окей-книга, 2013. ISBN 978-5-409-00406-4. (Скорая помощь студенту.

Шпаргалки по теории вероятности и математической статистике формулы

ФОРМУЛА БЕИЕСА. ФОРМУЛА БЕРНУЛЛИ При выводе формулы полной вероятности предполагалось, что событиеА, вероятность которого надо.

Краткий курс). Настоящее издание представляет собой учебное пособие, подготовленное в соответствии с Государственным образовательным стандартом по дисциплине 'Теория вероятностей и математическая статистика'. Материал изложен кратко, но четко и доступно, что позволит в короткие сроки успешно подготовиться и сдать экзамен или зачет по данному предмету.

Издание предназначено для студентов высших учебных заведений. СОДЕРЖАНИЕ Предмет теории вероятностей. Виды случайных событий. Классическое определение вероятности. Свойства вероятности. Относительная частота появления события.

  1. Шпора: Теория вероятностей. Что событие А появится ровно m раз определяется по формуле.
  2. Формула полной вероятности. 17.Функция распред СВ: 13. Интегральная теорема Муавра-Лапласа.
  3. Основные понятия теории вероятностей Событием называется любой. На вероятность события А при этой гипотезе Формула Бейса Пусть имеется.

Статистическая и геометрическая вероятности. Теоремы сложения и умножения вероятностей. Определение условной вероятности.

Независимость событий. Формула полной вероятности. Формула Байеса. Последовательность независимых испытаний. Схема Бернулли.

Локальная и интегральная теоремы Лапласа. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях. Определение случайной величины. Дискретные и непрерывные случайные величины. Закон распределения дискретной случайной величины. Функция распределения случайной величины. Биномиальное и геометрическое распределение.

Распределение Пуассона. Простейший поток событий. Нормальный закон распределения. Математическое ожидание дискретной случайной величины и его свойства. Дисперсия дискретной случайной величины и ее свойства.

Среднее квадратическое отклонение. Моменты распределения. Интегральная функция распределения вероятностей случайной величины. Дифференциальная функция распределения вероятностей непрерывной случайной величины и ее свойства. Закон равномерного распределения вероятностей. Числовые характеристики непрерывных случайных величин.

Правило трех сигм. Теорема Ляпунова (центральная предельная теорема теории вероятностей). Асимметрия и эксцесс. Функция одного случайного аргумента: распределение и математическое ожидание.

Шпаргалки По Теории Вероятности И Математической Статистике Формулы

Функция двух случайных аргументов. Распределение суммы независимых слагаемых. Распределения Пирсона, Стьюдента, Фишера-Снедекора.

Показательное распределение. Функция надежности. Показательный закон надежности.

Система двух случайных величин. Закон распределения вероятностей дискретной двухмерной случайной величины. Интегральная функция распределения двухмерной случайной величины. Дифференциальная функция непрерывной двухмерной случайной величины.

Зависимые и независимые случайные величины. Числовые характеристики системы двух случайных величин. Закон больших чисел. Неравенство Чебышева.

Теоремы Чебышева, Хинчина и Бернулли. Предмет математической статистики.

Генеральная и выборочная совокупности. Способы отбора данных. Статистическое распределение выборки. Эмпирическая функция распределения. Статистические оценки параметров распределения. Требования к статистическим оценкам. Точечные оценки параметров распределения.

Теорема сложения дисперсий. Интервальное оценивание. Доверительный интервал для оценки математического ожидания нормального распределения при известном среднем квадратическом отклонении. Доверительный интервал для оценки математического ожидания нормального распределения при неизвестном среднем квадратическом отклонении. Характеристики вариационного ряда. Обычные, начальные и центральные эмпирические моменты. Условные эмпирические моменты.

Эмпирические и теоретические частоты. Функциональная, статистическая и корреляционная зависимости. Понятие регрессии. Выборочный коэффициент корреляции. Выборочное корреляционное отношение и его свойства. Общая модель парной регрессии. Линейная модель парной регрессии.

Теория вероятности

Линейная модель множественной регрессии. Классический метод наименьших квадратов для модели парной и множественной регрессии.

Показатели частной корреляции для модели линейной регрессии с двумя переменными. Показатели частной корреляции для модели множественной регрессии с тремя и более переменными. Показатель множественной корреляции. Обычный и скорректированный показатели множественной детерминации. Нелинейные по переменным регрессионные модели. Нелинейные по параметрам регрессионные модели. Метод наименьших квадратов для нелинейных моделей.

Средние и частные коэффициенты эластичности для нелинейных регрессионных моделей. Дисперсионный анализ.

Общая, факторная и остаточная суммы квадратов отклонений. Общая, факторная и остаточная дисперсии. Понятие статистической гипотезы. Общая постановка задачи проверки статистической гипотезы. Понятие о статистических критериях.

Критическая область, критические точки. Ошибки первого и второго рода Правосторонняя критическая область.

Левосторонняя и двусторонняя критические области. Мощность критерия. Проверка гипотезы о значимости коэффициентов регрессии. Проверка гипотезы о значимости парного коэффициента корреляции Проверка гипотезы о значимости уравнения парной регрессии. Проверка гипотезы о значимости частного и множественного коэффициентов корреляции. Проверка гипотезы о значимости регрессионных коэффициентов и уравнения множественной регрессии в целом.

Проверка значимости уравнения нелинейной регрессии. Проверка гипотезы о равенстве средних двух нормальных генеральных совокупностей при известной и неизвестной дисперсиях. Проверка гипотезы о равенстве дисперсий двух нормальных генеральных совокупностей. Проверка гипотезы о равенстве выборочной средней и генеральной средней нормальной совокупности. Проверка гипотезы о равенстве нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового и различного объема.

Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона. Проверка гипотезы о равенстве нескольких средних методом дисперсионного анализа.

Функцией распределения F( x, y) двумерной ( X, Y) называется вероятность того, что X x F( x, y 2) ≥ F( x, y 1), если y 2 y 1. F( x 2, y) = p( X х. Для непрерывного признака графической иллюстрацией служит гистограмма, то есть ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высотами – отрезки длиной n i / h (гистограмма частот) или w i / h (гистограмма относительных частот).

В первом случае площадь гистограммы равна объему выборки, во втором – единице Рис.2. Доверительный интервал для математического ожидания нормального распределения при известном и неизвестном распределении. Коэффициент Стьюдента. Построение доверительных интервалов. Доверительный интервал для оценки математического ожидания нормального распределения при известной дисперсии. Пусть исследуемая случайная величина Х распределена по нормальному закону с известным средним квадратическим σ, и требуется по значению выборочного среднего оценить ее математическое ожидание. Будем рассматривать выборочное среднее как случайную величину а значения вариант выборки х 1, х 2, х п как одинаково распределенные независимые случайные величины Х 1, Х 2, Х п, каждая из которых имеет математическое ожидание а и среднее квадратическое отклонение σ.

При этом М( ) = а, (используем свойства математического ожидания и дисперсии суммы независимых случайных величин). Оценим вероятность выполнения неравенства. Применим формулу для вероятности попадания нормально распределенной случайной величины в заданный интервал: р ( ) = 2Ф.

Тогда, с учетом того, что, р ( ) = 2Ф = =2Ф( t ), где. Отсюда, и предыдущее равенство можно переписать так:. Итак, значение математического ожидания а с вероятностью (надежностью) γ попадает в интервал, где значение t определяется из таблиц для функции Лапласа так, чтобы выполнялось равенство 2Ф( t) = γ. Доверительный интервал для оценки математического ожидания нормального распределения при неизвестной дисперсии. Если известно, что исследуемая случайная величина Х распределена по нормальному закону с неизвестным средним квадратическим отклонением, то для поиска доверительного интервала для ее математического ожидания построим новую случайную величину, (18.2) где - выборочное среднее, s – исправленная дисперсия, п – объем выборки. Эта случайная величина, возможные значения которой будем обозначать t, имеет распределение Стьюдента (см. Лекцию 12) с k = n – 1 степенями свободы.

Поскольку плотность распределения Стьюдента, где, явным образом не зависит от а и σ, можно задать вероятность ее попадания в некоторый интервал (- t γ, t γ ), учитывая четность плотности распределения, следующим образом:. Отсюда получаем: (18.3) Таким образом, получен доверительный интервал для а, где t γ можно найти по соответствую-щей таблице при заданных п и γ. Элементы теории корреляции.

Теория Вероятности

Выборочное уравнение регрессии. Линейная регрессия. Пусть составляющие Х и Y двумерной случайной величины ( Х, Y) зависимы. Будем считать, что одну из них можно приближенно представить как линейную функцию другой, например Y ≈ g( Х) = α + β Х, (11.2) и определим параметры α и β с помощью метода наименьших квадратов. Шаблон city news wordpress.

Определение 11.2. Функция g( Х) = α + β Х называется наилучшим приближением Y в смысле метода наименьших квадратов, если математическое ожидание М( Y - g( Х)) 2 принимает наименьшее возможное значение; функцию g( Х) называют среднеквадратической регрессией Y на Х. Теорема 11.1. Линейная средняя квадратическая регрессия Y на Х имеет вид: (11.3) где - коэффициент корреляции Х и Y.

Рассмотрим функцию F( α, β) = M( Y – α – βX)² (11.4) и преобразуем ее, учитывая соот-ношения M( X – m x) = M( Y – m y) = 0, M(( X – m x)( Y – m y)) = = K xy = r σ x σ y:. Найдем стационарные точки полученной функции, решив систему Решением системы будет. Можно проверить, что при этих значениях функция F( α, β) имеет минимум, что доказывает утверждение теоремы. Определение 11.3. Коэффициент называется коэффициентом регрессии Y на Х, а прямая - (11.5) - прямой среднеквадратической регрессии Y на Х. Подставив координаты стационарной точки в равенство (11.4), можно найти минимальное значение функции F( α, β), равное Эта величина называется остаточной дисперсией Y относительно Х и характеризует величину ошибки, допускаемой при замене Y на g( Х) = α + β Х. При остаточная дисперсия равна 0, то есть равенство (11.2) является не приближенным, а точным.

Следовательно, при Y и Х связаны линейной функциональной зависимостью. Аналогично можно получить прямую среднеквадратической регрессии Х на Y: (11.6) и остаточную дисперсию Х относительно Y. При обе прямые регрессии совпадают. Решив систему из уравнений (11.5) и (11.6), можно найти точку пересечения прямых регрессии – точку с координатами ( т х, т у), называемую центром совместного распределения величин Х и Y. Линейная корреляция. Для двумерной случайной величины ( Х, Y) можно ввести так называемое условное математи-ческое ожидание Yпри Х = х. Для дискретной случайной величины оно определяется как (11.7) для непрерывной случайной величины –.

(11.8) Определение 11.4. Функцией регрессии Y на Х называется условное математическое ожидание M( Y / x ) = f( x). Аналогично определяется условное математическое ожидание Х и функция регрессии Х на Y. Определение 11.5.

Если обе функции регрессии Х на Y и Y на Х линейны, то говорят, что Х и Y связаны линейной корреляционной зависимостью. При этом графики линейных функций регрессии являются прямыми линиями, причем можно доказать, что эти линии совпадают с прямыми среднеквадратической регрессии. Теорема.Если двумерная случайная величина ( Х, Y) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью. Найдем условный закон распределения Y при Х = х, используя формулу двумерной плотности вероятности нормального распределения (11.1) и формулу плотности вероятности Х:. (11.9) Сделаем замену.

Полученное распределение является нормальным, а его мате-матическое ожидание есть функция регрессии Y на Х (см. Опреде-ление 11.4)). Аналогично можно получить функцию регрессии Х на Y:. Обе функции регрессии линейны, поэтому корреляция между Х и Y линейна, что и требовалось доказать. При этом уравнения прямых регрессии имеют вид, то есть совпадают с уравнениями прямых среднеквадратической регрессии (см.

Формулы (11.5), (11.6)). Метод максимального правдоподобия. Функция правдоподобия в непрерывном и дискретном случаях. Оценка максимального правдоподобия и их основные свойства. Метод наибольшего правдоподобия. Пусть ^ Х – дискретная случайная величина, которая в результате п испытаний приняла значения х 1, х 2, х п.

Предположим, что нам известен закон распределения этой величины, определяемый параметром Θ, но неизвестно численное значение этого параметра. Найдем его точечную оценку.

Пусть р( х i, Θ) – вероятность того, что в результате испытания величина Х примет значение х i. Назовем функцией правдоподобия дискретной случайной величины Х функцию аргумента Θ, определяемую по формуле: L ( х 1, х 2, х п; Θ) = p( x 1,Θ) p( x 2,Θ) p( x n,Θ). Тогда в качестве точечной оценки параметра Θ принимают такое его значение Θ. = Θ( х 1, х 2, х п), при котором функция правдоподобия достигает максимума.

Оценку Θ. называют оценкой наибольшего правдоподобия. Поскольку функции L и ln L достигают максимума при одном и том же значении Θ, удобнее искать максимум ln L – логарифмической функции правдоподобия. Для этого нужно: 1)найти производную; 2)приравнять ее нулю (получим так называемое уравнение правдоподобия) и найти критическую точку; 3)найти вторую производную; если она отрицательна в критической точке, то это – точка максимума. Достоинства метода наибольшего правдоподобия: полученные оценки состоятельны (хотя могут быть смещенными), распределены асимптотически нормально при больших значениях п и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками; если для оцениваемого параметра Θ существует эффективная оценка Θ., то уравнение правдоподобия имеет единственное решение Θ.; метод наиболее полно использует данные выборки и поэтому особенно полезен в случае малых выборок.

Недостаток метода наибольшего правдоподобия: сложность вычислений. Для непрерывной случайной величины с известным видом плотности распределения f( x) и неизвестным параметром Θ функция правдоподобия имеет вид: L ( х 1, х 2, х п; Θ) = f( x 1,Θ) f( x 2,Θ) f( x n,Θ). Оценка наибольшего правдоподобия неизвестного параметра проводится так же, как для дискретной случайной величины. Условные законы распределения. Математическое ожидание и дисперсии я случайных величин.

Условное математическое ожидание. Дискретной случайной величины называ-ется сумма произведений ее возможных значений на соответствующие им вероятности: М( Х) = х 1 р 1 + х 2 р 2 + + х п р п.

(7.1) Если число возможных значений случайной величины бесконечно, то, если полученный ряд сходится абсолютно. Математическое ожидание называют иногда взвешенным средним, так как оно приближенно равно среднему арифметическому наблюдаемых значений случайной величины при большом числе опытов. Из определения математического ожидания следует, что его значение не меньше наименьшего возможного значения случайной величины и не больше наибольше-го. Математическое ожидание дискретной случайной величины есть неслучай-ная (постоянная) величина. В дальнейшем увидим, что это же справедливо и для непре-рывных случайных величин. ^ Дисперсией (рассеянием)случайной величины называется математи-ческое ожидание квадрата ее отклонения от ее математического ожидания: D( X) = M ( X – M( X))² Замечание 1. В определении дисперсии оценивается не само отклонение от среднего, а его квадрат.

Это сделано для того, чтобы отклонения разных знаков не компенсировали друг друга. Из определения дисперсии следует, что эта величина принимает только неотрицательные значения. Существует более удобная для расчетов формула для вычисления дисперсии, справедливость которой доказывается в следующей теореме: Теорема.

D( X) = M( X ²) – M ²( X). Используя то, что М( Х) – постоянная величина, и свойства математического ожидания, преобразуем формулу (7.6) к виду: D( X) = M( X – M( X))² = M( X² - 2 X·M( X) + M²( X)) = M( X²) – 2 M( X)· M( X) + M²( X) = = M( X²) – 2 M²( X) + M²( X) = M( X²) – M²( X), что и требовалось доказать.вв.