- •Фгбоу впо «Воронежский государственный технический университет» в.А. Шунина в.В. Пешков с.А. Кострюков элементы математического анализа, теории вероятности и статистики
- •Воронеж 2014
- • Шунина в.А., Пешков в.В., Кострюков с.А., 2014
- •Введение
- •1 Основhыe понятия математического анализа
- •1.1 Математика как часть общечеловеческой культуры. Основные этапы становления современной математики. Аксиоматический подход
- •Период элементарной математики
- •Период математики переменных величин
- •Период современной математики
- •1.2 Множества и подмножества. Операции над множествами. Мощность множества
- •Операции на множествах
- •Множества и отношения
- •Мощность множества
- •1.3 Множество действительных и комплексных чисел
- •1.4 Линейные пространства Rn. Векторы и операции над ними. Координаты вектора в заданном базисе
- •1.5 Понятие матрицы. Квадратные матрицы и их определители. Формулы крамера
- •Действия над матрицами
- •1.6 Топологические понятия. Последовательности. Предел и непрерывность функции
- •Арифметические свойства предела
- •1.7 Производная и дифференциал функции. Экстремум функции
- •Дифференциал
- •1.8 Первообразная, неопределенный и определенный интегралы. Формула ньютона – лейбница
- •Определенный интеграл и его свойства
- •1.9 Понятие о дифференциальных уравнениях. Задача коши
- •2 Элементарная теория вероятности
- •2.1 Предмет теории вероятности. Случайные события. Действия над случайными событиями.
- •Вероятностное пространство
- •2.2 Классическое определения вероятности. Комбинаторика
- •2.3 Статистическое определения вероятности. Частота и вероятность
- •2.4 Геометрическое определение вероятности
- •2.5 Теоремы сложения и умножения вероятностей. Условная вероятность. Независимость событий
- •Условные вероятности. Теорема умножения вероятностей (вероятность произведения событий)
- •2.6 Формула полной вероятности
- •2.7 Формула Байеса
- •2.8 Схема испытаний Бернулли
- •2.9 Понятие случайной величины. Числовые характеристики дискретных случайных величин
- •Математическое ожидание дискретной случайной величины
- •Свойства математического ожидания
- •Свойства дисперсии
- •2.10 Основные законы распределения дискретных случайных величин
- •2.11 Числовые характеристики непрерывных случайных величин
- •2.12 Основные законы распределения непрерывных случайных величин. Нормальное распределение
- •2.13 Зависимость двух случайных величин. Коэффициент корреляции
- •2.14 Предельные теоремы теории вероятностей
- •3 Основы математической статистики
- •3.1 Предмет математической статистики. Генеральная и выборочные совокупности
- •3.2 Эмпирическое распределение. Точечные оценки параметров распределения генеральной совокупности
- •3.3 Интервальные оценки. Доверительные интервалы для параметров нормального распределения
- •3.4 Проверка статистических гипотез. Проверка гипотез о законе распределения
- •4 Принципы построения математических моделей
- •5 Исследование операций и принятие решений
- •Учебное издание
- •394026 Воронеж, Московский просп., 14
2.13 Зависимость двух случайных величин. Коэффициент корреляции
Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (математических ожиданий случайнйх величин), которое называется коэффициентом ковариации или просто ковариацией.
cov(; ) = M((–M)(–M)).
Пусть = x1, x2, x3,, xn, = y1, y2, y3,,yn. Тогда
cov(;)= (4)
Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения , а при малых значениях более вероятны малые значения , то в правой части формулы (4) положительные слагаемые доминируют, и ковариация принимает положительные значения.
Если же более вероятны произведения (xi – M)(yj – M), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям в основном приводят к малым значениям и наоборот, то ковариация принимает большие по модулю отрицательные значения.
В первом случае принято говорить о прямой связи: с ростом случайная величина имеет тенденцию к возрастанию.
Во втором случае говорят об обратной связи: с ростом случайная величина имеет тенденцию к уменьшению или падению.
Ковариацию удобно представлять в виде
cov(; )=M()–MM.
Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.
Для независимых случайных величин и cov(;)=0.
Этому свойству можно придать более практическую формулировку если cov(;)0, то случайные величины и зависимы.
Итак, ненулевая ковариация свидетельствует о зависимости случайных величин.
Обратное утверждение не верно. Можно привести примеры как независимых, так и зависимых случайных величин, ковариация между которыми равна нулю.
Величина cov(;) зависит от единиц измерения, в которых выражаются и . Поэтому cov(;) неудобно принимать за показатель связи. Чтобы иметь дело с безразмерным показателем, ковариацию делят на произведение среднеквадратических отклонений (СКО) и
Полученное число называется коэффициентом корреляции случайных величин и .
Для независимых и =0 (так как в этом случае cov(;)=0).
Обратного заключения сделать нельзя. Случайные величины могут быть связаны даже функциональной зависимостью, но коэффициент их корреляции будет равен нулю.
Свойства коэффициента корреляции
–11;
Если =1, то =k+b, где k и b – константы, k>0.
Если =–1, то =k+b, где k<0.
Если =k+b, (k0) или =k1+b1, то =1 при k>0 или =–1 при k<0.
Коэффициент корреляции достигает своих предельных значений –1 и 1 в том и только в том случае, если совместное распределение и все концентрируется на некоторой прямой в плоскости ; . Если <1, то линейной зависимости между и нет. Все же по мере приближения к единице величину можно считать мерой близости к полной линейной зависимости между и .
Как правило, говоря о корреляционной зависимости, имеют в виду линейную корреляционную зависимость. Если имеется в виду нелинейная корреляционная зависимость, то это особо оговаривают
Можно говорить о совместном распределении двух непрерывных случайных величин.
В большинстве случаев возможен переход от непрерывных случайных величин к совместному распределению двух дискретных случайных величин следующим образом.
Нужно разбить отрезок a; b изменения случайной величины на равные отрезки c0=a; c1; c1; c2; c2; c3, , cn–1; cn=b. За значение случайной величины принять середину каждого отрезка.
Так же надо поступить со случайной величиной , разбив ее область значений e; f на равные отрезки g0=e; g1; g1; g2, … , gk–1; gk=f, и приняв за возможные значения середины отрезков gk–1; gk.
Таким образом мы получили дискретные случайные величины *=x1; x2; …xn и *=y1; y2; …yk, причем каждой паре (xi; yj) ставится в соответствие вероятность
Pij = P(([ci–1; ci])∩([gj–1; gj])).