В прошлом видео мы научились работать с дискретными случайными величинами.
В этом давайте разберемся с тем, как работают непрерывные.
Перед вами определение дискретной случайной величины,
она принимает значение из счетного множества A с вероятностями,
которые задаются с помощью функции вероятности, то есть для каждого ai из A,
мы знаем, с какой вероятностью наша случайная величина принимает это значение.
Если мы пытаемся обобщить это определение на случай непрерывных множеств,
у нас возникает проблема со словом счетный.
Дело в том, что по таким множествам, как множества всех действительных чисел или
интервалы на действительной оси, счетными не являются.
Поэтому вероятность любого события из такого множества будет в точности равна 0.
Поэтому непрерывные случайные величины нельзя задавать с помощью
функции вероятности.
Их нужно определять как-то по-другому.
Давайте посмотрим на два способа.
Способ первый: функция распределения.
Функцией распределения называется такая функция F (x),
что она равна вероятности того,
что случайная величина не превышает этого значения x.
Что нужно знать о функциях распределения?
Они всего выглядят примерно вот так.
Поскольку это вероятность, они принимают значение от 0 до 1.
Причем единице они равны где-то справа на числовой оси, а нулю где-то слева.
Кроме того функции распределения всегда не бывают по аргументу x.
Второй способ — это плотность распределения.
Плотностью называется такая функция f (x),
что ее интеграл по любому отрезку ab равен вероятности того,
что наша случайная величина x попадает в этот отрезок.
Плотности связаны с функциями
распределения следующим образом: интеграл от плотности,
от минус бесконечности до x равен функции распределения.
Кроме того, интеграл от плотности по всей числовой оси всегда равен 1,
потому что это вероятность того, что случайная величина принимает значение
между минус бесконечностью и плюс бесконечностью.
Естественно, наша случайная величина делает так всегда.
Плотности, в отличие от функции распределения,
могут выглядеть очень по-разному.
Например, вот так… или вот так, или так,
или даже так… Их существует огромное количество, они очень разнообразны.
В разных семействах распределения плотности выглядят по-разному.
Это их достоинство, потому что плотности визуально легче отличить друг от друга,
чем функции распределения, функции распределения всегда примерно одинаковые.
Давайте теперь рассмотрим несколько примеров непрерывных случайных величин.
Пример 1: случайные величины, имеющие равномерное распределение на отрезке.
Представьте, что вы подходите к перекрестку,
на светофоре горит красный свет, пусть x — это время ожидания на светофоре до того,
как вы сможете перейти дорогу.
Если на светофоре нет счетчика, вы не можете угадать,
сколько именно времени вам придется прождать.
Это может быть любое число от 0 до 30 секунд, допустим,
если это максимальное время ожидания на светофоре.
Именно так устроено равномерное распределение.
Случайная величина имеет равномерное распределение на отрезке ab,
если она принимает любое значение на этом отрезке с одинаковой вероятностью.
Вот так выглядит функция плотности вероятности для
равномерной случайной величины.
Она равна 1 / (b − a) везде на отрезке от a до b, и 0 везде вне этого отрезка.
График этой функции представляет собой вот такой прямоугольник,
длина которого равна b − a, а высота — 1 / (b − a).
Если мы найдем площадь этого прямоугольника, перемножив длины сторон,
мы получим 1.
Прекрасно, поскольку интеграл от плотности распределение и должен быть всегда
равен 1.
Следующий пример — нормальное распределение.
Представьте, что вы любите приходить на работу к 11 или может быть
даже лучше к 12, но вряд ли вам удается
каждый день входить в ваш рабочий кабинет с последним ударом часов.
Скорее всего, точное время вашего прихода на работу немного варьируется.
Иногда рано утром вас может разбудить ваш кот,
и вы не сможете отказать себе в удовольствии прийти на работу пораньше,
а иногда вы слишком долго стоите на светофоре и немного опаздываете.
Таким образом, точное время вашего прихода на работу представляет собой результат
взаимодействия большого количества слабо связанных друг с другом случайных
факторов.
Именно такие величины хорошо моделируются нормальным распределением или
еще его называют Гауссовским.
Нормальное распределение имеет два параметра: параметр μ отвечает за среднее
(в нашем примере это среднее время прихода на работу),
а параметр σ определяет разброс вокруг этого среднего.
Вот так выглядит функция плотности вероятности нормального распределения.
График этой функции немного напоминает эту шляпу.
Варьируя значения параметров μ и σ можно
влиять на форму графика функции плотности вероятности нормального распределения.
μ отвечает за положение «шляпы» на числовой оси, а σ за ее форму.
Если σ велико, то «шляпа» получается широкая и плоская,
а если мало, то наоборот, узкая и высокая.
А еще нормальное распределение может быть многомерным,
то есть задавать не скалярную, а векторную случайную величину.
В таком случае параметры нормального распределения тоже будут многомерными.
Так, если случайная величина имеет размерность k,
то μ также будет вектором размера k, а σ — матрицей
размера k х k, которая должна быть еще к тому же положительна определена.
Перед вами функция плотности вероятности
нормального распределения и вот ее график для двумерного случая.
Очень похож на эту «шляпу».
Итак, в этом видео мы узнали, что такое функция
распределения и функция плотности вероятности, а также рассмотрели два самых
популярных непрерывных распределения — нормальное и равномерное на отрезке.
Далее вам будет предложен IPython Notebook с примерами генерации случайных
величин и построение разных красивых картинок о распределениях.
Я советую вам его внимательнее изучить, это понадобится вам для домашней работы.
Это последнее видео в этом уроке, поэтому давайте подведем небольшие итоги.
В течение этого урока мы познакомились с механизмом,
с помощью которого в математике изучаются случайные явления и рассмотрели
подробно первую компоненту этого механизма — теорию вероятностей.
Мы узнали, что такое случайные величины, и какие у них бывают распределения,
а также познакомились с этой «шляпой».
В следующем уроке мы продолжим говорить о случайности и займемся второй
компонентой механизма — статистикой.