В эпоху, когда потоки данных становятся всё более объёмными, а неопределённость — неотъемлемой частью каждого решения, понимание принципов случайности и закономерностей, управляющих ею, является не просто академическим интересом, но и ключевым навыком. Ежегодно миллионы специалистов по всему миру — от инженеров-разработчиков и финансовых аналитиков до биологов и социологов — обращаются к аппарату теории вероятностей и математической статистики для принятия обоснованных решений и построения адекватных моделей реальности. Наш реферат призван стать комплексным академическим обзором, систематизирующим фундаментальные понятия и методы этих двух взаимосвязанных дисциплин. Он разработан для студентов технических и экономических вузов, закладывая прочную основу для дальнейшего углубленного изучения и практического применения.
Основные понятия теории вероятностей
Теория вероятностей — это не просто раздел математики, а своего рода язык для описания неопределённости, позволяющий нам количественно оценивать шансы тех или иных событий, предсказывать их поведение в долгосрочной перспективе и принимать решения в условиях неполной информации. Представьте мир, где каждый бросок монеты или исход инвестиции был бы совершенно непредсказуем без каких-либо правил. Теория вероятностей привносит в этот хаос структуру, выявляя скрытые закономерности случайных явлений, и это фундаментальное осознание становится отправной точкой для построения любой модели, способной противостоять хаотичности реального мира.
Случайные события и их классификация
В основе теории вероятностей лежит понятие опыта (испытания) — это любая реализация совокупности определённых условий, которая может быть повторена неограниченное число раз, и при этом её исход (результат) заранее неизвестен. Например, бросок игральной кости, измерение температуры или результат биржевой сделки.
Результатом опыта является событие — любой факт, который в результате опыта может произойти или не произойти. События бывают нескольких видов:
- Достоверное событие (Ω): То, которое обязательно произойдёт при каждом проведении опыта. Пример: при броске игральной кости выпадет число меньше семи.
- Невозможное событие (∅): То, которое заведомо не произойдёт в результате опыта. Пример: при броске игральной кости выпадет число восемь.
- Случайное событие: То, которое может произойти или не произойти при осуществлении испытания. Пример: при броске игральной кости выпадет чётное число.
Среди случайных событий выделяются:
- Массовые события: Это события, которые при воспроизведении определённых условий могут появляться неоднократно, демонстрируя статистическую устойчивость. Именно такие события становятся объектом изучения теории вероятностей.
- Несовместные события: Два события A и B называются несовместными, если они не могут произойти одновременно в одном и том же опыте. Пример: при броске монеты выпадет «орёл» и «решка» одновременно.
- Совместные события: Это события, которые могут произойти одновременно в одном опыте. Пример: при броске игральной кости выпадет чётное число и число, кратное трём (т.е. 6).
- Противоположное событие (Ā): Для события A противоположным является событие Ā, которое заключается в том, что событие A не происходит. Сумма события и его противоположного всегда образует достоверное событие (A + Ā = Ω). Пример: если A – выпадение «орла», то Ā – выпадение «решки».
Важным понятием является полная группа событий. События Ak (k = 1, 2, …, n) образуют полную группу, если они попарно несовместны и в сумме образуют достоверное событие. Иными словами, в результате опыта обязательно произойдёт одно и только одно из этих событий. Пример: при броске монеты выпадение «орла» и «решки» образуют полную группу событий.
Определения вероятности
Для количественной оценки возможности наступления события в теории вероятностей используются различные определения вероятности.
Классическое определение вероятности
Наиболее интуитивное и исторически первое определение – это классическое определение вероятности. Оно применимо, когда исходы опыта равновозможны.
Вероятность случайного события A определяется как отношение числа благоприятных исходов к общему числу равновозможных исходов:
P(A) = m/n
где:
- n – общее число всех равновозможных, элементарных исходов данного опыта;
- m – число равновозможных исходов, благоприятствующих появлению события A.
Условия применимости:
- Число всех возможных исходов должно быть конечным.
- Все элементарные исходы должны быть равновозможными (симметричными), то есть не существует объективных причин для предпочтения одного исхода другому.
Пример: При броске игральной кости (6 граней) вероятность выпадения числа «3» равна 1/6, так как n=6 (всего 6 возможных исходов) и m=1 (благоприятный исход — только «3»).
Геометрическое определение вероятности
Когда число возможных исходов бесконечно и их нельзя пересчитать, применяется геометрическое определение вероятности. Оно используется для событий, связанных с попаданием точки в некоторую область на прямой, плоскости или в пространстве.
Вероятность попадания точки T в область A, являющуюся частью большей области Ω, определяется как отношение меры (длины, площади или объёма) области A к мере области Ω, при условии, что все точки области Ω равноправны:
P(A) = (мера области A) / (мера области Ω)
Пример: Пусть на отрезке [0; L] случайно выбрана точка. Вероятность того, что эта точка попадёт на отрезок [a; b], где 0 ≤ a < b ≤ L, будет равна (b — a) / L.
Аксиомы вероятности и свойства
Современная теория вероятностей строится на аксиоматическом подходе, предложенном А.Н. Колмогоровым. Эти аксиомы определяют основные правила, которым должна подчиняться вероятность любого события.
- Аксиома неотрицательности: Вероятность любого события A является неотрицательным числом: P(A) ≥ 0.
- Аксиома нормированности: Вероятность достоверного события Ω равна единице: P(Ω) = 1.
- Аксиома аддитивности: Если события A1, A2, …, An попарно несовместны, то вероятность их объединения (суммы) равна сумме их вероятностей:
 P(A1 ∪ A2 ∪ … ∪ An) = P(A1) + P(A2) + … + P(An).
 В случае бесконечного числа попарно несовместных событий:
 P(∪i=1∞ Ai) = Σi=1∞ P(Ai).
Из этих аксиом следуют важные свойства вероятности:
- Вероятность невозможного события: P(∅) = 0.
- Границы вероятности: Вероятность любого события A заключена между нулём и единицей: 0 ≤ P(A) ≤ 1.
- Вероятность противоположного события: P(Ā) = 1 — P(A).
- Вероятность суммы произвольных событий: Если события A и B не обязательно несовместны, то P(A ∪ B) = P(A) + P(B) — P(A ∩ B). Это обобщение теоремы сложения для совместных событий.
Понимание этих фундаментальных понятий формирует основу для анализа более сложных вероятностных моделей и статистических выводов, ведь именно отсюда произрастает способность предсказывать будущее, пусть и в вероятностных терминах.
Базовые теоремы теории вероятностей и комбинаторика
По мере усложнения задач и возрастания числа исследуемых событий, простого подсчёта благоприятных исходов становится недостаточно. На помощь приходят теоремы сложения и умножения вероятностей, а также комбинаторные методы, позволяющие эффективно рассчитывать количество различных конфигураций. Эти инструменты — краеугольные камни, без которых невозможно построить сколь-либо серьёзный вероятностный анализ, они дают возможность выйти за рамки простых случаев и применять теорию в реальных, многофакторных системах.
Теоремы сложения вероятностей
Теоремы сложения позволяют определить вероятность того, что из нескольких событий произойдёт хотя бы одно.
Теорема сложения для несовместных событий
Формулировка: Вероятность суммы двух несовместных событий A и B равна сумме вероятностей этих событий.
P(A+B) = P(A) + P(B)
Доказательство: Пусть опыт имеет n равновозможных исходов. Событию A благоприятствуют mA исходов, событию B – mB исходов. Поскольку A и B несовместны, ни один исход не благоприятствует обоим событиям одновременно. Тогда событию A+B (которое означает, что произошло A или B) благоприятствуют mA + mB исходов.
По классическому определению вероятности:
P(A) = mA/n
P(B) = mB/n
P(A+B) = (mA + mB)/n = mA/n + mB/n = P(A) + P(B).
Теорема легко обобщается на любое конечное число попарно несовместных событий.
Пример: Вероятность того, что при броске игральной кости выпадет «1» (событие A) или «6» (событие B). Эти события несовместны. P(A) = 1/6, P(B) = 1/6.
P(A+B) = P(A) + P(B) = 1/6 + 1/6 = 2/6 = 1/3.
Теорема сложения для совместных событий
Формулировка: Вероятность появления хотя бы одного из двух совместных событий A и B равна сумме вероятностей этих событий без вероятности их совместного появления.
P(A+B) = P(A) + P(B) — P(A ∩ B)
Доказательство: Если события A и B совместны, то событие A ∩ B (их пересечение) означает, что они произошли одновременно. При простом суммировании P(A) + P(B) мы дважды учтём исходы, благоприятствующие событию A ∩ B. Чтобы избежать двойного счёта, необходимо вычесть вероятность P(A ∩ B). Это можно наглядно проиллюстрировать с помощью диаграмм Эйлера-Венна.
Пример: Вероятность того, что студент сдаст экзамен по математике (событие A) или по физике (событие B). Пусть P(A) = 0.8, P(B) = 0.7, а вероятность сдать оба экзамена (A ∩ B) P(A ∩ B) = 0.6.
Тогда вероятность сдать хотя бы один экзамен:
P(A+B) = 0.8 + 0.7 — 0.6 = 0.9.
Условная вероятность и теоремы умножения
Теоремы умножения, в отличие от теорем сложения, позволяют рассчитать вероятность того, что несколько событий произойдут одновременно. Здесь ключевую роль играет понятие зависимости событий.
Условная вероятность
Определение: Условная вероятность P(A|B) — это вероятность события A, вычисленная при условии, что событие B уже произошло. Она отражает, как наступление одного события влияет на шансы другого.
P(A|B) = P(A ∩ B) / P(B), где P(B) > 0.
Из этого определения следует, что P(A ∩ B) = P(B) ⋅ P(A|B).
Пример: В урне 5 белых и 3 чёрных шара. Последовательно без возвращения достают два шара. Пусть A — второй шар белый, B — первый шар белый.
P(B) = 5/8. Если первый шар белый, то в урне осталось 4 белых и 3 чёрных.
P(A|B) = 4/7.
Теорема умножения для независимых событий
Формулировка: Два события A и B называются независимыми, если вероятность одного из них не зависит от того, произошло другое событие или нет, то есть P(A|B) = P(A) и P(B|A) = P(B). Вероятность совместного появления двух независимых событий A и B равна произведению вероятностей этих событий.
P(A ∩ B) = P(A) ⋅ P(B)
Доказательство: Из определения условной вероятности P(A ∩ B) = P(B) ⋅ P(A|B). Если A и B независимы, то P(A|B) = P(A). Подставляя это в формулу, получаем P(A ∩ B) = P(B) ⋅ P(A).
Пример: Вероятность того, что стрелок попадёт в цель (событие A) равна 0.7. Вероятность того, что другой стрелок попадёт в цель (событие B) равна 0.6. Эти события независимы. Вероятность того, что оба стрелка попадут в цель:
P(A ∩ B) = P(A) ⋅ P(B) = 0.7 ⋅ 0.6 = 0.42.
Теорема умножения для зависимых событий
Формулировка: Вероятность совместного появления двух зависимых событий A и B равна произведению вероятности одного из них на условную вероятность другого, при условии, что первое событие уже наступило.
P(A ∩ B) = P(A) ⋅ P(B|A) = P(B) ⋅ P(A|B)
Доказательство: Следует непосредственно из определения условной вероятности.
Пример: Вернёмся к урне с шарами: 5 белых, 3 чёрных. Достаём два шара без возвращения.
Вероятность того, что первый шар белый (B) и второй шар белый (A):
P(B ∩ A) = P(B) ⋅ P(A|B) = (5/8) ⋅ (4/7) = 20/56 = 5/14.
Формула полной вероятности и теорема Байеса
Эти две формулы являются мощными инструментами для работы с гипотезами и обновления вероятностей на основе новой информации.
Формула полной вероятности
Формулировка: Пусть событие A может наступить только в результате появления одной из n попарно несовместных гипотез H1, H2, …, Hn, которые образуют полную группу событий (т.е. Σi=1n P(Hi) = 1). Тогда вероятность события A (его полная вероятность) вычисляется как сумма произведений вероятностей каждой гипотезы на условную вероятность события A при условии этой гипотезы:
P(A) = Σi=1n P(Hi) ⋅ P(A|Hi)
Применение: Формула полной вероятности незаменима, когда прямое вычисление P(A) затруднено, но известны вероятности различных «сценариев» (гипотез) и условные вероятности A при каждом сценарии.
Пример: На заводе три станка производят детали. Первый станок производит 40% деталей, второй – 35%, третий – 25%. Доля брака для первого станка 2%, для второго 3%, для третьего 1%. Найти вероятность того, что случайно выбранная деталь окажется бракованной.
Гипотезы: H1 – деталь произведена первым станком, H2 – вторым, H3 – третьим.
P(H1) = 0.4, P(H2) = 0.35, P(H3) = 0.25.
Событие A – деталь бракованная.
P(A|H1) = 0.02, P(A|H2) = 0.03, P(A|H3) = 0.01.
P(A) = P(H1) ⋅ P(A|H1) + P(H2) ⋅ P(A|H2) + P(H3) ⋅ P(A|H3) = 0.4 ⋅ 0.02 + 0.35 ⋅ 0.03 + 0.25 ⋅ 0.01 = 0.008 + 0.0105 + 0.0025 = 0.021.
Теорема Байеса
Формулировка: Теорема Байеса позволяет «обновить» априорные (изначальные) вероятности гипотез Hk после того, как стало известно о наступлении некоторого события A. Условная вероятность гипотезы Hk при условии, что событие A наступило, вычисляется по формуле:
P(Hk|A) = (P(Hk) ⋅ P(A|Hk)) / P(A)
где P(A) находится по формуле полной вероятности.
Применение: Теорема Байеса является основой для многих систем принятия решений, машинного обучения, диагностики и прогнозирования. Она позволяет уточнять наши убеждения о причинах явлений, основываясь на полученных данных.
Пример (продолжение предыдущего): Пусть случайно выбранная деталь оказалась бракованной (событие A наступило). Какова вероятность того, что она была произведена первым станком (гипотеза H1)?
P(H1|A) = (P(H1) ⋅ P(A|H1)) / P(A) = (0.4 ⋅ 0.02) / 0.021 = 0.008 / 0.021 ≈ 0.381.
Таким образом, если деталь бракованная, вероятность того, что она произведена первым станком, выше, чем её изначальная априорная вероятность (0.4 против 0.381, в данном случае произошло небольшое уменьшение, что может быть связано с тем, что второй станок производит больше брака). А каков был бы результат, если бы второй станок производил меньше брака, чем первый?
Элементы комбинаторики
Комбинаторика – раздел математики, изучающий дискретные объекты, множества (сочетания, перестановки, размещения) и отношения на них. В теории вероятностей она используется для подсчёта числа различных исходов или конфигураций.
- Число перестановок (Pn): Это количество способов расположения n различных элементов в определённом порядке. Порядок важен.
 Pn = n!
 где n! (эн-факториал) = 1 ⋅ 2 ⋅ 3 ⋅ … ⋅ n.
 Пример: Сколькими способами можно расставить 3 книги на полке? P3 = 3! = 1 ⋅ 2 ⋅ 3 = 6.
- Число размещений (Ank): Это количество упорядоченных выборок из k элементов, выбранных из n различных элементов. Здесь важен как состав выборки, так и порядок элементов в ней.
 Ank = n! / (n-k)!
 Пример: Сколькими способами можно выбрать председателя и заместителя из 10 человек?
 A102 = 10! / (10-2)! = 10! / 8! = 10 ⋅ 9 = 90.
- Число сочетаний (Cnk): Это количество неупорядоченных выборок из k элементов, выбранных из n различных элементов. Здесь важен только состав выборки, порядок элементов не имеет значения.
 Cnk = Ank / k! = n! / (k! ⋅ (n-k)!)
 Пример: Сколькими способами можно выбрать 3 дежурных из 10 человек?
 C103 = 10! / (3! ⋅ (10-3)!) = 10! / (3! ⋅ 7!) = (10 ⋅ 9 ⋅ 8) / (3 ⋅ 2 ⋅ 1) = 120.
Принцип практической невозможности маловероятных событий
Этот принцип, хоть и не является строгой математической теоремой, имеет огромное практическое значение в применении теории вероятностей.
Суть принципа: Если случайное событие имеет очень малую вероятность (близкую к нулю), то в единичном испытании можно практически считать, что это событие не наступит. И наоборот, если вероятность события очень близка к единице, то практически можно считать, что оно произойдёт.
Практическое значение: Этот принцип используется для принятия решений в ситуациях, когда абсолютная достоверность недостижима. Например, при контроле качества продукции, если вероятность брака составляет 0.0001, мы практически уверены, что отдельная деталь будет годной. В статистическом контроле процессов, выход параметра за пределы, соответствующие очень малой вероятности, интерпретируется как сигнал о нарушении стабильности процесса. Он также лежит в основе статистического тестирования гипотез, где мы отвергаем гипотезу, если наблюдаемое событие имеет крайне низкую вероятность при условии её истинности.
Случайные величины и их числовые характеристики
Переход от анализа отдельных событий к изучению случайных величин знаменует собой новый уровень абстракции и мощности в теории вероятностей. Случайная величина — это числовое выражение исхода случайного опыта, позволяющее применять к случайным явлениям аппарат математического анализа.
Понятие случайной величины
Случайная величина (СВ) – это переменная, которая в результате испытания принимает одно из возможного множества своих значений, заранее неизвестное и зависящее от случайных причин. Например, число очков при броске кубика, время ожидания автобуса, рост человека.
Случайные величины делятся на два основных типа:
- Дискретная случайная величина (ДСВ): Это СВ, множество значений которой конечное или бесконечное, но счётное, и она принимает отдельные, изолированные значения. Проще говоря, её значения можно перечислить.
 Примеры:- Число попаданий в цель при 5 выстрелах (может быть 0, 1, 2, 3, 4, 5).
- Число вызовов, поступивших на телефонную станцию за час (0, 1, 2, …).
- Число бракованных изделий в партии из 100 штук.
 
- Непрерывная случайная величина (НСВ): Это СВ, которая может принимать любые значения внутри определённого числового промежутка (отрезка, числового луча или всей числовой прямой). При этом любое своё конкретное значение она принимает с вероятностью, равной нулю. Вероятность для НСВ определяется для попадания в интервал.
 Примеры:- Температура на улице (может быть 20.1°C, 20.15°C, 20.153°C и т.д.).
- Рост человека.
- Время работы электронного компонента до отказа.
 
Функция распределения случайной величины
Для описания поведения любой случайной величины используется функция распределения. Она является универсальной характеристикой как для дискретных, так и для непрерывных СВ.
Определение: Функция распределения случайной величины X (FX(x) или просто F(x)) – это числовая функция, определяющая вероятность того, что случайная величина X примет значение, меньшее заданного x:
F(x) = P(X < x)
Свойства функции распределения F(x):
- Границы значений: 0 ≤ F(x) ≤ 1. Вероятность всегда находится в этих пределах.
- Предельные значения:
- limx→-∞ F(x) = 0. Это означает, что вероятность того, что СВ примет значение меньше минус бесконечности, равна нулю.
- limx→+∞ F(x) = 1. Это означает, что вероятность того, что СВ примет значение меньше плюс бесконечности, равна единице (достоверное событие).
 
- Неубывающая функция: Если x1 < x2, то F(x1) ≤ F(x2). Это логично, поскольку вероятность того, что X < x1, не может быть больше вероятности того, что X < x2.
- Непрерывность слева: F(x) является непрерывной слева, то есть limΔx→0⁻ F(x + Δx) = F(x). Для непрерывных СВ она непрерывна на всей числовой оси.
Математическое ожидание
Математическое ожидание – это одна из важнейших числовых характеристик случайной величины, которая характеризует её среднее значение или центр распределения.
Математическое ожидание для дискретной случайной величины
Для дискретной случайной величины X, которая принимает значения x1, x2, …, xn с соответствующими вероятностями p1, p2, …, pn (где Σ pi = 1), математическое ожидание определяется как сумма произведений всех возможных значений на их вероятности:
M(X) = Σ (xi ⋅ pi)
Пример: Пусть ДСВ X — число очков при броске игральной кости. X принимает значения {1, 2, 3, 4, 5, 6} с вероятностью pi = 1/6 для каждого.
M(X) = 1⋅(1/6) + 2⋅(1/6) + 3⋅(1/6) + 4⋅(1/6) + 5⋅(1/6) + 6⋅(1/6) = (1+2+3+4+5+6)/6 = 21/6 = 3.5.
Математическое ожидание для непрерывной случайной величины
Для непрерывной случайной величины X, заданной плотностью вероятности f(x), математическое ожидание определяется как интеграл от произведения значения x на плотность вероятности по всей области определения:
M(X) = ∫-∞+∞ x ⋅ f(x) dx
Пример: Если НСВ X имеет равномерное распределение на интервале [a, b], то её плотность вероятности f(x) = 1/(b-a) для x ∈ [a, b] и 0 в противном случае.
M(X) = ∫ab x ⋅ (1/(b-a)) dx = (1/(b-a)) ⋅ [x²/2]ab = (1/(b-a)) ⋅ (b²/2 — a²/2) = (1/(b-a)) ⋅ ((b-a)(b+a)/2) = (a+b)/2.
Свойства математического ожидания
- Математическое ожидание константы: M(c) = c (Математическое ожидание константы равно самой константе).
- Вынесение константы: M(cX) = cM(X) (Постоянный множитель можно вынести за знак математического ожидания).
- Сдвиг: M(X+c) = M(X)+c (Математическое ожидание суммы СВ и константы равно сумме математического ожидания СВ и константы).
- Сумма случайных величин: M(X1+X2) = M(X1)+M(X2) (Математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий, независимо от их зависимости).
- Произведение независимых случайных величин: Если X и Y независимы, то M(XY) = M(X)M(Y).
Дисперсия и среднее квадратическое отклонение
В то время как математическое ожидание характеризует «центр» распределения, дисперсия измеряет «разброс» или «рассеяние» значений случайной величины относительно её математического ожидания.
Определение: Дисперсией случайной величины X (D(X)) называется математическое ожидание квадрата отклонения случайной величины от её математического ожидания:
D(X) = M[(X — M(X))²]
Для удобства вычислений часто используется следующая формула:
D(X) = M[X²] — (M(X))²
Эта формула утверждает, что дисперсия равна разности между математическим ожиданием квадрата случайной величины и квадратом её математического ожидания.
Дисперсия для дискретной случайной величины
Для ДСВ X, принимающей значения xi с вероятностями pi:
D(X) = Σ (xi — M(X))² ⋅ pi
или, используя упрощённую формулу:
D(X) = Σ xi² ⋅ pi — (Σ xi ⋅ pi)²
Пример (продолжение броска кости): M(X) = 3.5.
M(X²) = 1²⋅(1/6) + 2²⋅(1/6) + 3²⋅(1/6) + 4²⋅(1/6) + 5²⋅(1/6) + 6²⋅(1/6) = (1+4+9+16+25+36)/6 = 91/6 ≈ 15.167.
D(X) = M(X²) — (M(X))² = 91/6 — (3.5)² = 91/6 — 12.25 ≈ 15.167 — 12.25 = 2.917.
Дисперсия для непрерывной случайной величины
Для НСВ X, заданной плотностью вероятности f(x):
D(X) = ∫-∞+∞ (x — M(X))² ⋅ f(x) dx
или
D(X) = ∫-∞+∞ x² ⋅ f(x) dx — (∫-∞+∞ x ⋅ f(x) dx)²
Свойства дисперсии
- Дисперсия константы: D(c) = 0 (Дисперсия константы равна нулю, так как константа не имеет разброса).
- Вынесение константы: D(cX) = c²D(X) (Постоянный множитель выносится за знак дисперсии в квадрате).
- Сдвиг: D(X+c) = D(X) (Дисперсия случайной величины плюс константа равна дисперсии самой случайной величины, так как сдвиг не влияет на разброс).
- Сумма независимых случайных величин: D(X+Y) = D(X) + D(Y) (Дисперсия суммы двух независимых случайных величин равна сумме их дисперсий). Это свойство неверно для зависимых величин.
Среднее квадратическое отклонение
Среднее квадратическое отклонение (СКО, стандартное отклонение, σ(X)) – это арифметическое значение квадратного корня из дисперсии случайной величины:
σ(X) = √D(X)
Смысл: СКО измеряется в тех же единицах измерения, что и сама случайная величина, что делает его более интерпретируемым, чем дисперсия. Оно характеризует типичное отклонение значений СВ от её математического ожидания. Чем меньше СКО, тем более «сгруппированы» значения СВ вокруг среднего.
Пример (продолжение броска кости): σ(X) = √2.917 ≈ 1.708.
Математическое ожидание, дисперсия и среднее квадратическое отклонение формируют основу для понимания распределений случайных величин и являются ключевыми для применения в математической статистике, открывая путь к глубокому анализу данных.
Основы математической статистики: первичная обработка данных
Если теория вероятностей изучает закономерности случайных явлений, исходя из заданных условий, то математическая статистика идёт обратным путём: она по результатам наблюдений (данных) делает выводы о вероятностных закономерностях. Первичная обработка данных — это первый и критически важный шаг на этом пути, позволяющий систематизировать сырую информацию и выявить первые признаки скрытых структур. Ведь без этой систематизации мы рискуем утонуть в потоке информации, не сумев извлечь из неё ни грамма полезного знания.
Генеральная совокупность и выборка
В центре внимания математической статистики всегда находится некоторое множество объектов или измерений, обладающих общими характеристиками.
- Генеральная совокупность (ГС): Это полное множество всех возможных значений наблюдаемой случайной величины, которые могли бы быть получены в результате опыта. Теоретически она может быть бесконечна или очень велика. Цель статистического исследования — получить информацию о параметрах ГС (например, о её среднем значении или дисперсии).
 Пример: Все жители страны, все изделия, произведённые заводом за всё время, все возможные результаты измерения температуры.
- Выборочная совокупность (выборка): Это ограниченное число значений случайной величины, полученных в результате эксперимента или наблюдения, извлечённое из генеральной совокупности. Именно с выборкой мы работаем на практике, поскольку изучение всей генеральной совокупности часто невозможно или нецелесообразно. Выборка должна быть репрезентативной, то есть достаточно точно отражать свойства генеральной совокупности.
 Пример: 1000 случайно опрошенных жителей страны, партия из 100 случайным образом отобранных изделий, результаты 20 измерений температуры.
- Объём совокупности: Число объектов (элементов) в совокупности. Обозначается N для генеральной совокупности и n для выборочной совокупности.
Вариационные ряды и статистическое распределение
После получения выборки первым шагом является её систематизация.
- Вариационный ряд: Это последовательность результатов наблюдения (значений случайной величины), записанных в порядке неубывания. Он наглядно показывает, какие значения встречались и как часто.
 Пример: Результаты измерения роста 10 студентов (в см): 165, 170, 172, 175, 175, 178, 180, 180, 182, 185.
- Варианты (xi): Это различные значения признака, которые встретились в вариационном ряду.
 Пример (из предыдущего): 165, 170, 172, 175, 178, 180, 182, 185.
- Частоты (ni): Это числа, показывающие, сколько раз каждый вариант встретился при наблюдении. Сумма всех частот равна объёму выборки (Σ ni = n).
- Относительные частоты (W(A) или fi): Это отношение частоты варианта к объёму выборки.
 fi = ni / n.
 Сумма всех относительных частот равна 1 (Σ fi = 1). Относительная частота является статистическим аналогом вероятности.
- Статистическое распределение выборки: Оформляется в виде таблицы, где первая строка содержит варианты (xi), а вторая – соответствующие частоты (ni) или относительные частоты (fi).
Пример статистического распределения:
| xi (Рост, см) | ni (Частота) | fi (Относительная частота) | 
|---|---|---|
| 165 | 1 | 0.1 | 
| 170 | 1 | 0.1 | 
| 172 | 1 | 0.1 | 
| 175 | 2 | 0.2 | 
| 178 | 1 | 0.1 | 
| 180 | 2 | 0.2 | 
| 182 | 1 | 0.1 | 
| 185 | 1 | 0.1 | 
| Сумма | n=10 | 1.0 | 
- Графические представления:
- Полигон частот: Это ломаная линия, соединяющая точки с координатами (xi; ni) или (xi; fi). Используется для дискретных данных.
- Гистограмма: Для интервального статистического ряда (когда данные сгруппированы в интервалы) строится гистограмма — ступенчатая фигура, состоящая из прямоугольников, основания которых равны длине интервалов, а высоты пропорциональны частотам (или относительным частотам) этих интервалов. С помощью гистограммы можно судить о виде плотности распределения f(x) для непрерывных СВ.
 
Эмпирическая функция распределения
Эмпирическая функция распределения F*(x) — это статистический аналог теоретической функции распределения F(x). Она определяется как относительная частота выборочных значений, меньших некоторого фиксированного значения x:
F*(x) = (число элементов выборки, меньших x) / n
Подобно теоретической функции распределения, F*(x) является неубывающей, принимает значения от 0 до 1, и при увеличении объёма выборки n, F*(x) стремится к F(x).
Выборочные характеристики
Для количественного описания выборки используются так называемые выборочные статистики, которые являются аналогами числовых характеристик случайных величин.
- Выборочное среднее (x̅): Это среднее арифметическое значение признака выборочной совокупности. Оно является оценкой математического ожидания генеральной совокупности.
- Для несгруппированных данных: x̅ = (Σi=1n xi) / n
- Для сгруппированных данных с частотами ni: x̅ = (Σi=1k xi ⋅ ni) / n, где n = Σ ni.
 
- Выборочная дисперсия (смещённая, S²): Это среднее арифметическое квадратов отклонения наблюдаемых значений признака от их выборочного среднего. Является смещённой оценкой генеральной дисперсии, то есть систематически занижает её истинное значение.
- S² = (Σi=1n (xi — x̅)²) / n
- Для сгруппированных данных: S² = (Σi=1k (xi — x̅)² ⋅ ni) / n
 
- Несмещённая выборочная дисперсия (s²): Это улучшенная оценка генеральной дисперсии, которая не имеет систематического смещения. Получается путём корректировки смещённой дисперсии.
- s² = (n / (n-1)) ⋅ S² = (Σi=1n (xi — x̅)²) / (n-1)
- Коррекция (деление на n-1 вместо n) особенно важна для малых выборок.
 
- Выборочное среднее квадратическое отклонение (S): Это квадратный корень из выборочной дисперсии.
- S = √S² (смещённое СКО)
- s = √s² (несмещённое СКО, также известное как «исправленное» СКО)
 
Коэффициент корреляции Пирсона
Для оценки степени и направления линейной зависимости между двумя количественными переменными X и Y используется коэффициент корреляции Пирсона (rxy).
Формула:
rxy = (Σ (xi — x̅)(yi — ȳ)) / (√ (Σ (xi — x̅)²) ⋅ √ (Σ (yi — ȳ)²))
где x̅ и ȳ — выборочные средние для X и Y соответственно.
Свойства и интерпретация:
- Значения коэффициента находятся в пределах от -1 до +1.
- rxy = +1: Сильная прямая линейная зависимость (с ростом X, Y также растёт).
- rxy = -1: Сильная обратная линейная зависимость (с ростом X, Y убывает).
- rxy = 0: Отсутствие линейной зависимости (но может быть нелинейная зависимость!).
- Значения близкие к 0 (например, от -0.3 до 0.3) обычно указывают на слабую линейную связь.
- Значения, близкие к краям диапазона (например, от 0.7 до 1 или от -1 до -0.7), указывают на сильную линейную связь.
Типовые законы распределения случайных величин
Понимание различных законов распределения является фундаментом для построения статистических моделей и проверки гипотез. Каждый закон описывает определённый тип случайного поведения.
- Для дискретных случайных величин:
- Биномиальное распределение: Описывает число «успехов» в фиксированном числе n независимых испытаний Бернулли, каждое из которых имеет только два исхода (успех/неудача) с постоянной вероятностью успеха p.
- Распределение Пуассона: Моделирует количество редких событий, происходящих за фиксированный интервал времени или в определённой области пространства, когда известно среднее число таких событий (λ).
- Геометрическое распределение: Описывает число испытаний Бернулли до первого успеха.
 
- Для непрерывных случайных величин:
- Нормальное (Гауссово) распределение: Самое важное распределение в статистике. Описывает многие естественные явления (рост человека, ошибки измерений) и имеет колоколообразную форму. Характеризуется математическим ожиданием (μ) и дисперсией (σ²).
- Равномерное распределение: Описывает случайную величину, которая принимает любое значение в заданном интервале [a, b] с одинаковой вероятностью.
- Показательное (экспоненциальное) распределение: Используется для моделирования времени до наступления какого-либо события (например, времени безотказной работы оборудования, времени ожидания).
- Распределение Коши: Пример распределения, у которого не существует математического ожидания и дисперсии, несмотря на его симметричную форму.
 
Глубокое освоение этих понятий и методов позволяет студентам не только обрабатывать данные, но и переходить к более сложным задачам статистического вывода, таким как оценка параметров и проверка гипотез.
Предельные теоремы теории вероятностей
Предельные теоремы — это сердце теории вероятностей, раскрывающее её истинную мощь. Они объясняют, почему случайные явления, будучи непредсказуемыми по отдельности, демонстрируют поразительную устойчивость и закономерность при большом числе повторений. Эти теоремы являются мостом между чистой математикой и практической статистикой, обосновывая многие методы, используемые для анализа данных.
Закон больших чисел (ЗБЧ)
Закон больших чисел (ЗБЧ) — это не одна теорема, а группа теорем, которые устанавливают условия, при которых среднее арифметическое большого числа случайных величин приближается к их математическому ожиданию, а относительная частота события — к его вероятности. Иными словами, ЗБЧ утверждает, что при достаточно большом объёме данных случайность «сглаживается», и начинают проявляться фундаментальные закономерности.
Теорема Чебышева
Одной из наиболее общих форм ЗБЧ является теорема Чебышева.
Формулировка: Если X1, X2, …, Xn — последовательность попарно независимых случайных величин, каждая из которых имеет конечное математическое ожидание M(Xi) и конечные, равномерно ограниченные дисперсии (т.е. существует такая константа C, что D(Xi) ≤ C для всех i), то для любого сколь угодно малого положительного числа ε (эпсилон) вероятность того, что абсолютная величина отклонения среднего арифметического этих величин от среднего арифметического их математических ожиданий будет меньше ε, стремится к единице при n → ∞.
Формально это можно записать так:
P(|(1/n)Σi=1n Xi — (1/n)Σi=1n M(Xi)| < ε) → 1 при n → ∞.
Смысл: Теорема Чебышева демонстрирует, что среднее арифметическое большого числа случайных величин теряет свою случайность и становится предсказуемым, приближаясь к своему ожидаемому значению. Условие равномерной ограниченности дисперсий гарантирует, что ни одна из случайных величин не будет «слишком» разбросана, чтобы испортить общий результат.
Теорема Бернулли
Теорема Бернулли является частным, но очень наглядным случаем Закона больших чисел и связана с относительной частотой событий.
Формулировка: Если в n независимых испытаниях вероятность появления события A в каждом испытании постоянна и равна p (схема Бернулли), то при увеличении числа испытаний n относительная частота m/n появления события A стремится по вероятности к его вероятности p.
Формально:
P(|m/n — p| < ε) → 1 при n → ∞, где m — число появлений события A.
Смысл: Теорема Бернулли объясняет, почему при многократном повторении опыта (например, бросании монеты) относительная частота появления события (например, «орла») будет приближаться к его теоретической вероятности (0.5). Это эмпирически наблюдаемое явление получает строгое математическое обоснование.
Центральная предельная теорема (ЦПТ)
В то время как ЗБЧ говорит о сходимости среднего к математическому ожиданию, Центральная предельная теорема (ЦПТ) отвечает на вопрос о виде распределения суммы (или среднего) большого числа случайных величин. Это одна из самых важных теорем во всей статистике.
Общий смысл ЦПТ: Это группа теорем, устанавливающих условия, при которых распределение суммы большого числа независимых (или слабо зависимых) случайных величин приближается к нормальному распределению, независимо от вида распределения исходных случайных величин.
Теорема Ляпунова
Теорема Ляпунова является одной из наиболее мощных и часто используемых форм ЦПТ.
Формулировка: Если X1, X2, …, Xn — последовательность независимых случайных величин, имеющих конечные математические ожидания M(Xi) и конечные дисперсии D(Xi) > 0, и если выполняется условие Ляпунова (которое гарантирует, что ни одна из случайных величин не доминирует над суммой), то распределение стандартизированной суммы этих величин при больших n будет сколь угодно близко к стандартному нормальному распределению.
Стандартизированная сумма Sn* определяется как:
Sn* = (Σi=1n Xi — Σi=1n M(Xi)) / √(Σi=1n D(Xi))
Смысл: ЦПТ объясняет повсеместное появление нормального распределения в природе и общественной жизни. Например, рост людей, ошибки измерений, результаты тестов часто распределены нормально, потому что они являются результатом суммы множества мелких, независимых случайных факторов. ЦПТ является основой для построения доверительных интервалов и проверки статистических гипотез для выборочных средних.
Теоремы Муавра-Лапласа и Пуассона
Эти теоремы являются предельными случаями биномиального распределения, позволяющими аппроксимировать его с помощью нормального или пуассоновского распределений при определённых условиях.
Локальная теорема Муавра-Лапласа
Формулировка: Если в n независимых испытаниях вероятность появления события A в каждом испытании равна p (0 < p < 1, схема Бернулли) и m — число появлений события A, то при достаточно больших n вероятность того, что событие A наступит ровно m раз, приближённо равна:
Pn(m) ≈ (1 / √(npq)) ⋅ φ((m — np) / √(npq))
где:
- q = 1 — p;
- φ(x) = (1 / √(2π)) ⋅ e-x²/2 — функция Гаусса (плотность стандартного нормального распределения).
Условия применимости: Теорема применима, когда n достаточно велико, а p не слишком близко к 0 или 1. Практическое правило: npq ≥ 9-10.
Смысл: Позволяет вычислить вероятность конкретного числа успехов в серии Бернулли при большом n, используя нормальную аппроксимацию.
Интегральная теорема Муавра-Лапласа
Формулировка: Если в n независимых испытаниях вероятность появления события A в каждом испытании равна p (0 < p < 1), то вероятность того, что число появлений события A будет заключено в пределах от k1 до k2 (включительно), приближённо равна:
Pn(k1 ≤ m ≤ k2) ≈ Φ((k2 — np) / √(npq)) — Φ((k1 — np) / √(npq))
где:
- Φ(x) = (1 / √(2π)) ⋅ ∫-∞x e-t²/2 dt — функция Лапласа (функция распределения стандартного нормального распределения).
Условия применимости: Применима для больших n, когда npq ≥ 20-25.
Смысл: Эта теорема позволяет оценивать вероятность попадания числа успехов в интервал, что очень удобно для практических задач, например, контроля качества, где нужно знать вероятность того, что количество дефектных изделий не превысит определённого порога.
Теорема Пуассона
Формулировка: Если в n независимых испытаниях вероятность появления события A в каждом испытании p очень мала, а число испытаний n очень велико, при этом произведение λ = np остаётся конечным и не очень большим (обычно λ < 10), то вероятность того, что событие A произойдёт k раз, приближённо вычисляется по формуле Пуассона:
Pn(k) ≈ (λk / k!) ⋅ e-λ
Смысл: Теорема Пуассона позволяет аппроксимировать биномиальное распределение в случае редких событий. Это крайне полезно для моделирования таких явлений, как количество вызовов в колл-центр за час, число аварий на дороге за день или число дефектных деталей на большом конвейере.
Предельные теоремы являются краеугольным камнем математической статистики, обеспечивая теоретическое обоснование для применения нормального распределения в самых разнообразных задачах и позволяя делать выводы о генеральной совокупности на основе ограниченных выборок, что в конечном итоге наделяет нас способностью предсказывать и управлять будущим.
Практическое применение теории вероятностей и математической статистики
Теория вероятностей и математическая статистика давно вышли за рамки чисто академических дисциплин, став незаменимыми инструментами в самых разнообразных областях человеческой деятельности. Их роль постоянно возрастает, особенно в условиях цифровой трансформации и роста объёмов данных. Эти дисциплины предоставляют аппарат для принятия решений в условиях неопределённости, прогнозирования и выявления скрытых закономерностей, что делает их краеугольным камнем современного научно-технического прогресса.
Классические задачи и формулы
Даже базовые формулы теории вероятностей находят широкое применение в повседневных и инженерных задачах.
- Формула Бернулли: Pn(k) = Cnk ⋅ pk ⋅ qn-k
 Эта формула позволяет вычислить вероятность того, что в серии из n независимых одинаковых испытаний событие A, имеющее постоянную вероятность p в каждом испытании, появится ровно k раз.
 Пример: Вероятность попадания в цель для одного выстрела равна 0.8. Какова вероятность, что из 5 выстрелов будет ровно 3 попадания?
 P₅(3) = C₅³ ⋅ (0.8)³ ⋅ (0.2)² = (5! / (3!2!)) ⋅ 0.512 ⋅ 0.04 = 10 ⋅ 0.512 ⋅ 0.04 = 0.2048.
 Такие задачи встречаются в контроле качества (вероятность брака), спорте (вероятность выигрыша), военной тематике (вероятность поражения цели).
- Формула Пуассона: P(k) = (λk / k!) ⋅ e-λ
 Эта формула используется для расчёта вероятности появления k редких событий за определённый интервал времени или в определённой области, когда известно среднее число λ этих событий за данный интервал.
 Пример: Среднее число вызовов, поступающих на телефонную станцию за одну минуту, равно 2 (λ=2). Какова вероятность, что за следующую минуту поступит ровно 3 вызова?
 P(3) = (2³ / 3!) ⋅ e-2 = (8 / 6) ⋅ e-2 ≈ 1.333 ⋅ 0.135 = 0.18.
 Применение включает анализ потоков событий (количество ошибок в тексте, число автомобилей, проезжающих через перекрёсток).
Применение в естественных науках и инженерии
Роль теории вероятностей в естествознании постоянно возрастает, расширяя круг её практических приложений.
- В физике: Теория вероятностей играет центральную роль в описании и моделировании случайных процессов.
- Квантовая механика: Вероятностные методы лежат в основе описания поведения квантовых частиц, где невозможно точно предсказать положение или импульс частицы, а можно лишь говорить о вероятности её нахождения в определённом состоянии.
- Термодинамика и статистическая физика: Используются для изучения поведения систем из большого числа частиц (например, газов), где индивидуальное движение каждой частицы случайным, но коллективное поведение подчиняется статистическим закономерностям.
- Астрофизика: Методы применяются для анализа столкновений частиц тёмной материи, что помогает объяснить некоторые гамма-сигналы, или для расчёта вероятности обнаружения жизни на экзопланетах.
 
- В кибернетике и теории информации: Эти области немыслимы без вероятностного подхода.
- Теория информации: Вероятностные методы используются для оценки пропускной способности каналов связи (формула Шеннона), кодирования и декодирования информации, моделирования шумов и ошибок передачи данных.
- Оптимизация алгоритмов: В проектировании и анализе алгоритмов (например, рандомизированная сортировка, алгоритмы поиска) вероятностный анализ позволяет оценить среднюю производительность и вероятность ошибок.
 
Применение в современных технологиях
В последние десятилетия теория вероятностей и математическая статистика стали фундаментом для бурного развития информационных технологий.
- Анализ BIG DATA: Статистический анализ больших данных является одним из ключевых методов работы с технологиями исследования данных класса BIG DATA.
- Выявление скрытых закономерностей: Позволяет обнаруживать неочевидные тренды и паттерны в огромных массивах информации, например, в потребительском поведении, медицинских данных или показаниях сенсоров.
- Построение прогностических моделей: Используется для прогнозирования спроса (например, на товары в электронной коммерции или наличные в банкоматах), предсказания развития заболеваний, оценки рисков в банковской сфере.
- Оптимизация бизнес-процессов: От маршрутизации транспорта до персонализированных рекомендаций в онлайн-магазинах (Netflix, Amazon) — везде лежит вероятностно-статистический анализ.
 
- Машинное обучение и искусственный интеллект (ИИ): Это, пожалуй, одна из наиболее динамично развивающихся областей применения.
- Нейронные сети и глубокое обучение: Большинство алгоритмов машинного обучения (линейная регрессия, логистическая регрессия, методы опорных векторов, нейронные сети) базируются на статистических принципах для обучения на данных, минимизации ошибок и обобщения на новые данные.
- Компьютерное зрение: Для распознавания образов, объектов, лиц используются вероятностные модели и статистические классификаторы.
- Обработка естественного языка: Модели языка (например, для машинного перевода, спам-фильтров, голосовых помощников) строятся на статистическом анализе частотности слов и их сочетаний.
- Робототехника: Для навигации, локализации и принятия решений в условиях неопределённости роботы используют вероятностные алгоритмы (фильтры Калмана, Байесовские сети).
 
- Информационная безопасность: Методы статистики применяются для анализа угроз и обнаружения аномалий (например, нетипичная активность пользователя или сетевой трафик могут указывать на кибератаку).
Понимание этих принципов и методов стало неотъемлемой частью общей математической подготовки выпускников вузов, открывая им двери в мир, где данные — это новая валюта, а способность извлекать из них смысл — бесценный навык, обеспечивающий конкурентоспособность и инновации.
Заключение
Путешествие по фундаментальным концепциям теории вероятностей и математической статистики раскрывает перед нами мир, где случайность не хаотична, а подчинена строгим, хотя и неочевидным, закономерностям. От классических определений вероятности до мощных предельных теорем, от дискретных событий до сложных многомерных распределений — каждая тема является ступенью к более глубокому пониманию окружающего мира.
Мы увидели, как теория вероятностей предо��тавляет язык для количественной оценки неопределённости, позволяя нам оценивать шансы событий и предсказывать их поведение в долгосрочной перспективе. Математическая статистика, в свою очередь, даёт инструментарий для «обратной инженерии» реальности: по наблюдаемым данным делать выводы о скрытых вероятностных моделях и принимать обоснованные решения.
Особое внимание в нашем обзоре было уделено не только теоретическим основам, но и широчайшему спектру практических применений. В современном мире, где объём данных растёт экспоненциально, а неопределённость является постоянным спутником принятия решений, аппарат этих дисциплин стал критически важным. В физике и инженерии он позволяет моделировать сложные системы; в кибернетике и теории информации — строить надёжные системы связи и обработки данных. В сфере BIG DATA, машинного обучения и искусственного интеллекта теория вероятностей и математическая статистика выступают в качестве фундамента, на котором возводятся самые передовые технологии. Они позволяют нам не только выявлять скрытые закономерности и строить прогностические модели, но и создавать интеллектуальные системы, способные обучаться и адаптироваться.
Таким образом, теория вероятностей и математическая статистика — это не просто разделы математики, а универсальный ключ к пониманию и управлению сложными системами, как природными, так и созданными человеком. Их изучение формирует не только глубокую математическую культуру, но и аналитическое мышление, необходимое для навигации в условиях постоянно меняющейся и наполненной данными реальности, что делает их незаменимыми для любого современного специалиста.
Список использованной литературы
- Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Основы моделирования и первичная обработка данных. Москва : Финансы и статистика, 1983. 471 с.
- Беликова Г.И., Витковская Л.В. Основы теории вероятностей и элементы математической статистики: Учебное пособие. Санкт-Петербург : РГГМУ, 2018. URL: http://lib.rshu.ru/books/2018/rggmu_2018_belikova_gi_vitkovskaya_lv_osnovy_teorii_veroyatnostey_i_elementy_matematicheskoy_statistiki.pdf
- Вентцель Е.С. Теория вероятностей. Москва : Наука, 1969.
- Вентцель Е.С. Теория вероятностей: Учебник для вузов. 7-е изд., стер. Москва : Высшая школа, 2001. 575 с.
- Высоцкий И. Р., Ященко И. В. Теория вероятностей и статистика. Москва : МЦНМО, 2014.
- Гмурман В.Е. Теория вероятностей и математическая статистика. Москва : Высшая школа, 1997.
- Гмурман В.Е. Теория вероятностей и математическая статистика : учебник для СПО. 12-е изд. Москва : Издательство Юрайт, 2017. URL: https://www.biblio-online.ru/book/535E35F5-83AD-48A3-833E-DE002FC2268A
- Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистики. Москва : Высшая школа, 1979.
- Гнеденко Б.В. Курс теории вероятностей: Учебник. 8-е изд., испр. и доп. Москва : Едиториал УРСС, 2005.
- Горяйнов В.Т., Журавлев А.Г., Тихонов В.И. Примеры и задачи по статистической радиотехнике / Под общ. ред. В.И. Тихонова. Москва : Советское радио, 1970.
- Гурский Е.И. Теория вероятностей с элементами математической статистики: Учеб. пособие для втузов. Москва : Высшая школа, 1971.
- Калинина В.Н. Теория вероятностей и математическая статистика: учебник для СПО. Москва : Юрайт, 2016. URL: https://urait.ru/bcode/469956
- Колданов А.П., Колданов П.А. Теория вероятностей и математическая статистика : учебник. 2-е изд. Москва : Изд. дом Высшей школы экономики, 2024. URL: https://znanium.ru/catalog/product/2201222
- Колемаев В.А., Калинина В.Н. Теория вероятностей и математическая статистика: Учебник / Под ред. В.А. Колемаева. Москва : ИНФРА-М, 2001. 302 с.
- Кремер Н.Ш. Теория вероятностей и математическая статистика: Учебник для вузов. Москва : ЮНИТИ-ДАНА, 2001. 543 с.
- Плескунов М. А., Корчёмкина Л. В. Теория вероятностей : справочник. Екатеринбург : Изд-во Урал. ун-та, 2017. URL: https://elar.urfu.ru/bitstream/10995/46994/1/978-5-7996-1946-6_2017.pdf
- Попов А.М., Сотников В.Н. Теория вероятностей и математическая статистика : учебник и практикум для вузов. 2-е изд., испр. и доп. Москва : Издательство Юрайт, 2021. URL: https://urait.ru/bcode/469686
- Попов В.А. Теория вероятностей. Часть 2. Случайные величины: Учебное пособие. Казань : Казанский федеральный университет, 2013. URL: https://kpfu.ru/docs/F811986519/popov_tver2.pdf
- Свешников А.А. Сборник задач по теории вероятностей, математической статистике и теории случайных функции. Москва : Наука, 1970.
- Хуснутдинов Р.Ш. Теория вероятностей. Учебник. Москва : НИЦ ИНФРА-М, 2013. URL: https://ibooks.ru/bookshelf/361626/reading
- Чердынцева Г.А., Кравченко Н.М., Успенская Е.А. Случайные величины : метод. указ. Екатеринбург : Изд-во Урал. ун-та, 2014. URL: https://elar.urfu.ru/bitstream/10995/46994/1/978-5-7996-1946-6_2017.pdf
