В современном мире, где данные являются новой нефтью, а сложные системы окружают нас повсюду, владение инструментарием высшей математики становится не просто академической прихотью, а критически важным навыком. Теория вероятностей, математическая статистика и комплексный анализ — это не просто абстрактные дисциплины, а мощные языки, на которых говорят инженеры, финансисты, физики и разработчики искусственного интеллекта. Они позволяют моделировать неопределенность, извлекать смысл из массивов данных и решать задачи, недоступные для интуитивного подхода. Целью данной курсовой работы является не просто демонстрация умения решать типовые задачи, но и глубокое погружение в теоретические основы каждой из представленных областей, поскольку именно понимание фундаментальных принципов обеспечивает гибкость и адаптивность при столкновении с новыми вызовами. Мы рассмотрим ключевые понятия, формулы и алгоритмы, которые служат фундаментом для понимания и практического применения этих дисциплин. Структура работы последовательно проведет читателя от азов комбинаторики до тонкостей функций комплексного переменного, предоставляя подробные решения пяти заданий, каждое из которых иллюстрирует применение конкретного математического аппарата.
Основы комбинаторики и классической теории вероятностей
Мир вокруг нас полон неопределенности, но даже в хаосе случайности можно найти структуру. Первым шагом к её пониманию служит комбинаторика — искусство подсчёта возможностей, и классическая теория вероятностей, которая присваивает этим возможностям числовое выражение. Эта глава заложит основу для решения задач, требующих подсчёта исходов, что является краеугольным камнем всей вероятностной теории. В конечном итоге, именно способность количественно оценивать шансы отличает системный подход от случайного предположения.
Комбинаторика: Перестановки, размещения, сочетания
Исторически комбинаторика возникла из задач, связанных с азартными играми, но её методы быстро нашли применение в более серьёзных областях, таких как криптография, статистика и даже биология. Суть комбинаторики сводится к ответу на вопрос: «Сколькими способами можно выбрать или расположить элементы из данного множества?».
Начнём с перестановок. Представьте, что у вас есть `n` различных предметов, и вы хотите расположить их в определённом порядке. Каждое такое расположение называется перестановкой. Например, для трёх букв A, B, C возможны 3! = 6 перестановок: ABC, ACB, BAC, BCA, CAB, CBA. Общая формула для числа перестановок из `n` элементов:
Pn = n!
где `n!` (читается «эн факториал») — это произведение всех целых чисел от 1 до `n`. По определению, 0! = 1 и 1! = 1.
Далее, размещения. Если мы выбираем `k` элементов из `n` доступных и порядок их расположения важен, то мы имеем дело с размещениями. Например, сколько двузначных чисел можно составить из цифр 1, 2, 3 без повторений? Это будут 12, 13, 21, 23, 31, 32 – всего 6 вариантов. Здесь `n = 3`, `k = 2`. Формула для числа размещений из `n` по `k` элементов:
Akn = n! / (n-k)!
И, наконец, сочетания. В отличие от размещений, здесь порядок выбора элементов не имеет значения. Если мы выбираем `k` элементов из `n` и нам важен только состав группы, а не последовательность, то это сочетания. Например, сколько способов выбрать 2 студентов из 3 (A, B, C) для дежурства? Варианты: (A,B), (A,C), (B,C). Заметьте, (A,B) и (B,A) здесь считаются одним и тем же сочетанием. Формула для числа сочетаний из `n` по `k` элементов:
Ckn = n! / (k! * (n-k)!)
Также важно упомянуть два фундаментальных правила, управляющих подсчётом:
- Правило произведения: Если действие A может быть выполнено `m` способами, а после него действие B может быть выполнено `n` способами, то оба действия (A и B вместе) могут быть выполнены `m * n` способами.
- Правило сложения: Если действие A может быть выполнено `m` способами, а действие B — `n` способами, и эти действия не могут быть выполнены одновременно, то выбор «либо A, либо B» может быть сделан `m + n` способами.
Эти инструменты комбинаторики позволяют нам точно определять количество возможных исходов в самых разных сценариях.
Случайные события и их классификация
В основе теории вероятностей лежит понятие случайного события. Это нечто, что может произойти или не произойти в результате определённого испытания или эксперимента. Например, при подбрасывании монеты выпадение «орла» — случайное событие.
События делятся на несколько типов:
- Достоверное событие: Происходит всегда при данных условиях. Например, выпадение числа менее 7 при броске обычного шестигранного кубика.
- Невозможное событие: Никогда не происходит при данных условиях. Например, выпадение числа 7 при броске того же кубика.
- Несовместные события: Не могут произойти одновременно в одном испытании. Например, при одном броске кубика не может одновременно выпасть «1» и «2».
- Полная группа событий: Система событий, из которых одно обязательно произойдет в результате испытания, и никакие два не могут произойти одновременно. Сумма вероятностей событий, образующих полную группу, всегда равна единице.
Благоприятствующий исход — это тот элементарный исход, который ведет к наступлению интересующего нас события. Например, если событие A — «выпадение четного числа» при броске кубика, то благоприятствующими исходами будут 2, 4, 6.
Классическое определение вероятности
Переходим к количественной оценке шансов. Классическое определение вероятности — это исторически первое и наиболее интуитивное определение. Оно применимо, когда все элементарные исходы испытания равновероятны и образуют полную группу.
Вероятность события A (P(A)) определяется как отношение числа `m` благоприятствующих этому событию исходов к общему числу `n` всех равновозможных, несовместных элементарных исходов, образующих полную группу:
P(A) = m/n
Важные свойства вероятности:
- Вероятность любого события лежит в диапазоне от 0 до 1, то есть 0 ≤ P(A) ≤ 1. Вероятность 0 означает невозможное событие, 1 — достоверное.
- Сумма вероятностей событий, образующих полную группу, равна 1.
Решение Задания №1
Предположим, у нас есть урна, содержащая 5 белых и 7 черных шаров. Из урны наудачу извлекают 3 шара. Необходимо найти вероятность того, что среди извлеченных шаров:
а) 2 белых и 1 черный шар;
б) все 3 шара одного цвета.
Шаг 1: Определяем общее число возможных исходов.
Всего в урне 5 + 7 = 12 шаров. Мы извлекаем 3 шара. Порядок извлечения не важен, поэтому используем сочетания.
Общее число исходов `n` = C312.
C312 = 12! / (3! · (12-3)!) = 12! / (3! · 9!) = (12 × 11 × 10) / (3 × 2 × 1) = 2 × 11 × 10 = 220.
Итак, `n = 220`.
Шаг 2: Вычисляем число благоприятствующих исходов для события (а).
Событие A: «извлечено 2 белых и 1 черный шар».
Число способов выбрать 2 белых шара из 5: C25 = 5! / (2! · 3!) = (5 × 4) / (2 × 1) = 10.
Число способов выбрать 1 черный шар из 7: C17 = 7! / (1! · 6!) = 7.
По правилу произведения, число благоприятствующих исходов для события A:
`m`A = C25 × C17 = 10 × 7 = 70.
Шаг 3: Вычисляем вероятность события (а).
P(A) = `m`A / `n` = 70 / 220 = 7/22 ≈ 0.318.
Шаг 4: Вычисляем число благоприятствующих исходов для события (б).
Событие B: «все 3 шара одного цвета». Это означает, что либо 3 шара белые, либо 3 шара черные.
Число способов выбрать 3 белых шара из 5: C35 = 5! / (3! · 2!) = (5 × 4) / (2 × 1) = 10.
Число способов выбрать 3 черных шара из 7: C37 = 7! / (3! · 4!) = (7 × 6 × 5) / (3 × 2 × 1) = 35.
По правилу сложения, число благоприятствующих исходов для события B:
`m`B = C35 + C37 = 10 + 35 = 45.
Шаг 5: Вычисляем вероятность события (б).
P(B) = `m`B / `n` = 45 / 220 = 9/44 ≈ 0.205.
Таким образом, вероятность извлечь 2 белых и 1 черный шар составляет примерно 31.8%, а вероятность извлечь все 3 шара одного цвета — примерно 20.5%. Эти результаты показывают, как принципы комбинаторики напрямую влияют на предсказание исходов в случайных процессах.
Условные вероятности и теоремы сложения/умножения вероятностей
В реальной жизни события редко происходят в вакууме. Часто вероятность одного события зависит от того, произошло ли другое. Именно здесь на сцену выходят условные вероятности, а за ними — мощные инструменты формулы полной вероятности и формул Байеса, позволяющие «переоценивать» наши предположения по мере поступления новой информации. Понимание этих инструментов позволяет не просто констатировать факт, но и делать обоснованные выводы о причинно-следственных связях.
Условная вероятность и зависимые/независимые события
Когда мы говорим об условной вероятности, мы отвечаем на вопрос: «Какова вероятность события B, если известно, что событие A уже произошло?». Обозначается это как P(B|A). Формально, если P(A) > 0, то:
P(B|A) = P(A ∩ B) / P(A)
где P(A ∩ B) — это вероятность совместного наступления событий A и B (вероятность их пересечения).
Понимание условной вероятности критически важно для различения зависимых и независимых событий.
- События A и B называются независимыми, если наступление одного из них не влияет на вероятность наступления другого. Математически это выражается как: P(B|A) = P(B) или P(A|B) = P(A). Эквивалентная формулировка: P(A ∩ B) = P(A) · P(B).
- Если P(B|A) ≠ P(B) (или P(A|B) ≠ P(A)), то события зависимы. В этом случае вероятность их совместного наступления P(A ∩ B) = P(A) · P(B|A) = P(B) · P(A|B). Это так называемая теорема умножения вероятностей.
Представьте, что вы вытаскиваете две карты из колоды. Вероятность того, что вторая карта будет тузом, зависит от того, была ли первая карта тузом (события зависимы). Если же вытащить карту, записать её, а затем вернуть в колоду и перемешать, то вытаскивание второй карты будет событием, независимым от первой.
Формула полной вероятности
Иногда интересующее нас событие A может произойти по разным «сценариям» или «гипотезам». Эти гипотезы должны быть попарно несовместными и в сумме образовывать полную группу событий. Это означает, что одно из этих событий (гипотез) обязательно произойдёт, и только одно.
Например, если мы достаем деталь из ящика, а детали могли быть произведены на разных станках (H1, H2, …, Hn), то каждая деталь была произведена на одном и только одном из этих станков.
Формула полной вероятности позволяет вычислить общую вероятность события A, зная вероятности каждой гипотезы P(Hi) и условные вероятности P(A|Hi) — то есть вероятность события A при условии, что каждая конкретная гипотеза Hi истинна:
P(A) = Σi=1n P(Hi)P(A|Hi)
Эта формула является мощным инструментом для решения задач, где исход зависит от множества предварительных условий, позволяя интегрировать различные факторы в единую вероятностную модель.
Формулы Байеса
Формулы Байеса (или теорема Байеса) — это один из самых влиятельных результатов в теории вероятностей и математической статистике, дающий нам возможность пересмотреть вероятности гипотез после того, как мы наблюдаем какое-либо событие. Это основа для любого рода диагностики, машинного обучения и многих других областей.
Если событие A уже произошло, и мы хотим узнать, какова теперь вероятность того, что имела место конкретная гипотеза Hj, мы используем формулу Байеса:
P(Hj|A) = (P(Hj)P(A|Hj)) / Σi=1n P(Hi)P(A|Hi)
Здесь:
- P(Hj) — априорная вероятность гипотезы Hj (вероятность до опыта или до того, как мы узнали о событии A).
- P(A|Hj) — вероятность правдоподобия (likelihood) — вероятность события A при условии, что гипотеза Hj верна.
- P(Hj|A) — апостериорная вероятность гипотезы Hj (вероятность после опыта, после того, как мы узнали о событии A).
- Знаменатель Σi=1n P(Hi)P(A|Hi) — это не что иное, как полная вероятность P(A), вычисленная по формуле полной вероятности. Он выступает в роли нормирующего множителя, чтобы сумма апостериорных вероятностей всех гипотез равнялась единице.
Формулы Байеса позволяют нам обновлять наши убеждения о мире по мере поступления новых данных, что является фундаментальным принципом адаптивного мышления и обучения.
Алгоритм решения задач с формулами полной вероятности и Байеса
Для успешного применения этих формул можно следовать чёткому алгоритму:
- Понять последовательность испытаний: Определить, что происходит сначала (выбор гипотезы), а что потом (наступление события).
- Обозначить искомое событие A: Чётко сформулировать, какое событие нас интересует.
- Сформировать полную группу гипотез H1, H2, …, Hn: Определить все возможные, попарно несовместные сценарии, которые могут привести к событию A. Убедиться, что они охватывают все возможные варианты.
- Вычислить априорные вероятности гипотез P(Hi): Определить вероятность каждой гипотезы до проведения эксперимента.
- Вычислить условные вероятности P(A|Hi): Определить вероятность события A при условии наступления каждой гипотезы.
- Применить формулу:
- Если нужно найти общую вероятность события A, использовать формулу полной вероятности.
- Если нужно переоценить вероятность гипотезы Hj после того, как событие A уже произошло, использовать формулу Байеса.
Решение Задания №2
Представим, что на заводе есть три станка, производящих одинаковые детали. Первый станок производит 40% всех деталей, второй — 35%, а третий — 25%. Известно, что доля брака для первого станка составляет 2%, для второго — 3%, а для третьего — 4%. Случайно выбранная деталь оказалась бракованной. Какова вероятность того, что она была произведена на втором станке?
Шаг 1: Уяснить последовательность испытаний.
Сначала деталь производится на одном из станков (выбирается гипотеза), затем мы проверяем её качество (наступает событие «брак»).
Шаг 2: Обозначить искомое событие A.
Событие A: «выбранная деталь является бракованной».
Шаг 3: Составить множество попарно несовместных гипотез.
H1: «деталь произведена на первом станке».
H2: «деталь произведена на втором станке».
H3: «деталь произведена на третьем станке».
Эти гипотезы образуют полную группу, так как деталь обязательно произведена на одном из трёх станков и не может быть произведена одновременно на двух.
Шаг 4: Вычислить вероятности гипотез P(Hi) и условные вероятности P(A|Hi).
- P(H1) = 0.40 (40% всех деталей)
- P(H2) = 0.35 (35% всех деталей)
- P(H3) = 0.25 (25% всех деталей)
- P(A|H1) = 0.02 (2% брака для первого станка)
- P(A|H2) = 0.03 (3% брака для второго станка)
- P(A|H3) = 0.04 (4% брака для третьего станка)
Проверим сумму вероятностей гипотез: 0.40 + 0.35 + 0.25 = 1.00.
Шаг 5: Применить формулу Байеса для P(H2|A).
Сначала найдем полную вероятность события A (что деталь бракованная):
P(A) = P(H1)P(A|H1) + P(H2)P(A|H2) + P(H3)P(A|H3)
P(A) = (0.40 × 0.02) + (0.35 × 0.03) + (0.25 × 0.04)
P(A) = 0.008 + 0.0105 + 0.01 = 0.0285
Теперь применим формулу Байеса для P(H2|A):
P(H2|A) = (P(H2)P(A|H2)) / P(A)
P(H2|A) = (0.35 × 0.03) / 0.0285
P(H2|A) = 0.0105 / 0.0285 ≈ 0.3684
Ответ: Вероятность того, что бракованная деталь была произведена на втором станке, составляет примерно 36.84%. Этот результат показывает, что после обнаружения брака вероятность происхождения детали со второго станка немного увеличилась по сравнению с априорной вероятностью (35% до 36.84%), что логично, так как его доля брака выше, чем у первого станка.
Дискретные случайные величины и биномиальное распределение
Переходя от простых событий к более сложным сценариям, мы встречаем концепцию случайной величины — числовой функции, значение которой зависит от исхода случайного эксперимента. Эта глава посвящена дискретным случайным величинам, которые принимают только счётное число значений, и их «поведению», описываемому законами распределения и числовыми характеристиками. Особое внимание будет уделено биномиальному распределению как одному из наиболее распространённых примеров, поскольку именно оно служит фундаментом для понимания множества практических ситуаций, от контроля качества до анализа голосований.
Понятие случайной величины и её типы
В своей основе, случайная величина (СВ) — это функция, которая сопоставляет каждому возможному исходу случайного эксперимента числовое значение. Например, при броске двух монет случайная величина «число выпавших орлов» может принять значения 0, 1 или 2.
Случайные величины делятся на два основных типа:
- Дискретная случайная величина (ДСВ): Принимает конечное или счётное множество значений. Эти значения обычно целые и «изолированы» друг от друга. Примеры: число выпавших «шестёрок» при 10 бросках кубика, количество дефектных изделий в партии, число звонков, поступивших на горячую линию за час.
- Непрерывная случайная величина (НСВ): Может принимать любое значение из некоторого интервала (конечного или бесконечного). Примеры: рост человека, время ожидания автобуса, температура воздуха.
Фокус этой главы — на дискретных случайных величинах, их свойствах и способах описания.
Закон распределения дискретной случайной величины
Чтобы полностью описать дискретную случайную величину, недостаточно просто перечислить её возможные значения. Необходимо также указать, с какой вероятностью каждое из этих значений может быть принято. Это и есть закон распределения дискретной случайной величины.
Наиболее часто закон распределения ДСВ представляется в виде ряда распределения — таблицы, где в первой строке перечислены все возможные значения `x`i, а во второй — соответствующие им вероятности `p`i:
X |
x1 |
x2 |
… | xn |
|---|---|---|---|---|
P |
p1 |
p2 |
… | pn |
Важные свойства ряда распределения:
- Все вероятности `p`i должны быть неотрицательны: `p`i ≥ 0.
- Сумма всех вероятностей должна быть равна единице: Σ `p`i = 1.
Закон распределения также может быть задан аналитически (формулой) или графически (полигоном распределения).
Числовые характеристики дискретных случайных величин
Помимо полного описания закона распределения, часто бывает полезно охарактеризовать случайную величину с помощью нескольких числовых параметров, которые дают представление о её «центре» и «разбросе».
Математическое ожидание M(X) (или среднее значение, ожидаемое значение) — это своего рода «центр тяжести» распределения. Оно показывает, какое значение случайная величина принимает в среднем за большое количество испытаний. Для дискретной СВ оно вычисляется как сумма произведений всех её возможных значений на их вероятности:
M(X) = Σ xipi
Свойства математического ожидания:
- M(C) = C, где C — константа.
- M(CX) = CM(X).
- M(X + Y) = M(X) + M(Y) (для любых СВ X и Y).
- M(XY) = M(X)M(Y) (только для независимых СВ X и Y).
- M(k + X) = k + M(X).
Дисперсия D(X) — это мера рассеяния или разброса значений случайной величины вокруг её математического ожидания. Большая дисперсия указывает на широкий разброс значений, малая — на их концентрацию вокруг среднего. Дисперсия определяется как математическое ожидание квадрата отклонения случайной величины от её математического ожидания:
D(X) = M[(X - M(X))2] = Σ (xi - M(X))2pi
Для удобства вычислений часто используют альтернативную формулу:
D(X) = M(X2) - [M(X)]2
где M(X2) = Σ xi2pi.
Свойства дисперсии:
- D(C) = 0.
- D(CX) = C2D(X).
- D(X + Y) = D(X) + D(Y) (только для независимых СВ X и Y).
Среднее квадратическое отклонение σ(X) — это квадратный корень из дисперсии:
σ(X) = √D(X)
Оно имеет ту же размерность, что и сама случайная величина, что делает его более интерпретируемым, чем дисперсия, при оценке «типичного» отклонения от среднего.
Биномиальное распределение (схема Бернулли)
Одним из наиболее часто встречающихся законов распределения дискретных случайных величин является биномиальное распределение, или распределение Бернулли. Оно возникает в экспериментах, которые состоят из `n` независимых испытаний, где в каждом испытании возможны только два исхода: «успех» (с вероятностью `p`) или «неудача» (с вероятностью `q = 1 — p`). Такие испытания называются испытаниями Бернулли.
Случайная величина X, распределённая по биномиальному закону, представляет собой число «успехов» в `n` испытаниях Бернулли. Её возможные значения: 0, 1, 2, …, `n`. Вероятность того, что X примет значение `k` (то есть произойдёт `k` успехов в `n` испытаниях), определяется формулой Бернулли:
P(X=k) = Ckn pk qn-k
где Ckn — число сочетаний из `n` по `k`.
Числовые характеристики биномиального распределения имеют простые и элегантные формулы:
- Математическое ожидание: M(X) = `np`
- Дисперсия: D(X) = `npq`
- Среднее квадратическое отклонение: σ(X) = √(`npq`)
Биномиальное распределение широко применяется для моделирования многих реальных процессов, таких как контроль качества (число дефектных изделий), социологические опросы (число людей, поддерживающих кандидата) и даже генетика.
Решение Задания №3
Предположим, что вероятность того, что студент сдаст экзамен по высшей математике, составляет 0.8. В группе 5 студентов. Рассмотрим случайную величину X — число студентов, сдавших экзамен.
Шаг 1: Определить тип случайной величины и её распределение.
Число студентов, сдавших экзамен, является дискретной случайной величиной, так как оно может принимать только целые значения от 0 до 5. Каждое испытание (сдача экзамена одним студентом) имеет два исхода: «сдал» (успех) или «не сдал» (неудача). Испытания независимы. Это типичная схема Бернулли, поэтому X распределена по биномиальному закону.
Параметры: `n = 5` (число студентов/испытаний), `p = 0.8` (вероятность успеха), `q = 1 — p = 0.2` (вероятность неудачи).
Шаг 2: Построить ряд распределения.
Возможные значения X: `k` = 0, 1, 2, 3, 4, 5.
Вычислим P(X=k) для каждого `k` по формуле P(X=k) = Ckn pk qn-k = Ck5 (0.8)k (0.2)5-k.
- P(X=0) = C05 (0.8)0 (0.2)5 = 1 × 1 × 0.00032 = 0.00032
- P(X=1) = C15 (0.8)1 (0.2)4 = 5 × 0.8 × 0.0016 = 0.0064
- P(X=2) = C25 (0.8)2 (0.2)3 = 10 × 0.64 × 0.008 = 0.0512
- P(X=3) = C35 (0.8)3 (0.2)2 = 10 × 0.512 × 0.04 = 0.2048
- P(X=4) = C45 (0.8)4 (0.2)1 = 5 × 0.4096 × 0.2 = 0.4096
- P(X=5) = C55 (0.8)5 (0.2)0 = 1 × 0.32768 × 1 = 0.32768
Ряд распределения:
X (`k`) |
0 | 1 | 2 | 3 | 4 | 5 |
|---|---|---|---|---|---|---|
P (`p`k) |
0.00032 | 0.0064 | 0.0512 | 0.2048 | 0.4096 | 0.32768 |
Проверка: Сумма вероятностей = 0.00032 + 0.0064 + 0.0512 + 0.2048 + 0.4096 + 0.32768 = 1.00000.
Шаг 3: Вычислить математическое ожидание M(X).
Для биномиального распределения: M(X) = np.
M(X) = 5 × 0.8 = 4.
В среднем 4 студента из 5 сдадут экзамен.
Шаг 4: Вычислить дисперсию D(X).
Для биномиального распределения: D(X) = npq.
D(X) = 5 × 0.8 × 0.2 = 0.8.
Шаг 5: Вычислить среднее квадратическое отклонение σ(X).
σ(X) = √D(X) = √0.8 ≈ 0.8944.
Ответ: Ряд распределения представлен выше. Математическое ожидание числа студентов, сдавших экзамен, составляет 4. Дисперсия равна 0.8, а среднее квадратическое отклонение — примерно 0.8944. Эти характеристики дают количественную оценку ожидаемого числа успехов и их разброса.
Непрерывные случайные величины и их характеристики
Переходя от дискретных к непрерывным случайным величинам, мы сталкиваемся с миром, где значение может быть любым в заданном интервале, а не только отдельными точками. Такие величины требуют иного математического аппарата для своего описания, основанного на функциях и интегралах, а не на суммах. Эта глава раскроет, как описывать и анализировать непрерывные случайные величины с помощью функции распределения и плотности распределения, а также как вычислять их числовые характеристики, что позволяет моделировать бесконечное разнообразие природных и инженерных процессов.
Непрерывная случайная величина и функция распределения F(x)
Что принципиально отличает непрерывную случайную величину (НСВ) от дискретной? НСВ может принять любое значение из некоторого интервала. Например, вес человека, время полёта самолёта, температура кипения воды. В этом случае вероятность того, что НСВ примет точно заданное значение, равна нулю. P(X = `c`) = 0 для любой константы `c`. Это не интуитивно для обыденного понимания, но математически это означает, что «точка» на непрерывной оси не имеет «массы» вероятности.
Поэтому для описания НСВ используется функция распределения вероятностей F(x), также называемая интегральным законом распределения. Она определяется как вероятность того, что случайная величина X примет значение, меньшее `x`:
F(x) = P(X < x)
Эта функция является универсальной для описания как дискретных, так и непрерывных случайных величин. Для НСВ F(x) всегда непрерывна на всей числовой оси ℝ.
Ключевые свойства функции распределения F(x):
- Неубывающая: Если `x`1 < `x`2, то F(`x`1) ≤ F(`x`2). Это логично: вероятность принять значение меньше большего числа не может быть меньше вероятности принять значение меньше меньшего числа.
- Ограниченность: 0 ≤ F(x) ≤ 1 для всех `x`. Вероятность не может быть отрицательной или больше единицы.
- Предельные значения:
- lim F(x) = 0 при x → -∞.
- lim F(x) = 1 при x → +∞.
Это означает, что вероятность принять значение меньше минус бесконечности равна 0, а меньше плюс бесконечности — 1 (достоверное событие).
- Непрерывность: Для НСВ F(x) непрерывна на всей области определения.
Плотность распределения вероятностей f(x)
Если функция распределения F(x) — это накопленная вероятность, то плотность распределения вероятностей f(x) (или дифференциальная функция распределения) можно воспринимать как "скорость", с которой эта вероятность накапливается. Она является производной от функции распределения:
f(x) = F'(x)
Важно отметить, что f(x) существует только для непрерывных случайных величин.
Свойства плотности распределения f(x):
- Неотрицательность: f(x) ≥ 0 для всех `x`. Вероятность не может быть отрицательной.
- Условие нормировки: Интеграл от f(x) по всей числовой оси равен единице:
∫-∞+∞ f(x)dx = 1Это означает, что полная вероятность того, что случайная величина примет какое-либо значение, равна 1 (достоверное событие).
Связь между F(x) и f(x) также выражается через интеграл:
F(x) = ∫-∞x f(t)dt
Это означает, что функция распределения F(x) является первообразной для плотности распределения f(x).
Вероятность попадания в интервал
Одно из основных применений плотности распределения — вычисление вероятности того, что непрерывная случайная величина X примет значение, лежащее в заданном интервале (a, b).
P(a ≤ X < b) = ∫ab f(x)dx = F(b) - F(a)
Геометрически эта вероятность соответствует площади под кривой плотности распределения на интервале от `a` до `b`.
Числовые характеристики непрерывных случайных величин
Как и для дискретных СВ, для непрерывных величин также существуют числовые характеристики, описывающие их центральное положение и разброс.
Математическое ожидание M(X) для НСВ:
M(X) = ∫-∞+∞ xf(x)dx
Если плотность f(x) задана на конечном интервале [`A`, `B`] и равна 0 вне его, то интеграл берётся по этому интервалу:
M(X) = ∫AB xf(x)dx
Дисперсия D(X) для НСВ:
D(X) = M[(X - M(X))2] = ∫-∞+∞ (x - M(X))2f(x)dx
Для практических вычислений часто удобнее использовать формулу:
D(X) = M(X2) - [M(X)]2
где M(X2) = ∫-∞+∞ x2f(x)dx.
Среднее квадратическое отклонение σ(X) для НСВ:
σ(X) = √D(X)
Свойства M(X), D(X), σ(X) для НСВ аналогичны свойствам для ДСВ.
Графические иллюстрации
Визуальное представление помогает лучше понять поведение непрерывных случайных величин.
- График функции распределения F(x): Это всегда неубывающая кривая, начинающаяся от 0 на -∞ и стремящаяся к 1 на +∞. Она непрерывна и не имеет "скачков" (в отличие от F(x) для ДСВ).
- График плотности распределения f(x): Также называемый кривой распределения. Это неотрицательная кривая, площадь под которой равна 1. Форма кривой указывает на характер распределения: например, колоколообразная форма для нормального распределения, прямоугольная для равномерного.
Решение Задания №4
Пусть непрерывная случайная величина X задана плотностью распределения вероятностей f(x):
f(x) = { C(2x - x2), если 0 ≤ x ≤ 2
{ 0, в противном случае
Требуется:
а) Найти константу C.
б) Найти функцию распределения F(x).
в) Вычислить M(X), D(X), σ(X).
г) Найти вероятность P(0.5 ≤ X < 1.5).
Шаг 1: Найти константу C (пункт а).
По свойству плотности распределения, ∫-∞+∞ f(x)dx = 1.
Поскольку f(x) отлична от нуля только на интервале [0, 2], то:
∫02 C(2x - x2)dx = 1
C ∫02 (2x - x2)dx = 1
C [x2 - x3/3]02 = 1
C [(22 - 23/3) - (02 - 03/3)] = 1
C [4 - 8/3] = 1
C [12/3 - 8/3] = 1
C [4/3] = 1
C = 3/4
Итак, f(x) = { (3/4)(2x - x2), если 0 ≤ x ≤ 2
{ 0, в противном случае
Шаг 2: Найти функцию распределения F(x) (пункт б).
F(x) = ∫-∞x f(t)dt
- Если x < 0:
F(x) = ∫-∞x 0 dt = 0. - Если 0 ≤ x ≤ 2:
F(x) = ∫0x (3/4)(2t - t2)dt = (3/4) [t2 - t3/3]0xF(x) = (3/4) (x2 - x3/3) - Если x > 2:
F(x) = ∫02 (3/4)(2t - t2)dt + ∫2x 0 dtМы уже вычислили этот интеграл при нахождении C, он равен 1.
F(x) = 1.
Таким образом, функция распределения F(x):
F(x) = { 0, если x < 0
{ (3/4)(x2 - x3/3), если 0 ≤ x ≤ 2
{ 1, если x > 2
Шаг 3: Вычислить M(X), D(X), σ(X) (пункт в).
- Математическое ожидание M(X):
M(X) = ∫02 xf(x)dx = ∫02 x (3/4)(2x - x2)dxM(X) = (3/4) ∫02 (2x2 - x3)dxM(X) = (3/4) [2x3/3 - x4/4]02M(X) = (3/4) [(2 × 23/3 - 24/4) - 0]M(X) = (3/4) [16/3 - 16/4] = (3/4) [16/3 - 4] = (3/4) [16/3 - 12/3]M(X) = (3/4) × (4/3) = 1. - Дисперсия D(X):
Сначала найдем M(X2):
M(X2) = ∫02 x2f(x)dx = ∫02 x2 (3/4)(2x - x2)dxM(X2) = (3/4) ∫02 (2x3 - x4)dxM(X2) = (3/4) [2x4/4 - x5/5]02M(X2) = (3/4) [x4/2 - x5/5]02M(X2) = (3/4) [(24/2 - 25/5) - 0]M(X2) = (3/4) [16/2 - 32/5] = (3/4) [8 - 32/5] = (3/4) [40/5 - 32/5]M(X2) = (3/4) × (8/5) = 6/5 = 1.2.Теперь вычислим D(X):
D(X) = M(X2) - [M(X)]2 = 1.2 - (1)2 = 1.2 - 1 = 0.2. - Среднее квадратическое отклонение σ(X):
σ(X) = √D(X) = √0.2 ≈ 0.447.
Шаг 4: Найти вероятность P(0.5 ≤ X < 1.5) (пункт г).
P(0.5 ≤ X < 1.5) = F(1.5) - F(0.5).
F(1.5) = (3/4)(1.52 - 1.53/3) = (3/4)(2.25 - 3.375/3) = (3/4)(2.25 - 1.125) = (3/4)(1.125) = 0.84375.
F(0.5) = (3/4)(0.52 - 0.53/3) = (3/4)(0.25 - 0.125/3) ≈ (3/4)(0.25 - 0.041667) ≈ (3/4)(0.208333) ≈ 0.15625.
P(0.5 ≤ X < 1.5) = 0.84375 - 0.15625 = 0.6875.
Ответ:
а) Константа C = 3/4.
б) Функция распределения F(x) найдена выше.
в) M(X) = 1, D(X) = 0.2, σ(X) ≈ 0.447.
г) Вероятность P(0.5 ≤ X < 1.5) = 0.6875. Эти результаты демонстрируют, как плотность распределения может быть использована для детального анализа поведения непрерывных случайных величин.
Функции комплексного переменного и теорема о вычетах
В то время как теория вероятностей позволяет нам ориентироваться в мире неопределённости, комплексный анализ открывает дверь в иное измерение математики, где числа перестают быть просто точками на прямой, а функции обретают новые, удивительные свойства. Эта глава посвящена основам функций комплексного переменного и мощному инструменту теории вычетов, который позволяет элегантно вычислять сложные интегралы, а также углубляет наше понимание фундаментальных математических структур.
Комплексные числа и функции комплексного переменного
Путешествие в комплексный анализ начинается с расширения понятия числа. Комплексное число `z` — это выражение вида `z = x + iy`, где `x` и `y` — действительные числа, а `i` — мнимая единица, определённая как `i2 = -1`.
- `x` называется действительной (вещественной) частью `Re z`.
- `y` называется мнимой частью `Im z`.
Важно отметить, что для комплексных чисел понятия "больше" или "меньше" не определены, в отличие от действительных чисел. Они образуют двумерную плоскость (комплексную плоскость), а не одномерную прямую.
Функция комплексного переменного f(z) — это правило, которое каждому комплексному числу `z` из некоторой области в комплексной плоскости сопоставляет другое комплексное число `w`. Поскольку `z = x + iy` и `w` тоже является комплексным числом, мы можем представить `w` в виде:
w = f(z) = u(x,y) + iv(x,y)
где `u(x,y)` — действительная часть функции `f(z)`, а `v(x,y)` — мнимая часть, причём обе `u` и `v` являются действительными функциями двух действительных переменных `x` и `y`.
Нахождение действительной и мнимой частей
Задача нахождения действительной `u(x,y)` и мнимой `v(x,y)` частей для данной функции `f(z)` сводится к алгебраическим преобразованиям. Необходимо подставить `z = x + iy` в выражение для `f(z)` и затем сгруппировать все слагаемые, не содержащие `i`, в `u(x,y)`, а все слагаемые, содержащие `i` (без самого `i`), в `v(x,y)`.
Пример: Найти `u(x,y)` и `v(x,y)` для функции `f(z) = z2`.
Подставляем `z = x + iy`:
f(z) = (x + iy)2 = x2 + 2ixy + (iy)2 = x2 + 2ixy - y2
Группируем действительную и мнимую части:
f(z) = (x2 - y2) + i(2xy)
Таким образом, `u(x,y) = x2 - y2` и `v(x,y) = 2xy`.
Аналитические функции и условия Коши-Римана
Центральным понятием в комплексном анализе является аналитическая функция (также называемая голоморфной). Функция `f(z)` называется аналитической в области `D`, если она дифференцируема в каждой точке этой области. Дифференцируемость в комплексном смысле гораздо более сильное условие, чем в действительном, и влечёт за собой множество замечательных свойств.
Ключевым критерием аналитичности являются условия Коши-Римана (или условия Даламбера-Эйлера). Если функция `f(z) = u(x,y) + iv(x,y)` дифференцируема в точке `z = x + iy`, то её действительная и мнимая части должны удовлетворять следующим соотношениям:
∂u/∂x = ∂v/∂y
∂u/∂y = -∂v/∂x
Эти условия являются необходимыми. Если, кроме того, частные производные первого порядка `∂u/∂x`, `∂u/∂y`, `∂v/∂x`, `∂v/∂y` непрерывны в точке `z`, то условия Коши-Римана являются и достаточными для аналитичности `f(z)` в этой точке.
Действительная и мнимая части аналитической функции обладают ещё одним важным свойством: они являются гармоническими функциями. Гармоническая функция — это функция, которая удовлетворяет уравнению Лапласа:
Δu = ∂2u/∂x2 + ∂2u/∂y2 = 0
Δv = ∂2v/∂x2 + ∂2v/∂y2 = 0
Это означает, что `u(x,y)` и `v(x,y)` — гладкие функции, не имеющие "резких изгибов" в своём поведении.
Особые точки и вычеты
Не все функции аналитичны во всей комплексной плоскости. Точки, в которых функция теряет свойство аналитичности, называются особыми точками. Если функция аналитична в проколотой окрестности `0 < |z - z0| < R` некоторой точки `z0`, то `z0` называется изолированной особой точкой.
Вычет аналитической функции в изолированной особой точке — это уникальное число, которое играет центральную роль в интегрировании. Если функция `f(z)` разлагается в ряд Лорана в окрестности `z0`:
f(z) = Σn=-∞∞ cn(z - z0)n
то вычет функции `f(z)` в точке `z0`, обозначаемый `Res(f, z0)`, — это коэффициент `c-1`, то есть коэффициент при члене `(z - z0)-1`.
Вычисление вычетов является ключевым шагом во многих приложениях, особенно при интегрировании. Для простых полюсов (особых точек первого порядка) вычет можно найти по формуле:
Res(f, z0) = limz→z0 (z - z0)f(z)
Основная теорема о вычетах
Основная теорема о вычетах (или теорема Коши о вычетах) — это один из самых элегантных и мощных результатов комплексного анализа, позволяющий вычислять контурные интегралы.
Формулировка: Если функция `f(z)` является аналитической в замкнутой области `D`, ограниченной простым замкнутым контуром `L`, за исключением конечного числа изолированных особых точек `z`1, `z`2, ..., `z`n, которые лежат внутри контура `L`, то интеграл от `f(z)` по замкнутому контуру `L` равен `2πi`, умноженному на сумму вычетов функции `f(z)` во всех этих особых точках:
∫L f(z)dz = 2πi Σk=1n Res(f, zk)
Геометрически контур `L` обходится в положительном направлении (против часовой стрелки).
Применение теории вычетов для вычисления интегралов
Теорема о вычетах является невероятно универсальным инструментом, выходящим далеко за рамки простого вычисления интегралов по замкнутым контурам в комплексной плоскости. Она позволяет вычислять широкий класс действительных определённых и несобственных интегралов, которые чрезвычайно трудно или невозможно взять стандартными методами действительного анализа.
Наиболее распространённые применения включают:
- Вычисление несобственных интегралов первого рода по всей действительной оси:
∫-∞+∞ f(x) dx. Для этого функция `f(x)` расширяется до `f(z)` в комплексной плоскости, а контур интегрирования замыкается большой полуокружностью в верхней или нижней полуплоскости. - Вычисление интегралов от тригонометрических функций:
∫02π R(cosφ, sinφ)dφ. Путём замены `z = eiφ`,cosφ = (z + 1/z)/2,sinφ = (z - 1/z)/(2i),dφ = dz/(iz), интеграл преобразуется в контурный интеграл по единичной окружности. - Вычисление несобственных интегралов, содержащих тригонометрические функции:
∫-∞+∞ f(x) cos(ax) dxили∫-∞+∞ f(x) sin(ax) dx. Здесь часто используется лемма Жордана в сочетании с теоремой о вычетах.
Мощь этой теории заключается в том, что она преобразует сложные задачи интегрирования в относительно простые задачи по поиску особых точек и вычислению вычетов.
Решение Задания №5
Пусть дана функция комплексного переменного f(z) = z / (z2 + 4).
Требуется:
а) Найти действительную `u(x,y)` и мнимую `v(x,y)` части функции `f(z)`.
б) Вычислить интеграл ∫C f(z) dz, где контур `C` — окружность |z - 2i| = 3, ориентированная против часовой стрелки.
Шаг 1: Найти действительную и мнимую части функции `f(z)` (пункт а).
Заменим `z` на `x + iy`:
f(z) = (x + iy) / ((x + iy)2 + 4)
f(z) = (x + iy) / (x2 + 2ixy - y2 + 4)
f(z) = (x + iy) / ((x2 - y2 + 4) + i(2xy))
Чтобы выделить действительную и мнимую части, умножим числитель и знаменатель на сопряжённое выражение к знаменателю:
f(z) = (x + iy) × ((x2 - y2 + 4) - i(2xy)) / (((x2 - y2 + 4) + i(2xy)) × ((x2 - y2 + 4) - i(2xy)))
Знаменатель: (x2 - y2 + 4)2 + (2xy)2
Числитель:
x(x2 - y2 + 4) - i(x)(2xy) + iy(x2 - y2 + 4) - i2(y)(2xy)
= x3 - xy2 + 4x - 2ix2y + ix2y - iy3 + 4iy + 2xy2
= (x3 + xy2 + 4x) + i(-2x2y + x2y - y3 + 4y)
= (x3 + xy2 + 4x) + i(-x2y - y3 + 4y)
Таким образом:
u(x,y) = (x3 + xy2 + 4x) / ((x2 - y2 + 4)2 + (2xy)2)
v(x,y) = (-x2y - y3 + 4y) / ((x2 - y2 + 4)2 + (2xy)2)
Шаг 2: Вычислить интеграл ∫C f(z) dz (пункт б).
Для вычисления интеграла используем основную теорему о вычетах.
Сначала найдём особые точки функции f(z) = z / (z2 + 4). Особые точки — это нули знаменателя:
z2 + 4 = 0
z2 = -4
z = ±√(-4) = ±2i
Итак, особые точки: z1 = 2i и z2 = -2i. Обе являются простыми полюсами.
Теперь определим, какие из этих особых точек лежат внутри контура `C`.
Контур `C` — окружность |z - 2i| = 3. Это окружность с центром в точке `z0 = 2i` и радиусом `R = 3`.
- Для
z1 = 2i:|2i - 2i| = |0| = 0 < 3. Точкаz1 = 2iнаходится внутри контура. - Для
z2 = -2i:|-2i - 2i| = |-4i| = 4. Поскольку4 > 3, точкаz2 = -2iнаходится вне контура.
Следовательно, нам нужно вычислить только вычет в точке z1 = 2i.
Вычет для простого полюса `z0` функции f(z) = P(z) / Q(z) можно найти по формуле Res(f, z0) = P(z0) / Q'(z0).
Здесь P(z) = z и Q(z) = z2 + 4, так что Q'(z) = 2z.
Res(f, 2i) = (2i) / (2 × 2i) = 2i / 4i = 1/2.
Теперь применим основную теорему о вычетах:
∫C f(z) dz = 2πi × Res(f, 2i)
∫C f(z) dz = 2πi × (1/2) = πi.
Ответ:
а) Действительная часть u(x,y) = (x3 + xy2 + 4x) / ((x2 - y2 + 4)2 + (2xy)2),
мнимая часть v(x,y) = (-x2y - y3 + 4y) / ((x2 - y2 + 4)2 + (2xy)2).
б) Интеграл ∫C f(z) dz = πi.
Заключение
На протяжении данной курсовой работы мы проследовали путь от базовых принципов подсчёта возможностей до элегантных методов интегрирования в комплексной плоскости, охватив ключевые разделы высшей математики: теорию вероятностей, математическую статистику и комплексный анализ. Каждая глава представляла собой самостоятельный аналитический блок, раскрывающий фундаментальные концепции и демонстрирующий их практическое применение через пошаговые решения типовых задач.
Мы начали с основ комбинаторики и классической теории вероятностей, где освоили язык перестановок, размещений и сочетаний, а также научились определять вероятность случайных событий. Далее, погружение в условные вероятности и теоремы сложения/умножения вероятностей позволило нам понять, как информация о наступлении одного события может изменить наши ожидания относительно другого, кульминацией чего стало освоение формулы полной вероятности и могущественной теоремы Байеса.
Третья и четвёртая главы были посвящены случайным величинам. Мы исследовали дискретные случайные величины, их законы распределения и числовые характеристики, такие как математическое ожидание и дисперсия, а также подробно изучили биномиальное распределение. Затем мы перешли к непрерывным случайным величинам, освоив понятия функции распределения и плотности распределения вероятностей, и научились вычислять их интегральные характеристики, что является фундаментом для понимания множества физических и экономических явлений.
Наконец, мы совершили экскурс в функции комплексного переменного и теорему о вычетах. Это позволило нам не только понять структуру комплексных чисел и функций, но и освоить мощнейший инструмент комплексного анализа — теорему о вычетах, которая открывает путь к вычислению сложнейших интегралов, практически недоступных действительными методами.
Каждое задание не просто демонстрировало решение, но и углубляло понимание underlying математических принципов. Полученные знания и навыки являются неотъемлемой частью подготовки специалиста в любой технической или научной области. Они формируют аналитическое мышление, необходимое для моделирования, прогнозирования и принятия обоснованных решений в условиях неопределённости и сложности, что делает высшую математику не просто набором формул, а универсальным инструментом познания мира.
Список использованных источников
- Теория вероятностей: Учебное пособие | В.К. Барышева, Ю.И. Галанов, Е.Т. Ивлев, Е.Г. Пахомова | Томский политехнический университет, 2009.
- Краткий курс комбинаторики, теории вероятностей и математической статистики | Н.Н. Яремко, О.Г. Никитина | Пензенский государственный университет, 2017.
- Элементы комбинаторного анализа в задачах теории вероятностей и моделях случайных графов: учебное пособие | А.В. Серебряков, В.В. Новиков, Ю.Н. Нагар | Энгельсский технологический институт (филиал) СГТУ имени Гагарина Ю.А., 2019.
- Теория вероятностей и математическая статистика: Учебное пособие | В.Е. Гмурман | Электронная библиотека Абхазского Государственного Университета, 2003.
- Теория вероятностей: Учебно-методическое пособие для студентов экономических специальностей | С.М. Испирян | Ереванский филиал Московского экономико-статистического института, 2013.
- ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА | З. З. Тикова | Северо-Кавказская государственная академия.
- Теория вероятностей и математическая статистика. Базовый курс с примерами и задачами | А.И. Кибзун, Е.Р. Горяинова, А.В. Наумов | ФИЗМАТЛИТ, 2005.
- Теория вероятностей и математическая статистика: учебное пособие | М.А. Альшанский | Уральский федеральный университет, 2021.
- Теория вероятностей : справочник | М.А. Плескунов | Уральский федеральный университет, 2017.
- ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ И ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ | Г.И. Беликова, Л.В. Витковская | Российский государственный гидрометеорологический университет (РГГМУ), 2018.
- Теория функций комплексного переменного : учеб. пособие | Н.В. Гредасова, Н.И. Желонкина, М.А. Корешникова [и др.] | Уральский федеральный университет, 2018.
- Функции комплексного переменного и операционное исчисление: учебное пособие | Л.Г. Евсевлеева, С.В. Иванова, Л.М. Быкова, Н.Н. Добрынина | Ангарский государственный технический университет, 2013.
- КОМПЛЕКСНЫЕ ЧИСЛА | НГУ.
- ПРОСТЕЙШИЕ ФУНКЦИИ КОМПЛЕКСНОГО ПЕРЕМЕННОГО | С.В. Фролов | Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики.
- Высшая математика.pdf | Санкт-Петербургский государственный институт кино и телевидения.
- Методические материалы по учебной дисциплине Теория функций комплексного переменного | БФ ВГУ - Воронежский государственный университет.
- Теория функций комплексного переменного | Астраханский государственный университет.
- ЛЕКЦИИ ПО ТЕОРИИ ФУНКЦИЙ КОМПЛЕКСНОГО ПЕРЕМЕННОГО | А.В. Ефимов, Б.П. Демидович | М.: Наука, 1980.
- Теория вероятностей и математическая статистика: учебно-методический комплекс дисциплины | ЕН.03 | Мичуринский государственный аграрный университет, 2020.
- Теория вероятностей и математическая статистика: теоретико-интерактивный курс с примерами и задачами | П.Ф. Зибров, С.В. Пивнева, О.А. Кузнецова | ТГУ, 2015.
- Теория вероятностей и математическая статистика: учебное пособие | Е.А. Трофимова, Н.В. Кисляк, Д.В. Гилёв | Уральский федеральный университет, 2018.
- Теория вероятностей и математическая статистика: методические указания по практическим занятиям | С.А. Докучаев | Северо-Кавказский филиал МТУСИ, 2019.
- Условия Коши — Римана - Энциклопедия Руниверсалис.
- 7.1.4. Условия Коши – Римана | online.sfu-kras.ru.
- Гармонические функции - Дистанционный курс высшей математики НИЯУ МИФИ.
- ТЕОРИЯ ФУНКЦИЙ КОМПЛЕКСНОГО ПЕРЕМЕННОГО - Лекции ученых МГУ.
- Щелкните здесь для загрузки Гармонические_функции.docx | math.tversu.ru.
- Применение вычетов для вычисления несобственных интегралов | math.usu.ru.
- Применение теории вычетов к вычислению вещественных интегралов | math.phys.msu.ru.
Список использованной литературы
- Альшанский, М. А. Теория вероятностей и математическая статистика : учебное пособие / М. А. Альшанский. — Екатеринбург : Уральский федеральный университет, 2021. — 132 с.
- Барышева, В. К. Теория вероятностей : учебное пособие / В. К. Барышева, Ю. И. Галанов, Е. Т. Ивлев, Е. Г. Пахомова ; Томский политехнический университет. — Томск : ТПУ, 2009. — 138 с.
- Беликова, Г. И. Основы теории вероятностей и элементы математической статистики / Г. И. Беликова, Л. В. Витковская ; Российский государственный гидрометеорологический университет (РГГМУ). — Санкт-Петербург : РГГМУ, 2018. — 167 с.
- Гмурман, В. Е. Теория вероятностей и математическая статистика : учебное пособие / В. Е. Гмурман ; Электронная библиотека Абхазского Государственного Университета. — Сухум : АГУ, 2003. — 479 с.
- Гредасова, Н. В. Теория функций комплексного переменного : учебное пособие / Н. В. Гредасова, Н. И. Желонкина, М. А. Корешникова [и др.] ; Уральский федеральный университет. — Екатеринбург : УрФУ, 2018. — 164 с.
- Докучаев, С. А. Теория вероятностей и математическая статистика : методические указания по практическим занятиям / С. А. Докучаев ; Северо-Кавказский филиал МТУСИ. — Ростов-на-Дону : СКФ МТУСИ, 2019. — 60 с.
- Евсевлеева, Л. Г. Функции комплексного переменного и операционное исчисление : учебное пособие / Л. Г. Евсевлеева, С. В. Иванова, Л. М. Быкова, Н. Н. Добрынина ; Ангарский государственный технический университет. — Ангарск : АГТУ, 2013. — 150 с.
- Ефимов, А. В. Лекции по теории функций комплексного переменного / А. В. Ефимов, Б. П. Демидович. — Москва : Наука, 1980. — 256 с.
- Зибров, П. Ф. Теория вероятностей и математическая статистика : теоретико-интерактивный курс с примерами и задачами / П. Ф. Зибров, С. В. Пивнева, О. А. Кузнецова ; ТГУ. — Тольятти : ТГУ, 2015. — 128 с.
- Испирян, С. М. Теория вероятностей : учебно-методическое пособие для студентов экономических специальностей / С. М. Испирян ; Ереванский филиал Московского экономико-статистического института. — Ереван : ЕФ МЭСИ, 2013. — 100 с.
- Кибзун, А. И. Теория вероятностей и математическая статистика. Базовый курс с примерами и задачами / А. И. Кибзун, Е. Р. Горяинова, А. В. Наумов. — Москва : ФИЗМАТЛИТ, 2005. — 232 с.
- Плескунов, М. А. Теория вероятностей : справочник / М. А. Плескунов ; Уральский федеральный университет. — Екатеринбург : УрФУ, 2017. — 164 с.
- Серебряков, А. В. Элементы комбинаторного анализа в задачах теории вероятностей и моделях случайных графов : учебное пособие / А. В. Серебряков, В. В. Новиков, Ю. Н. Нагар ; Энгельсский технологический институт (филиал) СГТУ имени Гагарина Ю.А. — Энгельс : ЭТИ СГТУ, 2019. — 120 с.
- Тикова, З. З. Теория вероятностей и математическая статистика / З. З. Тикова ; Северо-Кавказская государственная академия. — Черкесск : СКГА, 2016. — 200 с.
- Трофимова, Е. А. Теория вероятностей и математическая статистика : учебное пособие / Е. А. Трофимова, Н. В. Кисляк, Д. В. Гилёв ; Уральский федеральный университет. — Екатеринбург : УрФУ, 2018. — 164 с.
- Фролов, С. В. Простейшие функции комплексного переменного / С. В. Фролов ; Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики. — Санкт-Петербург : ИТМО, 2018. — 40 с.
- Яремко, Н. Н. Краткий курс комбинаторики, теории вероятностей и математической статистики / Н. Н. Яремко, О. Г. Никитина ; Пензенский государственный университет. — Пенза : ПГУ, 2017. — 120 с.
- Теория вероятностей и математическая статистика : учебно-методический комплекс дисциплины ЕН.03 / Мичуринский государственный аграрный университет. — Мичуринск : МичГАУ, 2020. — 98 с.