Погружение в мир вероятности и статистики начинается с понимания того, что даже самые сложные системы могут быть описаны через призму числовых характеристик. Представьте: в мире ежедневно происходит более 2,5 квинтиллионов байт данных. За этой ошеломляющей цифрой скрывается бескрайнее поле для анализа, прогнозирования и принятия решений, которые формируют нашу реальность. Именно здесь, в вихре случайных событий и закономерностей, теория вероятностей и математическая статистика становятся незаменимыми инструментами, позволяющими упорядочить хаос и извлечь из него знание.
Введение в контрольную работу: цель, структура и методология
В современном мире, где данные являются новой нефтью, а неопределенность — константой, глубокое понимание принципов теории вероятностей и математической статистики (ТВ и МС) становится критически важным навыком. Для студентов технических и экономических вузов эти дисциплины не просто набор формул и теорем, а фундаментальный аппарат для моделирования сложных систем, прогнозирования процессов, оценки рисков и принятия обоснованных решений. От инженеров, проектирующих надежные конструкции, до экономистов, анализирующих рыночные тренды, — каждому специалисту необходимо владеть этим инструментарием, поскольку его освоение открывает путь к принятию по-настоящему взвешенных и эффективных решений.
Целью данной контрольной работы является не только демонстрация владения основными понятиями и методами ТВ и МС, но и развитие навыков академического мышления и структурированного представления результатов. Мы стремимся создать не просто набор правильных ответов, а полноценное, аргументированное решение, которое соответствует высоким стандартам учебных работ. Задачи контрольной работы охватывают широкий спектр тем: от базовых понятий случайных событий и комбинаторики до анализа распределений, математического ожидания, дисперсии, нормального закона, а также корреляционного и регрессионного анализа.
Структура документа продумана таким образом, чтобы обеспечить логическую последовательность и ясность изложения. Каждая глава начинается с теоретического обоснования ключевых концепций, подкрепленного определениями и формулами, после чего следуют подробные, пошаговые решения типовых задач. Особое внимание уделяется методологии, которая включает:
- Контекстуализация: Краткое введение в раздел, объясняющее его место в общей системе знаний.
- Теоретический базис: Четкие определения, аксиомы и теоремы, лежащие в основе решаемых задач.
- Формульный аппарат: Представление всех необходимых формул с пояснениями.
- Пошаговое решение: Детальный алгоритм выполнения расчетов с промежуточными выводами.
- Интерпретация результатов: Объяснение полученных значений в контексте поставленной задачи.
Такой подход не только обеспечивает академическую корректность, но и способствует глубокому пониманию материала, позволяя студенту не просто запомнить алгоритм, но и осознать логику его применения.
Теоретические основы и определения: Базовые понятия и комбинаторика
Погружение в мир теории вероятностей начинается с осмысления фундаментальных кирпичиков, из которых строится всё здание этой науки. Как в любом языке, здесь есть своя азбука – набор базовых определений, которые позволяют нам описывать и квантифицировать неопределенность.
Основные понятия теории вероятностей
В основе всей теории вероятностей лежит понятие случайного события. Представьте себе бросок монеты: орел или решка. Мы не можем с абсолютной уверенностью предсказать результат, но знаем все возможные исходы. Именно эта непредсказуемость в рамках определенного множества исходов и характеризует случайное событие. Более формально, случайным событием называют событие, которое при осуществлении заданных условий (испытания) может либо произойти, либо не произойти.
Наряду со случайными событиями существуют и другие категории:
- Достоверное событие: Событие, которое при любом испытании обязательно наступит. Его вероятность равна 1. Например, при броске стандартной шестигранной игральной кости обязательно выпадет число от 1 до 6.
- Невозможное событие: Событие, которое в результате испытания произойти не может. Его вероятность равна 0. Пример: при броске той же игральной кости выпадет число 7.
Когда мы говорим о том, что какой-либо исход «благоприятствует» событию A, мы имеем в виду, что наступление этого исхода влечет за собой и наступление события A. Например, при броске кубика событию «выпало четное число» благоприятствуют исходы {2, 4, 6}.
Классическое определение вероятности является одним из краеугольных камней теории. Оно применимо, когда все элементарные исходы испытания равновозможны. Вероятность события A, обозначаемая P(A), определяется как отношение числа благоприятствующих исходов (m) к общему числу всех равновозможных элементарных исходов (n):
P(A) = m / n
Важно отметить, что вероятность любого события A всегда находится в пределах от 0 до 1, то есть 0 ≤ P(A) ≤ 1. Это логично, поскольку вероятность не может быть отрицательной или превышать полную уверенность (100%).
События также классифицируются по их взаимосвязи:
- Несовместные события: Если появление одного из них исключает появление других в том же испытании. Например, при одном броске монеты не может одновременно выпасть и «орел», и «решка». Они не имеют общих элементарных исходов.
- Совместные события: Могут произойти одновременно. Например, при вытягивании карты из колоды событие «выпала красная карта» и «выпал туз» являются совместными, так как может выпасть красный туз.
Особое место занимает концепция полной группы событий. Это набор попарно несовместных событий, одно из которых обязательно произойдет в результате испытания, а другие — нет. Сумма вероятностей событий, образующих полную группу, всегда равна единице. Если H1, H2, …, Hn образуют полную группу, то P(H1) + P(H2) + … + P(Hn) = 1. Это мощный инструмент для структурирования пространства возможных исходов.
Элементы комбинаторики
Прежде чем мы сможем эффективно применять классическое определение вероятности, нам часто требуется умение подсчитывать количество этих самых «благоприятствующих» и «всех возможных» исходов. Здесь на помощь приходит комбинаторика — раздел математики, который занимается вопросами о том, сколькими способами можно составить различные комбинации из элементов заданного множества, подчиненных тем или иным условиям.
Основными понятиями комбинаторики являются:
- Перестановки (Pn): Это упорядоченные наборы, состоящие из всех n элементов данного множества. Они отличаются друг от друга только порядком следования элементов.
- Формула:
Pn = n!, где n! (читается как «n-факториал») — это произведение всех натуральных чисел от 1 до n. По определению, 0! = 1 и 1! = 1. - Пример: Сколькими способами можно рассадить 3 человек на 3 стульях?
P3 = 3! = 1 × 2 × 3 = 6способами. - Перестановки с повторениями: Если в наборе из n элементов есть n1 одинаковых элементов первого типа, n2 — второго, и так далее до nk-го типа (где n1 + n2 + … + nk = n).
- Формула:
Pn(n1, n2, ..., nk) = n! / (n1! × n2! × ... × nk!). - Пример: Сколько различных слов можно составить, переставляя буквы слова «МАМА»? Здесь n=4, nМ=2, nА=2.
P4(2, 2) = 4! / (2! × 2!) = (4×3×2×1) / ((2×1)×(2×1)) = 24 / 4 = 6слов.
- Формула:
- Формула:
- Размещения (Akn): Это упорядоченные наборы, содержащие k элементов, выбранных из n различных элементов. Размещения отличаются друг от друга либо составом элементов, либо их порядком. Порядок здесь имеет значение.
- Формула:
Akn = n! / (n-k)!илиAkn = n × (n-1) × ... × (n-k+1). - Пример: Сколькими способами можно выбрать старосту и его заместителя из группы в 20 человек? Здесь порядок важен (староста и зам — разные должности).
A220 = 20! / (20-2)! = 20! / 18! = 20 × 19 = 380способами.
- Формула:
- Сочетания (Ckn): Это неупорядоченные наборы, содержащие k элементов, выбранных из n различных элементов. Сочетания отличаются друг от друга только составом элементов; порядок следования элементов не важен.
- Формула:
Ckn = n! / (k! × (n-k)!). - Пример: Сколькими способами можно выбрать 3 книги из 10 для прочтения? Порядок выбора не важен.
C310 = 10! / (3! × (10-3)!) = 10! / (3! × 7!) = (10×9×8) / (3×2×1) = 120способами.
- Формула:
Важным инструментом при работе с комбинаторикой является правило умножения: если один элемент можно выбрать n способами, а другой элемент — m способами, то пару этих элементов можно выбрать n ⋅ m способами. Это правило является основой для построения более сложных комбинаторных структур.
| Комбинаторный элемент | Описание | Формула | Порядок важен? | Повторения? |
|---|---|---|---|---|
| Перестановки | Упорядоченные наборы из всех n элементов. | Pn = n! |
Да | Нет |
| Размещения | Упорядоченные наборы из k элементов, выбранных из n. Отличаются составом или порядком. | Akn = n! / (n-k)! |
Да | Нет |
| Сочетания | Неупорядоченные наборы из k элементов, выбранных из n. Отличаются только составом. | Ckn = n! / (k! × (n-k)!) |
Нет | Нет |
Эти базовые понятия и формулы являются фундаментом для решения широкого круга задач в теории вероятностей, позволяя нам не только подсчитывать возможности, но и количественно оценивать шансы наступления различных событий.
Вероятности сложных событий: Теоремы сложения и умножения
Когда мы переходим от анализа простых событий к более сложным сценариям, где одно событие может быть связано с другим, в игру вступают мощные инструменты — теоремы сложения и умножения вероятностей. Они позволяют нам рассчитывать вероятности объединений и пересечений событий, которые являются строительными блогами для большинства реальных ситуаций.
Объединение и пересечение событий
Представьте, что вы анализируете работу сложной системы, состоящей из нескольких компонентов. Вы хотите узнать вероятность отказа всей системы, если хотя бы один компонент выйдет из строя. Или, наоборот, вы хотите определить вероятность успешной работы системы, если все компоненты функционируют исправно. Именно для таких задач используются понятия объединения и пересечения событий.
Объединение (сумма) событий A и B (обозначается A + B или A ∪ B) — это событие, состоящее в том, что произойдёт событие A, или событие B, или оба события одновременно. Интуитивно это соответствует логическому «ИЛИ».
- Теорема сложения вероятностей для несовместных событий: Если события A и B не могут произойти одновременно (то есть они несовместны), то вероятность появления хотя бы одного из них равна сумме их индивидуальных вероятностей.
- Формула:
P(A ∪ B) = P(A) + P(B). - Пример: Вероятность того, что студент сдаст экзамен на «отлично» (событие A) равна 0.2, а на «хорошо» (событие B) — 0.5. Эти события несовместны. Вероятность сдать экзамен на «отлично» или «хорошо»
P(A ∪ B) = P(A) + P(B) = 0.2 + 0.5 = 0.7.
- Формула:
- Теорема сложения вероятностей для совместных событий: Если события A и B могут произойти одновременно (то есть они совместны), то для расчета вероятности их объединения необходимо скорректировать сумму индивидуальных вероятностей, вычитая вероятность их совместного наступления, чтобы избежать двойного учёта.
- Формула:
P(A ∪ B) = P(A) + P(B) - P(A ∩ B). ЗдесьP(A ∩ B)— это вероятность пересечения событий. - Пример: В группе 100 студентов. 30 человек занимаются спортом (событие A), 40 человек изучают иностранные языки (событие B). 10 человек занимаются и спортом, и языками (A ∩ B). Вероятность того, что студент занимается спортом или изучает язык:
P(A ∪ B) = P(A) + P(B) - P(A ∩ B) = 0.3 + 0.4 - 0.1 = 0.6.
- Формула:
Пересечение (произведение) событий A и B (обозначается A · B или A ∩ B) — это событие, состоящее в том, что произойдут и событие A, и событие B одновременно. Это соответствует логическому «И».
Условная вероятность и независимые события
Часто вероятность наступления одного события зависит от того, произошло ли другое событие. Например, вероятность того, что завтра будет дождь, может зависеть от того, была ли ясная погода сегодня. Здесь мы говорим об условной вероятности.
Условная вероятность события A при условии наступления события B (обозначается P(A|B)) — это вероятность события A, вычисленная в предположении, что событие B уже наступило. Она по сути сужает пространство элементарных исходов до тех, в которых событие B произошло.
- Формула условной вероятности:
P(A|B) = P(A ∩ B) / P(B), при условииP(B) ≠ 0.- Пример: В коробке 10 шаров: 5 красных и 5 синих. Из них 3 красных шара и 2 синих шара помечены звездочкой. Какова вероятность вытащить шар со звездочкой (событие A), если известно, что вытащенный шар красный (событие B)?
P(A ∩ B)— вероятность вытащить красный шар со звездочкой = 3/10.P(B)— вероятность вытащить красный шар = 5/10.P(A|B) = (3/10) / (5/10) = 3/5 = 0.6.
- Пример: В коробке 10 шаров: 5 красных и 5 синих. Из них 3 красных шара и 2 синих шара помечены звездочкой. Какова вероятность вытащить шар со звездочкой (событие A), если известно, что вытащенный шар красный (событие B)?
Теорема умножения вероятностей используется для расчета вероятности совместного наступления двух событий:
- Для независимых событий: Два события A и B называются независимыми, если наступление одного из них не влияет на вероятность наступления другого. В этом случае вероятность их совместного наступления равна произведению их индивидуальных вероятностей.
- Формула:
P(A ∩ B) = P(A) · P(B). - Пример: Вероятность того, что первый станок исправен (событие A) равна 0.9. Вероятность того, что второй станок исправен (событие B) равна 0.8. События независимы. Вероятность того, что оба станка исправны:
P(A ∩ B) = 0.9 × 0.8 = 0.72.
- Формула:
- Для зависимых событий: Если события A и B зависимы (то есть наступление одного влияет на вероятность другого), то вероятность их совместного наступления равна произведению вероятности одного из этих событий на условную вероятность другого, при условии, что первое событие уже произошло.
- Формула:
P(A ∩ B) = P(A) · P(B|A)илиP(A ∩ B) = P(B) · P(A|B). - Пример: Из колоды в 36 карт последовательно, без возвращения, извлекаются две карты. Какова вероятность, что обе карты — тузы?
- Событие A: первая карта — туз.
P(A) = 4/36. - Событие B: вторая карта — туз (при условии, что первая была тузом). Если первый туз извлечен, осталось 3 туза и 35 карт.
P(B|A) = 3/35. P(A ∩ B) = P(A) · P(B|A) = (4/36) · (3/35) = (1/9) · (3/35) = 3 / 315 = 1 / 105 ≈ 0.0095.
- Событие A: первая карта — туз.
- Формула:
Понимание и правильное применение теорем сложения и умножения, а также концепции условной вероятности, являются ключевыми для анализа подавляющего большинства вероятностных сценариев, от простых карточных игр до сложного моделирования рисков в финансовой сфере.
Расширенные концепции вероятности: Формула полной вероятности и формула Байеса
В более сложных системах, где исход интересующего нас события может зависеть от целого ряда предшествующих условий или «гипотез», нам необходимы более мощные аналитические инструменты. Именно здесь на сцену выходят формула полной вероятности и знаменитая формула Байеса. Эти концепции позволяют не только предсказывать вероятность события при наличии различных сценариев, но и, что еще более важно, переоценивать наши представления о причинах события, когда оно уже произошло.
Формула полной вероятности
Представим себе ситуацию: вы работаете на заводе, где продукция производится на трёх разных линиях, и у каждой линии свой процент брака. Вы берёте случайную деталь с конвейера и хотите узнать вероятность того, что она будет бракованной. Это классический пример, где применяется формула полной вероятности.
Формула полной вероятности используется для вычисления вероятности события A, которое может произойти в результате одного из нескольких взаимоисключающих событий (гипотез) H1, H2, …, Hn, образующих полную группу. Под «полной группой» здесь подразумевается, что в результате испытания обязательно произойдёт одна и только одна из этих гипотез.
Логика такова: чтобы событие A произошло, оно должно произойти при условии наступления одной из гипотез H1, или при условии H2, и так далее до Hn. Поскольку гипотезы несовместны, мы можем сложить вероятности этих совместных наступлений.
- Формула полной вероятности:
P(A) = Σnk=1 P(Hk) · P(A|Hk)Где:
P(A)— вероятность интересующего нас события A.P(Hk)— априорная (предварительная) вероятность наступления k-й гипотезы.P(A|Hk)— условная вероятность события A при условии, что гипотеза Hk уже наступила.
- Пример: На складе 60% деталей произведены на заводе №1, 40% — на заводе №2. Завод №1 производит 2% брака, завод №2 — 3% брака. Какова вероятность, что случайно выбранная деталь окажется бракованной?
- Гипотезы: H1 — деталь произведена на заводе №1, H2 — деталь произведена на заводе №2.
P(H1) = 0.6,P(H2) = 0.4.- Событие A: деталь бракованная.
P(A|H1) = 0.02(вероятность брака для завода №1).P(A|H2) = 0.03(вероятность брака для завода №2).- Применяем формулу полной вероятности:
P(A) = P(H1) · P(A|H1) + P(H2) · P(A|H2)
P(A) = 0.6 · 0.02 + 0.4 · 0.03 = 0.012 + 0.012 = 0.024. - Таким образом, вероятность того, что случайно выбранная деталь окажется бракованной, составляет 2.4%.
Формула Байеса (Бейеса)
Теперь продолжим наш пример с бракованными деталями. Мы взяли деталь, и она оказалась бракованной. Возникает вопрос: какова вероятность, что эта бракованная деталь была произведена именно на заводе №1? Здесь на помощь приходит формула Байеса.
Формула Байеса позволяет «переоценить» или «уточнить» вероятности гипотез (P(Hk)) после того, как становится известным, что событие A произошло. Иными словами, она помогает нам перейти от априорных вероятностей (вероятностей до наблюдения события A) к апостериорным вероятностям (вероятностям после наблюдения события A). Это мощный инструмент для диагностики, классификации и принятия решений в условиях неопределенности.
- Формула Байеса:
P(Hj|A) = (P(Hj) · P(A|Hj)) / P(A)Где:
P(Hj|A)— апостериорная вероятность j-й гипотезы при условии, что событие A произошло. Это то, что мы хотим найти.P(Hj)— априорная вероятность j-й гипотезы.P(A|Hj)— условная вероятность события A при условии, что гипотеза Hj верна.P(A)— полная вероятность события A, вычисляемая по формуле полной вероятности (как показано выше).
- Пример (продолжение): Мы знаем, что случайно выбранная деталь оказалась бракованной (событие A произошло). Какова вероятность, что она была произведена на заводе №1 (гипотеза H1)?
- Мы уже рассчитали
P(A) = 0.024. P(H1) = 0.6.P(A|H1) = 0.02.- Применяем формулу Байеса для H1:
P(H1|A) = (P(H1) · P(A|H1)) / P(A)
P(H1|A) = (0.6 · 0.02) / 0.024 = 0.012 / 0.024 = 0.5. - Таким образом, если деталь оказалась бракованной, вероятность того, что она была произведена на заводе №1, составляет 50%.
- Мы уже рассчитали
| Компонент формулы Байеса | Описание |
|---|---|
| P(Hj|A) | Апостериорная вероятность — вероятность гипотезы Hj после того, как событие A произошло. Это наша обновленная вера в гипотезу. |
| P(Hj) | Априорная вероятность — первоначальная вероятность гипотезы Hj до наблюдения события A. Наше изначальное представление о шансах. |
| P(A|Hj) | Условная вероятность (правдоподобие) — вероятность наблюдения события A, если гипотеза Hj верна. Насколько хорошо гипотеза объясняет наблюдаемое событие. |
| P(A) | Полная вероятность события A — сумма вероятностей события A при всех возможных гипотезах. Выступает в роли нормализующего множителя, чтобы апостериорные вероятности суммировались к 1. |
Формула Байеса имеет огромное практическое значение в различных областях, от медицины (диагностика заболеваний) и инженерии (оценка надежности систем) до машинного обучения (классификация данных) и юриспруденции (оценка вероятности виновности). Она позволяет нам постоянно обновлять свои знания и принимать более информированные решения по мере поступления новой информации.
Случайные величины и законы распределения
Переходя от дискретных событий к более сложным явлениям, нам необходим новый концептуальный инструмент — случайная величина. Это числовая характеристика исхода случайного эксперимента. Она позволяет перевести качественные описания событий в количественные значения, с которыми уже можно работать математически, изучая их поведение через законы распределения.
Дискретные случайные величины
Представьте, что вы подбрасываете монету 10 раз и считаете, сколько раз выпал орел. Количество выпавших орлов (от 0 до 10) — это и есть дискретная случайная величина. Она принимает конечный или счётный набор значений, которые можно перечислить.
Закон распределения дискретной случайной величины — это соответствие между возможными значениями случайной величины и их вероятностями. Чаще всего его представляют в виде таблицы, где каждое значение xi случайной величины X сопоставляется с соответствующей вероятностью P(X = xi). Сумма всех этих вероятностей должна быть равна 1.
| xi | x1 | x2 | … | xn |
|---|---|---|---|---|
| P(X = xi) | p1 | p2 | … | pn |
где Σni=1 pi = 1.
Ключевыми числовыми характеристиками случайной величины являются математическое ожидание и дисперсия.
- Математическое ожидание (E[X] или M(X)) — это среднее значение случайной величины, которое мы ожидаем получить, если эксперимент будет повторяться очень много раз. Это своего рода «центр тяжести» распределения.
- Формула для дискретной случайной величины:
E[X] = Σni=1 xi · P(X = xi)
- Формула для дискретной случайной величины:
- Дисперсия (D[X] или Var(X)) — это мера разброса значений случайной величины вокруг её математического ожидания. Большая дисперсия указывает на широкий разброс, малая — на высокую концентрацию значений вокруг среднего.
- Формула для дискретной случайной величины:
D[X] = E[X2] - (E[X])2
ГдеE[X2] = Σni=1 xi2 · P(X = xi). - Часто используется также стандартное отклонение (σ), которое является квадратным корнем из дисперсии:
σ = √D[X]. Оно имеет ту же размерность, что и сама случайная величина, что делает его более интуитивным для интерпретации.
- Формула для дискретной случайной величины:
- Пример: Случайная величина X задана рядом распределения:
xi 1 2 3 pi 0.2 0.5 0.3 - Математическое ожидание:
E[X] = 1 · 0.2 + 2 · 0.5 + 3 · 0.3 = 0.2 + 1.0 + 0.9 = 2.1. - Дисперсия:
Сначала найдемE[X2]:
E[X2] = 12 · 0.2 + 22 · 0.5 + 32 · 0.3 = 1 · 0.2 + 4 · 0.5 + 9 · 0.3 = 0.2 + 2.0 + 2.7 = 4.9.
ЗатемD[X]:
D[X] = E[X2] - (E[X])2 = 4.9 - (2.1)2 = 4.9 - 4.41 = 0.49. - Стандартное отклонение:
σ = √0.49 = 0.7.
- Математическое ожидание:
Непрерывные случайные величины
В отличие от дискретных, непрерывные случайные величины могут принимать любые значения из некоторого интервала. Примерами могут служить рост человека, время ожидания автобуса или температура воздуха. Для таких величин невозможно перечислить все возможные значения и их вероятности, так как их бесконечно много.
Для описания непрерывных случайных величин используются:
- Функция распределения (интегральная функция распределения, F(x)): Вероятность того, что случайная величина X примет значение меньше или равное x.
- Формула:
F(x) = P(X ≤ x). - Свойства:
F(-∞) = 0,F(+∞) = 1, F(x) — неубывающая функция. Вероятность попадания X в интервал [a, b] вычисляется какP(a ≤ X ≤ b) = F(b) - F(a).
- Формула:
- Плотность распределения вероятностей (дифференциальная функция распределения, f(x)): Производная функции распределения, описывающая относительную вероятность того, что случайная величина примет значение вблизи данной точки.
- Формула:
f(x) = dF(x)/dx. - Свойства:
f(x) ≥ 0,∫+∞-∞ f(x)dx = 1.
- Формула:
Для непрерывных случайных величин также определяются математическое ожидание и дисперсия, но уже через интегралы:
- Математическое ожидание (E[X] или M(X)) для непрерывной случайной величины:
- Формула:
E[X] = ∫+∞-∞ x · f(x)dx
- Формула:
- Дисперсия (D[X] или Var(X)) для непрерывной случайной величины:
- Формула:
D[X] = ∫+∞-∞ (x - E[X])2 · f(x)dx = E[X2] - (E[X])2
ГдеE[X2] = ∫+∞-∞ x2 · f(x)dx.
- Формула:
- Пример: Непрерывная случайная величина X задана плотностью распределения
f(x) = 0.5xприx ∈ [0, 2]иf(x) = 0в противном случае.- Математическое ожидание:
E[X] = ∫20 x · (0.5x)dx = 0.5 ∫20 x2dx = 0.5 · [x3/3]20 = 0.5 · (23/3 - 0) = 0.5 · 8/3 = 4/3. - Дисперсия:
Сначала найдемE[X2]:
E[X2] = ∫20 x2 · (0.5x)dx = 0.5 ∫20 x3dx = 0.5 · [x4/4]20 = 0.5 · (24/4 - 0) = 0.5 · 16/4 = 0.5 · 4 = 2.
ЗатемD[X]:
D[X] = E[X2] - (E[X])2 = 2 - (4/3)2 = 2 - 16/9 = (18 - 16)/9 = 2/9.
- Математическое ожидание:
Биномиальное распределение и его приближения
Среди дискретных распределений особое место занимает биномиальное распределение. Оно описывает число «успехов» в серии из n независимых испытаний Бернулли, где в каждом испытании возможны только два исхода («успех» или «неудача») с постоянной вероятностью успеха p.
- Формула Бернулли (вероятность k успехов в n испытаниях):
Pn(k) = Ckn · pk · (1-p)n-k
ГдеCkn— число сочетаний из n по k, p — вероятность успеха, (1-p) — вероятность неудачи. - Числовые характеристики:
- Математическое ожидание:
E[X] = n · p - Дисперсия:
D[X] = n · p · (1-p)
- Математическое ожидание:
- Пример: Студент отвечает на 5 вопросов теста, угадывая ответы (4 варианта, один верный). Какова вероятность, что он угадает ровно 3 ответа?
- n = 5 (число испытаний), k = 3 (число успехов).
- p = 1/4 = 0.25 (вероятность угадать один ответ).
P5(3) = C35 · (0.25)3 · (0.75)5-3 = (5! / (3! · 2!)) · (0.25)3 · (0.75)2
= (10) · 0.015625 · 0.5625 = 0.08789.
Приближения биномиального распределения:
Когда n велико, а p мало (и n · p ≈ λ является небольшой константой), биномиальное распределение можно аппроксимировать распределением Пуассона:
P(X = k) ≈ (λk · e-λ) / k!
Когда n достаточно велико (n ≥ 20) и p не слишком близко к 0 или 1 (0.1 ≤ p ≤ 0.9), биномиальное распределение может быть аппроксимировано нормальным распределением со средним μ = n · p и стандартным отклонением σ = √n · p · (1-p). Это приближение особенно полезно для расчета вероятностей попадания в интервал, используя z-преобразование и функцию Лапласа, о чем мы поговорим в следующем разделе.
Эти методы построения законов распределения и расчета числовых характеристик являются фундаментом для понимания поведения случайных явлений и их последующего статистического анализа.
Нормальный закон распределения: Применение и свойства
Среди всего многообразия законов распределения, безусловно, самым важным и широко применимым является нормальный закон распределения, часто называемый гауссовым распределением. Его вездесущность в природе и науке поистине удивительна: от распределения роста людей и ошибок измерений до результатов IQ-тестов и финансовых показателей. Центральная предельная теорема объясняет эту повсеместность, утверждая, что сумма большого числа независимых случайных величин, даже если они не являются нормально распределенными, будет стремиться к нормальному распределению.
Свойства нормального распределения
Нормальное распределение описывается двумя параметрами: математическим ожиданием (μ), которое определяет центр распределения, и дисперсией (σ2) или стандартным отклонением (σ), которое характеризует его ширину и разброс данных.
Функция плотности вероятности нормального распределения имеет следующий вид:
f(x) = (1 / (σ√2π)) · e-((x - μ)2 / (2σ2))
Ключевые свойства нормального распределения:
- Форма колокола: График функции плотности симметричен относительно математического ожидания μ и имеет характерную колоколообразную форму.
- Симметрия: Среднее, медиана и мода распределения совпадают и равны μ.
- Асимптотичность: Кривая распределения асимптотически приближается к оси абсцисс, но никогда ее не пересекает, то есть значения случайной величины могут быть сколь угодно большими или малыми, хотя их вероятность быстро убывает по мере удаления от μ.
- Правило «трёх сигм»: Практически все значения нормально распределенной случайной величины (около 99.73%) лежат в интервале
(μ - 3σ, μ + 3σ).- Примерно 68.27% значений попадают в интервал
(μ - σ, μ + σ). - Примерно 95.45% значений попадают в интервал
(μ - 2σ, μ + 2σ).
- Примерно 68.27% значений попадают в интервал
Для работы с нормальным распределением, особенно при расчете вероятностей попадания в интервалы, используется процесс стандартизации. Любая нормально распределенная случайная величина X с параметрами μ и σ может быть преобразована в стандартную нормальную случайную величину Z со средним 0 и стандартным отклонением 1.
- Формула стандартизации:
Z = (X - μ) / σ
После стандартизации вероятность P(X < x) или P(X > x) может быть найдена через функцию Лапласа (Φ(z)), также известную как интеграл вероятностей или функция распределения стандартного нормального закона. Таблицы значений функции Лапласа (или Φ(z) = P(0 ≤ Z ≤ z)) широко доступны.
- Свойства функции Лапласа:
Φ(-z) = -Φ(z)(нечетность)P(X < x) = P(Z < (x - μ)/σ) = 0.5 + Φ((x - μ)/σ)P(X > x) = P(Z > (x - μ)/σ) = 0.5 - Φ((x - μ)/σ)P(a < X < b) = P((a - μ)/σ < Z < (b - μ)/σ) = Φ((b - μ)/σ) - Φ((a - μ)/σ)
Примеры задач с нормальным распределением
Рассмотрим типичные задачи, где нормальное распределение играет ключевую роль.
Задача 1: Определение вероятности попадания значения в интервал
Пусть средний срок службы лампочки составляет 1000 часов со стандартным отклонением 100 часов. Срок службы распределен нормально. Какова вероятность, что случайно выбранная лампочка прослужит от 950 до 1100 часов?
Решение:
- Определяем параметры:
μ = 1000,σ = 100. - Формулируем задачу: Найти
P(950 < X < 1100). - Стандартизируем границы интервала:
z1 = (950 - 1000) / 100 = -50 / 100 = -0.5z2 = (1100 - 1000) / 100 = 100 / 100 = 1
- Используем функцию Лапласа:
P(950 < X < 1100) = P(-0.5 < Z < 1) = Φ(1) - Φ(-0.5)
ПосколькуΦ(-z) = -Φ(z), тоΦ(1) - Φ(-0.5) = Φ(1) + Φ(0.5). - Находим значения по таблице функции Лапласа:
Φ(1) ≈ 0.3413Φ(0.5) ≈ 0.1915
- Вычисляем вероятность:
P(950 < X < 1100) = 0.3413 + 0.1915 = 0.5328.
Вывод: Вероятность того, что случайно выбранная лампочка прослужит от 950 до 1100 часов, составляет приблизительно 53.28%.
Задача 2: Расчет вероятности брака
Производственный процесс настроен так, что диаметр детали X является нормально распределенной случайной величиной со средним значением 50 мм и стандартным отклонением 0.5 мм. Допустимые пределы диаметра детали от 49.0 мм до 51.0 мм. Каков процент брака?
Решение:
- Определяем параметры:
μ = 50,σ = 0.5. - Определяем допустимый интервал: [49.0, 51.0].
- Событие «брак» означает, что
X < 49.0илиX > 51.0.
Вероятность бракаP(X < 49.0) + P(X > 51.0). - Стандартизируем границы:
zнижн = (49.0 - 50) / 0.5 = -1 / 0.5 = -2zверхн = (51.0 - 50) / 0.5 = 1 / 0.5 = 2
- Используем функцию Лапласа для нахождения вероятности попадания в интервал (не брака):
P(49.0 < X < 51.0) = P(-2 < Z < 2) = Φ(2) - Φ(-2) = Φ(2) + Φ(2) = 2Φ(2). - Находим значение по таблице:
Φ(2) ≈ 0.4772
- Вычисляем вероятность годной продукции:
P(49.0 < X < 51.0) = 2 · 0.4772 = 0.9544. - Рассчитываем вероятность брака:
P(брак) = 1 - P(годная продукция) = 1 - 0.9544 = 0.0456.
Вывод: Процент брака составляет 4.56%. Это означает, что примерно 4.56% произведенных деталей будут иметь диаметр, выходящий за допустимые пределы.
Эти примеры ярко демонстрируют, как нормальный закон распределения и функция Лапласа становятся мощными инструментами для анализа качества продукции, прогнозирования и принятия управленческих решений в условиях неопределенности.
Элементы математической статистики: Корреляционный и регрессионный анализ
Когда мы переходим от изучения отдельных случайных величин к анализу их взаимосвязей, мы вступаем в область математической статистики. Здесь нас интересует, как изменения одной переменной влияют на другую, и можем ли мы использовать одну переменную для предсказания другой. Корреляционный и регрессионный анализ являются ключевыми инструментами для ответа на эти вопросы, раскрывая скрытые паттерны и зависимости в данных.
Коэффициент корреляции
Часто в экономических, социальных или инженерных исследованиях возникает потребность оценить, насколько сильно и в каком направлении связаны две случайные величины. Например, как связаны рекламные расходы и объемы продаж, или температура окружающей среды и потребление электроэнергии. Для количественной оценки линейной взаимосвязи между двумя количественными случайными величинами используется коэффициент корреляции.
Коэффициент корреляции Пирсона (r) — это безразмерная величина, которая характеризует степень и направление линейной зависимости между двумя случайными величинами X и Y. Его значение всегда находится в диапазоне от -1 до +1.
- Интерпретация коэффициента корреляции:
- r = +1: Полная прямая линейная зависимость (с ростом X, Y также линейно растет).
- r = -1: Полная обратная линейная зависимость (с ростом X, Y линейно убывает).
- r = 0: Отсутствие линейной зависимости. Это не означает полное отсутствие связи, а лишь отсутствие линейной связи (может существовать нелинейная зависимость).
- 0 < r < 1: Прямая (положительная) линейная зависимость средней или слабой силы.
- -1 < r < 0: Обратная (отрицательная) линейная зависимость средней или слабой силы.
- Формула для расчета коэффициента корреляции Пирсона:
r = Cov(X, Y) / (σX · σY)Где:
- Cov(X, Y) — ковариация случайных величин X и Y. Она показывает, как X и Y изменяются вместе.
Cov(X, Y) = E[XY] - E[X]E[Y] - σX и σY — стандартные отклонения случайных величин X и Y соответственно.
При наличии выборки данных (x1, y1), …, (xn, yn), формула для выборочного коэффициента корреляции выглядит так:
r = (n · Σxiyi - Σxi · Σyi) / (√[n · Σxi2 - (Σxi)2] · √[n · Σyi2 - (Σyi)2]) - Cov(X, Y) — ковариация случайных величин X и Y. Она показывает, как X и Y изменяются вместе.
- Пример: Изучается зависимость между рекламными расходами (X, тыс. руб.) и объемом продаж (Y, тыс. ед.) за 5 месяцев.
Месяц X (тыс. руб.) Y (тыс. ед.) XY X2 Y2 1 10 50 500 100 2500 2 15 60 900 225 3600 3 20 70 1400 400 4900 4 25 80 2000 625 6400 5 30 90 2700 900 8100 Сумма 100 350 7500 2250 25500 n = 5
Σxi = 100
Σyi = 350
Σxiyi = 7500
Σxi2 = 2250
Σyi2 = 25500r = (5 · 7500 - 100 · 350) / (√[5 · 2250 - (100)2] · √[5 · 25500 - (350)2])
r = (37500 - 35000) / (√[11250 - 10000] · √[127500 - 122500])
r = 2500 / (√1250 · √5000)
r = 2500 / (35.355 · 70.71)
r = 2500 / 2500 = 1
Вывод: Коэффициент корреляции r = 1 указывает на полную прямую линейную зависимость: с ростом рекламных расходов объем продаж линейно увеличивается.
Линейная регрессия
Если коэффициент корреляции показывает наличие и силу линейной связи, то линейная регрессия позволяет эту связь описать с помощью математического уравнения. Цель регрессионного анализа — построить модель, которая позволит предсказывать значение одной переменной (зависимой переменной Y) на основе значений другой переменной (независимой переменной X).
Простейшая модель — парная линейная регрессия, которая описывается уравнением прямой:
Y = a + bX
Где:
- Y — зависимая переменная (отклик).
- X — независимая переменная (предиктор).
- a — свободный член (пересечение с осью Y), значение Y, когда X = 0.
- b — коэффициент регрессии (наклон прямой), показывающий, на сколько единиц изменится Y при изменении X на одну единицу.
Коэффициенты a и b находятся методом наименьших квадратов (МНК). Суть МНК заключается в минимизации суммы квадратов отклонений фактических значений Y от значений, предсказанных моделью.
- Формулы для коэффициентов регрессии (МНК):
b = (n · Σxiyi - Σxi · Σyi) / (n · Σxi2 - (Σxi)2)
a = (Σyi - b · Σxi) / n = ȳy - b · ȳxГде:
- ȳy — среднее значение Y.
- ȳx — среднее значение X.
- Пример (продолжение): Используя те же данные о рекламных расходах (X) и продажах (Y), построим уравнение линейной регрессии.
Мы уже рассчитали все необходимые суммы:
n = 5
Σxi = 100
Σyi = 350
Σxiyi = 7500
Σxi2 = 2250- Вычисляем коэффициент b:
b = (5 · 7500 - 100 · 350) / (5 · 2250 - (100)2)
b = (37500 - 35000) / (11250 - 10000)
b = 2500 / 1250 = 2. - Вычисляем средние значения:
ȳx = Σxi / n = 100 / 5 = 20.
ȳy = Σyi / n = 350 / 5 = 70. - Вычисляем коэффициент a:
a = ȳy - b · ȳx = 70 - 2 · 20 = 70 - 40 = 30. - Составляем уравнение регрессии:
Y = 30 + 2X.
- Вычисляем коэффициент b:
Вывод: Уравнение регрессии Y = 30 + 2X означает, что при отсутствии рекламных расходов (X=0) объем продаж составит 30 тыс. ед. (это экстраполяция, которая не всегда имеет смысл), а каждое увеличение рекламных расходов на 1 тыс. руб. приводит к увеличению объема продаж на 2 тыс. ед.
Применение:
Регрессионный анализ позволяет не только описывать существующие зависимости, но и делать прогнозы. Например, если мы планируем увеличить рекламные расходы до 40 тыс. руб. (X=40), то предсказанный объем продаж составит:
Y = 30 + 2 · 40 = 30 + 80 = 110 тыс. ед.
Корреляционный и регрессионный анализ являются краеугольными камнями в арсенале любого аналитика данных, экономиста, социолога или инженера. Они предоставляют инструменты для выявления закономерностей, построения прогностических моделей и принятия решений, основанных на глубоком понимании взаимосвязей между различными факторами.
Заключение
Мы завершили наш путь по миру теории вероятностей и математической статистики, который начался с простых определений случайных событий и закончился мощными инструментами корреляционного и регрессионного анализа. Эта контрольная работа не просто набор решенных задач; это всесторонний обзор фундаментальных концепций, демонстрирующий, как каждый теоретический блок органично вплетается в практику решения конкретных проблем.
Мы увидели, как классическое определение вероятности, усиленное аппаратом комбинаторики, позволяет нам количественно оценивать шансы наступления событий. Изучили, как теоремы сложения и умножения открывают путь к анализу сложных, многоступенчатых сценариев. Заглянули вглубь формулы полной вероятности и теоремы Байеса, которые позволяют нам не только предсказывать, но и уточнять наше понимание причинно-следственных связей в свете новой информации.
Далее мы перешли к случайным величинам – дискретным и непрерывным – освоив методы построения их законов распределения и расчета числовых характеристик, таких как математическое ожидание и дисперсия, которые описывают центральную тенденцию и разброс данных. Особое внимание было уделено вездесущему нормальному закону распределения, его свойствам и применению для расчета вероятностей в различных практических задачах, включая оценку брака.
Наконец, мы погрузились в основы математической статистики, изучив, как корреляционный анализ позволяет нам измерять силу и направление линейной связи между переменными, а линейная регрессия – строить прогностические модели, способные описывать и предсказывать эти взаимосвязи.
Глубокое понимание теории вероятностей и математической статистики является не просто требованием учебной программы, а ключевым навыком для будущего специалиста. В мире, где принятие решений всё чаще основывается на данных, умение анализировать неопределенность, выявлять закономерности и строить обоснованные прогнозы становится неоценимым. Эти дисциплины формируют аналитическое мышление, критическую оценку информации и способность видеть мир не как хаотичный набор случайных событий, а как систему взаимосвязанных явлений, подчиняющихся определённым законам.
Освоение этих знаний – это инвестиция в ваше профессиональное будущее, которая позволит вам эффективно работать с данными, принимать взвешенные решения и уверенно ориентироваться в условиях постоянно меняющегося информационного ландшафта.
Список использованной литературы
- Формулы комбинаторики с примерами. Основные формулы комбинаторики: сочетания, размещения, перестановки. МатБюро. URL: https://www.matburo.ru/sub_math.php?p=comb_form (дата обращения: 07.11.2025).
- Сложение событий. Вероятность и статистика. ЯКласс. URL: https://www.yaklass.ru/p/veroyatnost/10-klass/operatcii-nad-sobytiiami-slojenie-veroiatnostei-10825/slojenie-sobytii-28212/re-0b1a37c0-a7d1-4433-8c43-2287e0767139 (дата обращения: 07.11.2025).
- Тема: Вероятность событий. URL: https://math.semestr.ru/math/prob.php (дата обращения: 07.11.2025).
- Условные вероятности. Machinelearning.ru. URL: https://www.machinelearning.ru/wiki/index.php?title=%D0%A3%D1%81%D0%BB%D0%BE%D0%B2%D0%BD%D1%8B%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B8 (дата обращения: 07.11.2025).
- Классическое определение вероятности. ЯКласс. URL: https://www.yaklass.ru/p/algebra/9-klass/nachalnye-svedeniia-iz-teorii-veroiatnostei-23588/klassicheskoe-opredelenie-veroiatnosti-9240/re-09756b50-6a97-4b78-af81-48995a1215bb (дата обращения: 07.11.2025).
- Классическое определение вероятности, теория и примеры решений. Онлайн учебник по теории вероятностей. МатБюро. URL: https://www.matburo.ru/tv_sub.php?p=pr_kl.php (дата обращения: 07.11.2025).
- Теория вероятностей: формулы, примеры и онлайн-калькулятор. Skysmart. URL: https://blog.sky.smart.ru/teoriya-veroyatnostey-formuly/ (дата обращения: 07.11.2025).
- Условная вероятность. ЯКласс. URL: https://www.yaklass.ru/p/veroyatnost/10-klass/uslovnaia-veroiatnost-nezavisimost-sobytii-10827/uslovnaia-veroiatnost-28214/re-67d740cf-b32c-4235-857e-61b7f0c39f0b (дата обращения: 07.11.2025).
- Основные формулы комбинаторики. Дипломист24. URL: https://diplomist24.ru/stati/osnovnye-formuly-kombinatoriki (дата обращения: 07.11.2025).
- Условная вероятность. Algocode wiki. URL: https://algocode.ru/wiki/conditional-probability/ (дата обращения: 07.11.2025).
- Раздел 1. Основные понятия теории вероятностей. URL: https://www.math.spbu.ru/user/piter/tv/tv1.pdf (дата обращения: 07.11.2025).
- Пересечение событий. Вероятность и статистика. ЯКласс. URL: https://www.yaklass.ru/p/veroyatnost/10-klass/operatcii-nad-sobytiiami-slojenie-veroiatnostei-10825/peresechenie-sobytii-28211/re-6c30f4e0-6302-45e3-85b1-12569b9f3d90 (дата обращения: 07.11.2025).
- Формула полной вероятности. ЯКласс. URL: https://www.yaklass.ru/p/veroyatnost/10-klass/uslovnaia-veroiatnost-nezavisimost-sobytii-10827/formula-polnoi-veroiatnosti-28215/re-edbf12e9-4e06-4076-921a-e8d975a8a184 (дата обращения: 07.11.2025).
- Теория вероятностей: как научиться предсказывать случайные события. Skillbox. URL: https://skillbox.ru/media/code/teoriya-veroyatnostey/ (дата обращения: 07.11.2025).
- Основные формулы комбинаторики. URL: https://www.math.ru/lib/books/djvu/komb.djvu (дата обращения: 07.11.2025).
- Лекция 2. Операции с событиями, формула сложения вероятностей, независ. МШЭ МГУ. URL: https://mse.msu.ru/wp-content/uploads/2020/09/2_Algebra_sobytiy_2020.pdf (дата обращения: 07.11.2025).
- Условная вероятность, примеры решений и теория. Онлайн учебник по теории вероятностей. МатБюро. URL: https://www.matburo.ru/tv_sub.php?p=pr_cond.php (дата обращения: 07.11.2025).
- Совместные и несовместные события в анализе данных. Яндекс Практикум. URL: https://practicum.yandex.ru/blog/sovmestnye-i-nesovmestnye-sobytiya/ (дата обращения: 07.11.2025).
- Основные формулы теории вероятностей Сводный справочный материал. MathProfi.ru. URL: https://mathprofi.ru/teorija_verojatnostei_formuly.html (дата обращения: 07.11.2025).
- Вероятность несовместных событий. ЯКласс. URL: https://www.yaklass.ru/p/veroyatnost/8-klass/sluchainye-sobytiia-9104/veroiatnost-nesovmestnykh-sobytii-9106/re-02195f2a-e6ae-4351-a128-d7b14fc0399d (дата обращения: 07.11.2025).
- Формулы комбинаторики и их важность в математике. Егэленд. URL: https://egeland.ru/formulyi-kombinatoriki-i-ih-vazhnost-v-matematike/ (дата обращения: 07.11.2025).
- Формулы комбинаторики. Резольвента. URL: https://www.resolventa.ru/spr/kombin.htm (дата обращения: 07.11.2025).
- Формулы комбинаторики. Открытая Математика. URL: https://www.mathopen.ru/combinatorics/formulas.html (дата обращения: 07.11.2025).
- Формулы полной вероятности и Байеса. Примеры. TVIMS.ru. URL: https://tvims.ru/teoriya-veroyatnostey/formuly-polnoj-veroyatnosti-i-bajesa-primery.html (дата обращения: 07.11.2025).
- Задачи на формулу Байеса. НГУ. URL: https://www.nsu.ru/mmf/tvims/articles/bayes.htm (дата обращения: 07.11.2025).
- Классическое определение вероятности. Основные формулы комбинаторики. СГУ. URL: https://www.sgu.ru/sites/default/files/textdocsfiles/2015/04/14/glava_1.pdf (дата обращения: 07.11.2025).
- Основные формулы комбинаторики. Mathelp.info. URL: http://mathelp.info/perepr/tv/osnovnie-formuli-kombinatoriki.html (дата обращения: 07.11.2025).
- Что такое теория вероятности в математике: определение, формулы, примеры решения задач на поиск вероятности события. Яндекс Практикум. URL: https://practicum.yandex.ru/blog/chto-takoe-teoriya-veroyatnosti/ (дата обращения: 07.11.2025).
- Формула полной вероятности и формулы Байеса. Примеры решений. Математика для заочников. URL: https://www.math-for-you.ru/full-and-bayes-formulas (дата обращения: 07.11.2025).
- Перестановки, размещения и сочетания: понятия и формулы комбинаторки — элементы в анализе данных и математике. Яндекс Практикум. URL: https://practicum.yandex.ru/blog/perestanovki-sochetaniya-razmescheniya/ (дата обращения: 07.11.2025).
- §5. Формула полной вероятности. Формула Байеса. МГУ. URL: https://www.math.msu.ru/department/prep/lectures/tv-lectures/lecture_5.pdf (дата обращения: 07.11.2025).
- Теорема Байеса для Data Science: формула, задачи, примеры. Яндекс Практикум. URL: https://practicum.yandex.ru/blog/bayes-theorem/ (дата обращения: 07.11.2025).
- Формула полной вероятности и формула Байеса. Примеры решения задач. МатБюро. URL: https://www.matburo.ru/tv_sub.php?p=pr_fullbayes.php (дата обращения: 07.11.2025).
- Теорема Байеса для чайников. Хабр. URL: https://habr.com/ru/articles/739190/ (дата обращения: 07.11.2025).
- Теорема сложения вероятностей, совместные и несовместные события. Webmath.ru. URL: https://www.webmath.ru/poleznoe/formules_11_1.php (дата обращения: 07.11.2025).
- Лекция 2. Перестановки, сочетания, размещения. Теория вероятностей и математическая статистика. Greysoft. URL: https://greysoft.ru/courses/probability-theory/lecture-2/ (дата обращения: 07.11.2025).
- Как применять теорему Байеса для решения реальных задач. Neurohive.io. URL: https://neurohive.io/ru/osnovy-data-science/kak-primenyat-teoremu-bajesa-dlya-resheniya-realnyh-zadach/ (дата обращения: 07.11.2025).
- Лекция 13.2 Вероятность сложных событий. ODE Lecture 6.1. URL: https://old.np.math.msu.su/library/lecs/tv/tv13_2.htm (дата обращения: 07.11.2025).
- Формулы по теории вероятностей онлайн: случайные события. МатБюро. URL: https://www.matburo.ru/tv_form.php?p=fs_event (дата обращения: 07.11.2025).
- Перестановки, сочетания и размещения: стартер-пак по комбинаторике для IT. Skillbox. URL: https://skillbox.ru/media/code/perestanovki-sochetaniya-razmeshcheniya/ (дата обращения: 07.11.2025).
- Комбинаторика. Перестановки, размещения, сочетания. Анна Малкова. URL: https://www.alleng.ru/d/math/math414.htm (дата обращения: 07.11.2025).
- Элементы комбинаторики и теории вероятностей 1. Понятие комбинаторно. Uniyar.ac.ru. URL: http://math.uniyar.ac.ru/print/tvims/tvims1.pdf (дата обращения: 07.11.2025).
- Классическое определение вероятности. Резольвента. URL: https://www.resolventa.ru/comput/ver/classic.htm (дата обращения: 07.11.2025).
- Пересечение и объединение событий в теории вероятности: основы. Skypro. URL: https://sky.pro/media/peresechenie-i-obedinenie-sobytij-v-teorii-veroyatnosti/ (дата обращения: 07.11.2025).