Теория Вероятностей: Пошаговое Решение Типовой Контрольной Работы с Академическим Обоснованием Формул

В динамичном мире, где данные являются новой нефтью, способность анализировать и прогнозировать случайные события становится ключевым навыком. Теория вероятностей, с её строгим аппаратом и логическими конструкциями, служит фундаментом для этих прогнозов. Цель данного аналитического обзора — предоставить исчерпывающее и методологически выверенное руководство по решению типовых задач контрольной работы по теории вероятностей. Этот материал ориентирован на студентов технических, экономических и прикладных специальностей, которым необходимо не просто найти ответ, но и глубоко понять логику и академическое обоснование каждого шага.

Контрольная работа по теории вероятностей — это не просто набор задач, а комплексный экзамен на понимание фундаментальных принципов: от базовых комбинаторных расчетов до тонкостей законов распределения случайных величин. Каждое решение здесь будет представлено в строгом академическом стиле, включающем:

  • Условие: Четкое изложение исходных данных задачи.
  • Обоснование: Подробное объяснение выбора конкретной теоретической базы (формулы, теоремы, распределения), исходя из условий задачи. Это позволит не просто применить формулу, но и аргументировать её применимость, что является основой для развития экспертного мышления.
  • Формула: Представление используемой математической формулы в общем виде.
  • Расчет: Пошаговое применение формулы к конкретным данным задачи.
  • Ответ: Четкий итоговый результат.

Такой подход гарантирует не только успешное выполнение заданий, но и формирование глубокого аналитического мышления, необходимого для освоения высшей математики и применения её в реальных проектах.

Теоретические Основы и Комбинаторный Аппарат

В основе любого вероятностного расчета лежит понятие случайного события и его количественной меры — вероятности. Прежде чем приступить к решению прикладных задач, необходимо заложить прочный фундамент из базовых определений и освоить ключевой инструмент — комбинаторику.

Базовые Определения и Аксиомы Вероятности

Случайное событие — это исход испытания (эксперимента), который может произойти или не произойти при соблюдении определенного набора условий. Например, при броске монеты выпадение «орла» — это случайное событие. Совокупность всех возможных, взаимоисключающих и равновероятных исходов одного испытания называется пространством элементарных исходов.

Вероятность события A, обозначаемая как P(A), является числовой мерой возможности наступления этого события. Классическое определение вероятности, которое мы будем активно использовать, гласит:

P(A) = m / n

где:

  • m — число исходов, благоприятствующих наступлению события A;
  • n — общее число всех равновозможных элементарных исходов испытания.

Важно помнить аксиомы вероятности:

  1. P(A) ≥ 0 для любого события A.
  2. P(Ω) = 1, где Ω — достоверное событие (пространство всех элементарных исходов).
  3. Для любых двух несовместных событий A и B (которые не могут произойти одновременно), P(A ∪ B) = P(A) + P(B). Эта аксиома обобщается на любое конечное или счётное число попарно несовместных событий. Понимание этого принципа критически важно для корректного суммирования вероятностей, избегая двойного учёта.

Применение Комбинаторики (Сочетания Ckn)

Комбинаторика предоставляет методы подсчета числа различных комбинаций элементов из заданного множества, что является критически важным для определения m и n в классическом определении вероятности. Основными инструментами являются размещения и сочетания.

Размещения (Akn) используются, когда важен порядок элементов в выборке. Например, сколько способов распределить 3 призовых места среди 10 участников.

Сочетания (Ckn) применяются, когда порядок выбора не имеет значения. Например, сколько способов выбрать 3 студентов из 10 для формирования команды. Именно сочетания чаще всего используются в задачах на выборку без возвращения, когда нас интересует лишь состав группы, а не последовательность, в которой элементы были выбраны.

Формула для расчета числа сочетаний из n элементов по k:

Ckn = n! / (k! · (n-k)!)

где n! (n-факториал) — произведение всех целых чисел от 1 до n.

Пример: Из 10 различных книг нужно выбрать 3. Сколько существует способов это сделать?

C310 = 10! / (3! · (10-3)!) = 10! / (3! · 7!) = (10 · 9 · 8) / (3 · 2 · 1) = 120.

Понимание этой разницы между размещениями и сочетаниями является фундаментальным для корректного решения многих вероятностных задач, поскольку ошибочный выбор метода подсчета мгновенно приведет к неверному результату.

Блок 1: Выборка Без Возвращения и Гипергеометрическое Распределение (Задача 1)

Задачи на выборку без возвращения — классический пример, где комбинаторика и понимание распределений играют центральную роль. Они моделируют ситуации, когда из конечной совокупности объектов выбирается подмножество, и каждый выбранный объект не возвращается обратно.

Методика Решения Задач на Выборку Без Возвращения через Сочетания и Гипергеометрическое Распределение

Представьте ситуацию: у нас есть общая совокупность N элементов, среди которых D элементов обладают определенным свойством (например, белые шары), а N-D элементов — другим свойством (черные шары). Мы случайным образом без возвращения выбираем n элементов. Нас интересует вероятность того, что в нашей выборке будет ровно k элементов с нужным свойством.

Именно такая постановка задачи идеально описывается гипергеометрическим распределением. Функция вероятности (PMF) гипергеометрического распределения напрямую выражается через сочетания:

P(X=k) = (CkD · Cn-kN-D) / CnN

Здесь:

  • N — общее количество элементов в генеральной совокупности.
  • D — количество «успехов» (элементов с нужным свойством) в генеральной совокупности.
  • n — размер выборки.
  • k — количество «успехов» в выборке, которое нас интересует.

Пошаговый Алгоритм: Определение n (общее число исходов) и m (число благоприятных исходов) через сочетания

Для решения задач такого типа необходимо выполнить следующие шаги:

  1. Определить общее число возможных исходов (n): Это количество способов выбрать n элементов из N без учета порядка. Используется формула сочетаний: nисходов = CnN.
  2. Определить число благоприятствующих исходов (m): Это количество способов выбрать k элементов одного типа и n-k элементов другого типа. Используется произведение сочетаний: mисходов = CkD · Cn-kN-D.
  3. Рассчитать вероятность: Используя классическое определение вероятности, P(A) = mисходов / nисходов.

Этот алгоритм является прямым применением формулы гипергеометрического распределения.

Пример Задачи 1: В урне 15 шаров: 10 белых и 5 черных. Из урны наудачу без возвращения вынимают 3 шара. Какова вероятность, что среди них будет ровно 2 белых шара?

Условие:

  • Общее количество шаров N = 15.
  • Количество белых шаров D = 10.
  • Количество черных шаров (N-D) = 5.
  • Размер выборки n = 3.
  • Требуемое количество белых шаров в выборке k = 2.

Обоснование:

Данная задача является классическим примером выборки без возвращения из конечной совокупности, где нас интересует количество элементов определенного типа в выборке. Такая постановка идеально соответствует условиям применения гипергеометрического распределения. Для расчета числа возможных и благоприятствующих исходов используем комбинаторные формулы числа сочетаний, поскольку порядок извлечения шаров не имеет значения. Это позволяет точно смоделировать процесс выбора без изменения состава исходной совокупности.

Формула:

P(X=k) = (CkD · Cn-kN-D) / CnN

Расчет:

  1. Общее число возможных исходов (знаменатель): Количество способов выбрать 3 шара из 15.
    C315 = 15! / (3! · (15-3)!) = 15! / (3! · 12!) = (15 · 14 · 13) / (3 · 2 · 1) = 5 · 7 · 13 = 455.
  2. Число благоприятствующих исходов (числитель): Количество способов выбрать 2 белых шара из 10 И 1 черный шар из 5 (поскольку всего 3 шара).
    • Выбрать 2 белых шара из 10:
      C210 = 10! / (2! · (10-2)!) = 10! / (2! · 8!) = (10 · 9) / (2 · 1) = 45.
    • Выбрать 1 черный шар из 5:
      C15 = 5! / (1! · (5-1)!) = 5! / (1! · 4!) = 5.
    • Общее число благоприятствующих исходов:
      m = C210 · C15 = 45 · 5 = 225.
  3. Расчет вероятности:
    P(2 белых шара) = m / n = 225 / 455 ≈ 0,4945.

Ответ:

Вероятность того, что среди выбранных 3 шаров будет ровно 2 белых, составляет приблизительно 0,4945.

Блок 2: Вероятность Составных Событий и Приложения Теорем (Задачи 2, 3)

В реальных задачах редко приходится сталкиваться с простыми событиями. Чаще всего требуется анализировать составные события, то есть комбинации нескольких простых событий. Для этого используются теоремы сложения и умножения вероятностей.

Расчет «Хотя бы Одно» и «Только Одно» (Задача 2)

Когда мы говорим о составных событиях, две формулировки встречаются особенно часто: «хотя бы одно» и «только одно». Методы их расчета различаются, и правильный выбор подхода критически важен.

Вероятность «хотя бы одно»

Это событие означает, что из нескольких независимых событий произойдет одно, или два, или все сразу. Например, «хотя бы один из трех выстрелов попадет в цель». Прямой расчет этого может быть громоздким, так как требуется суммировать вероятности всех возможных комбинаций. Гораздо эффективнее использовать подход через противоположное событие.

Событие, противоположное «хотя бы одному» из событий A1, A2, …, An, заключается в том, что ни одно из этих событий не наступит (то есть, произойдут все противоположные события A1, A2, …, An).

Для совокупности независимых событий A1, A2, …, An, вероятность события «хотя бы одно» вычисляется по формуле:

P(A) = 1 - P(A) = 1 - P(A1)P(A2)...P(An) = 1 - ∏ni=1 (1 - P(Ai))

где P(Ai) = 1 — P(Ai) — вероятность того, что событие Ai не наступит. Применение этого принципа значительно упрощает вычисления и снижает вероятность ошибок.

Расчет «только одно»

Это событие означает, что из нескольких событий наступит ровно одно, а остальные — нет. Например, «из трех стрелков только один попадет в цель». Здесь важно учитывать, являются ли события совместными или несовместными.

  • Если события A1, A2, …, An попарно несовместны, то вероятность наступления ровно одного из них — это просто сумма их индивидуальных вероятностей:
    P("только одно") = P(A1) + P(A2) + ... + P(An).
  • Если события A и B являются совместными, то есть могут произойти одновременно, вероятность наступления ровно одного из них рассчитывается как:
    P("только одно") = P(A) + P(B) - 2P(A · B)
    Эта формула логически выводится как сумма вероятностей двух несовместных событий: (A произошло, B не произошло) и (B произошло, A не произошло). То есть, P(A · B) + P(A · B). Для независимых событий это P(A)P(B) + P(A)P(B).

Пример Задачи 2: Три стрелка делают по одному выстрелу по мишени. Вероятность попадания для первого стрелка P(A1) = 0,7, для второго P(A2) = 0,8, для третьего P(A3) = 0,6. Найти вероятность того, что:

а) хотя бы один стрелок попадет в цель;

б) только один стрелок попадет в цель.

Условие:

  • P(A1) = 0,7
  • P(A2) = 0,8
  • P(A3) = 0,6
  • События попадания независимы.

Обоснование:

а) Для «хотя бы одного» наиболее эффективно использовать вероятность противоположного события (ни один не попал). Это позволяет избежать сложных комбинаторных расчетов, значительно упрощая задачу.

б) Для «только одного» необходимо рассмотреть три несовместных сценария: попадает только первый, попадает только второй, попадает только третий. Каждый сценарий рассчитывается как произведение вероятностей независимых событий. Затем вероятности этих несовместных сценариев суммируются.

Формула:

а) P(хотя бы один) = 1 - P(A1)P(A2)P(A3)

б) P(только один) = P(A1A2A3) + P(A1A2A3) + P(A1A2A3)

Расчет:

Определим вероятности промаха:

  • P(A1) = 1 — 0,7 = 0,3
  • P(A2) = 1 — 0,8 = 0,2
  • P(A3) = 1 — 0,6 = 0,4

а) Вероятность «хотя бы один» попадет в цель:

P(хотя бы один) = 1 - (0,3 · 0,2 · 0,4) = 1 - 0,024 = 0,976.

б) Вероятность «только один» попадет в цель:

  • Только первый попал: P(A1A2A3) = P(A1) · P(A2) · P(A3) = 0,7 · 0,2 · 0,4 = 0,056.
  • Только второй попал: P(A1A2A3) = P(A1) · P(A2) · P(A3) = 0,3 · 0,8 · 0,4 = 0,096.
  • Только третий попал: P(A1A2A3) = P(A1) · P(A2) · P(A3) = 0,3 · 0,2 · 0,6 = 0,036.

Поскольку эти три события несовместны, их вероятности суммируются:

P(только один) = 0,056 + 0,096 + 0,036 = 0,188.

Ответ:

а) Вероятность того, что хотя бы один стрелок попадет в цель, составляет 0,976.

б) Вероятность того, что только один стрелок попадет в цель, составляет 0,188.

Применение к Расчету Надежности Систем (Задача 3)

Расчет надежности систем — это прикладная область теории вероятностей, где основные теоремы сложения и умножения находят свое прямое применение. Надежность (R) элемента или системы определяется как вероятность его безотказной работы в течение заданного времени или при заданных условиях. Вероятность отказа (Q) является противоположным событием, то есть Q = 1 — R.

Последовательное соединение элементов

В системе с последовательным соединением отказ хотя бы одного элемента приводит к отказу всей системы. Для такой системы надежность всей системы равна произведению надежностей её отдельных, независимых элементов. Это прямое следствие теоремы умножения вероятностей для независимых событий. На практике это означает, что даже при высокой надежности отдельных компонентов, общая надежность последовательной системы быстро снижается с увеличением числа элементов.

Rпоследовательная = ∏ni=1 Ri

Параллельное (резервированное) соединение элементов

В системе с параллельным соединением система отказывает только в случае отказа всех её элементов. Расчет надежности такой системы удобнее вести через вероятность отказа. Вероятность отказа всей параллельной системы равна произведению вероятностей отказа её отдельных, независимых элементов. Тогда надежность системы — это единица минус вероятность отказа. Применение параллельного соединения — это эффективный метод повышения надёжности системы за счёт избыточности.

Rпараллельная = 1 - Qсистемы = 1 - ∏ni=1 Qi = 1 - ∏ni=1 (1 - Ri)

Алгоритм расчета надежности сложной системы

Сложные системы часто состоят из комбинаций последовательно и параллельно соединенных блоков. Для расчета их надежности применяется поэтапный подход:

  1. Разбиение системы на элементарные последовательные и параллельные блоки.
  2. Расчет надежности каждого блока по соответствующим формулам.
  3. Замена каждого рассчитанного блока на эквивалентный элемент с его общей надежностью.
  4. Повторение шагов 1-3 до тех пор, пока вся система не будет сведена к одному эквивалентному элементу.

Пример Задачи 3: Определить надежность сложной системы, состоящей из 5 независимых элементов, соединенных по схеме, где блок 1 и блок 2 соединены последовательно, а блок 3 и блок 4 соединены параллельно, и этот параллельный блок затем соединен последовательно с блоком 5 и с первым последовательным блоком.

Даны надежности элементов: R1 = 0,9; R2 = 0,8; R3 = 0,95; R4 = 0,9; R5 = 0,85.

Условие:

  • R1 = 0,9; R2 = 0,8; R3 = 0,95; R4 = 0,9; R5 = 0,85.
  • Схема соединения: (Блок1 — последовательно — Блок2) — последовательно — (Блок3 — параллельно — Блок4) — последовательно — Блок5.

Обоснование:

Система является комбинированной. Расчет будет проводиться поэтапно, сначала для внутренних блоков (последовательного и параллельного), затем для всей системы, используя формулы надежности для последовательного и параллельного соединения. Такой подход позволяет декомпозировать сложную задачу на более простые и управляемые подзадачи.

Формулы:

Rпоследовательная = RA · RB

Rпараллельная = 1 - (1 - RA) · (1 - RB)

Расчет:

  1. Расчет надежности первого последовательного блока (R1-2), состоящего из R1 и R2:
    R1-2 = R1 · R2 = 0,9 · 0,8 = 0,72.
  2. Расчет надежности параллельного блока (R3-4), состоящего из R3 и R4:
    Вероятности отказа:
    Q3 = 1 - R3 = 1 - 0,95 = 0,05.
    Q4 = 1 - R4 = 1 - 0,9 = 0,1.
    R3-4 = 1 - (Q3 · Q4) = 1 - (0,05 · 0,1) = 1 - 0,005 = 0,995.
  3. Расчет надежности всей системы (Rсистемы): Теперь система эквивалентна последовательному соединению трех элементов: R1-2, R3-4 и R5.
    Rсистемы = R1-2 · R3-4 · R5 = 0,72 · 0,995 · 0,85 ≈ 0,60912.

Ответ:

Надежность сложной системы составляет приблизительно 0,60912.

Блок 3: Многоэтапные Испытания и Переоценка Гипотез (Задача 4)

В ситуациях, где результат одного события влияет на вероятность наступления последующего, или когда нам необходимо уточнить вероятность «причины» после наблюдения «следствия», вступают в игру мощные инструменты — формула полной вероятности и теорема Байеса.

Формула Полной Вероятности

Формула полной вероятности используется, когда событие A может произойти только совместно с одной из полной группы несовместных гипотез (событий) H1, H2, …, Hn. Полная группа гипотез означает, что они попарно несовместны (не могут произойти одновременно), и их объединение составляет всё пространство элементарных исходов, то есть одно из них обязательно произойдет (Σni=1 P(Hi) = 1).

P(A) = Σni=1 P(A|Hi)P(Hi)

где:

  • P(Hi) — априорная (исходная) вероятность гипотезы Hi.
  • P(A|Hi) — условная вероятность события A при условии, что гипотеза Hi наступила.

Обоснование формулировки гипотез для «урн» (многоэтапные эксперименты)

Методологическая особенность задач с «урнами» или многоэтапными экспериментами заключается в том, что гипотезы Hi всегда формулируются для первого этапа эксперимента, а событие A относится ко второму этапу. Например, если в урны что-то перекладывают, гипотезы будут о том, какой именно предмет был переложен. Это позволяет структурировать сложные многоступенчатые процессы и применять формулу полной вероятности наиболее эффективно.

Формула Байеса (Апостериорная Вероятность)

Формула Байеса является логическим продолжением формулы полной вероятности и позволяет «переоценить» или «уточнить» априорную вероятность гипотезы Hk после того, как стало известно, что событие A (следствие) произошло. Это так называемая апостериорная вероятность.

P(Hk|A) = (P(A|Hk)P(Hk)) / P(A)

Здесь P(A) — это полная вероятность события A, рассчитанная по формуле полной вероятности.

Смысл формулы Байеса состоит в корректировке наших убеждений о вероятности «причины» (гипотезы) на основе новых «доказательств» (наблюдения события A). Это краеугольный камень статистического вывода и машинного обучения, который позволяет постоянно уточнять модели в свете новой информации.

Пример Задачи 4: В первой урне 6 белых и 4 черных шара. Во второй урне 5 белых и 7 черных шаров. Из первой урны наудачу переложили один шар во вторую. Затем из второй урны извлекли один шар.

а) Какова вероятность, что извлеченный из второй урны шар оказался белым?

б) Извлеченный из второй урны шар оказался белым. Какова вероятность, что из первой урны во вторую был переложен черный шар?

Условие:

  • Урна 1: 6 белых (Б), 4 черных (Ч), всего 10 шаров.
  • Урна 2: 5 белых (Б), 7 черных (Ч), всего 12 шаров.

Обоснование:

а) Это задача на формулу полной вероятности. Событие A — извлечение белого шара из второй урны. Гипотезы Hi касаются цвета шара, переложенного из первой урны во вторую.

б) Это задача на формулу Байеса. Известно, что событие A произошло (извлечен белый шар). Нам нужно найти апостериорную вероятность гипотезы о переложенном шаре, то есть уточнить наше знание о процессе после получения новой информации.

Формулы:

P(A) = P(A|HБ)P(HБ) + P(A|HЧ)P(HЧ)

P(HЧ|A) = (P(A|HЧ)P(HЧ)) / P(A)

Расчет:

Сформулируем гипотезы:

  • HБ: Из первой урны во вторую переложили белый шар.
    P(HБ) = 6/10 = 0,6 (вероятность выбрать белый шар из первой урны).
  • HЧ: Из первой урны во вторую переложили черный шар.
    P(HЧ) = 4/10 = 0,4 (вероятность выбрать черный шар из первой урны).

Проверка полной группы: P(HБ) + P(HЧ) = 0,6 + 0,4 = 1.

Условные вероятности события A (извлечение белого шара из второй урны):

  • P(A|HБ): Если переложили белый шар, во второй урне стало (5+1) = 6 белых и 7 черных, всего 13 шаров.
    P(A|HБ) = 6/13.
  • P(A|HЧ): Если переложили черный шар, во второй урне осталось 5 белых и (7+1) = 8 черных, всего 13 шаров.
    P(A|HЧ) = 5/13.

а) Вероятность, что извлеченный из второй урны шар оказался белым (P(A)):

P(A) = P(A|HБ)P(HБ) + P(A|HЧ)P(HЧ) = (6/13) · 0,6 + (5/13) · 0,4 = 3,6/13 + 2,0/13 = 5,6/13 ≈ 0,4308.

б) Извлеченный из второй урны шар оказался белым. Вероятность, что из первой урны во вторую был переложен черный шар (P(HЧ|A)):

P(HЧ|A) = (P(A|HЧ)P(HЧ)) / P(A) = ((5/13) · 0,4) / (5,6/13) = (2,0/13) / (5,6/13) = 2,0 / 5,6 ≈ 0,3571.

Ответ:

а) Вероятность того, что извлеченный из второй урны шар оказался белым, составляет приблизительно 0,4308.

б) Если извлеченный из второй урны шар оказался белым, вероятность того, что из первой урны во вторую был переложен черный шар, составляет приблизительно 0,3571.

Блок 4: Схема Бернулли и Аппроксимации (Задачи 5, 7)

Когда речь идет о серии независимых испытаний, где каждый исход может быть либо «успехом», либо «неудачей» с постоянной вероятностью, мы сталкиваемся со схемой Бернулли. Это одно из самых фундаментальных распределений в теории вероятностей.

Биномиальное Распределение (Формула Бернулли)

Схема Бернулли описывает n независимых, одинаковых испытаний, в каждом из которых событие A (успех) происходит с постоянной вероятностью p, а событие A (неудача) — с вероятностью q = 1 - p. Случайная величина X, представляющая число появлений события A в n испытаниях, подчиняется биномиальному распределению. Она может принимать значения k = 0, 1, 2, ..., n.

Вероятность того, что в n независимых испытаниях событие A наступит ровно k раз, рассчитывается по формуле Бернулли:

Pn(k) = Ckn · pk · qn-k

где:

  • Ckn — число сочетаний из n по k, показывающее, сколькими способами k «успехов» могут распределиться среди n испытаний.
  • p — вероятность успеха в одном испытании.
  • q — вероятность неудачи в одном испытании.

Для расчета вероятности наступления события в заданном интервале (например, «не более 3-х», «хотя бы один») необходимо просуммировать вероятности Pn(k) для всех k, входящих в этот интервал.

  • P(X ≤ 3) = Pn(0) + Pn(1) + Pn(2) + Pn(3).
  • Вероятность «хотя бы один»: Pn(X ≥ 1) = 1 — Pn(0), где Pn(0) = qn (поскольку C0n = 1 и p0 = 1). Использование этого правила значительно упрощает вычисления для событий «хотя бы один».

Пример Задачи 5: Вероятность того, что студент сдаст экзамен по математике, равна 0,7. В группе 5 студентов. Какова вероятность, что:

а) ровно 3 студента сдадут экзамен;

б) не менее 4 студентов сдадут экзамен;

в) хотя бы один студент сдаст экзамен.

Условие:

  • n = 5 (число студентов/испытаний)
  • p = 0,7 (вероятность успеха — сдать экзамен)
  • q = 1 — p = 0,3 (вероятность неудачи — не сдать экзамен)

Обоснование:

Каждый студент сдаёт экзамен независимо от других, и вероятность успеха для каждого одинакова. Это классическая схема Бернулли, поэтому будем использовать формулу биномиального распределения. Это обеспечивает точность расчетов в условиях фиксированного числа испытаний и постоянной вероятности.

Формула:

Pn(k) = Ckn · pk · qn-k

Расчет:

а) Ровно 3 студента сдадут экзамен (k=3):

P5(3) = C35 · (0,7)3 · (0,3)5-3

C35 = 5! / (3! · 2!) = (5 · 4) / (2 · 1) = 10.

P5(3) = 10 · 0,343 · 0,09 = 0,3087.

б) Не менее 4 студентов сдадут экзамен (k ≥ 4):

Это означает, что сдадут либо 4, либо 5 студентов.

P(X ≥ 4) = P5(4) + P5(5).

  • Для k=4:
    P5(4) = C45 · (0,7)4 · (0,3)1
    C45 = 5! / (4! · 1!) = 5.
    P5(4) = 5 · 0,2401 · 0,3 = 0,36015.
  • Для k=5:
    P5(5) = C55 · (0,7)5 · (0,3)0
    C55 = 1.
    P5(5) = 1 · 0,16807 · 1 = 0,16807.

P(X ≥ 4) = 0,36015 + 0,16807 = 0,52822.

в) Хотя бы один студент сдаст экзамен (k ≥ 1):

Проще рассчитать через противоположное событие — ни один студент не сдаст экзамен (k=0).

P(X ≥ 1) = 1 - P5(0).

P5(0) = C05 · (0,7)0 · (0,3)5 = 1 · 1 · 0,00243 = 0,00243.

P(X ≥ 1) = 1 - 0,00243 = 0,99757.

Ответ:

а) Вероятность того, что ровно 3 студента сдадут экзамен, составляет 0,3087.

б) Вероятность того, что не менее 4 студентов сдадут экзамен, составляет 0,52822.

в) Вероятность того, что хотя бы один студент сдаст экзамен, составляет 0,99757.

Приближение Пуассона для Редких Событий (Задача 7)

В некоторых случаях, когда число испытаний n очень велико, а вероятность успеха p очень мала, прямой расчет по формуле Бернулли становится вычислительно сложным. В таких ситуациях на помощь приходит приближение Пуассона.

Условия применения приближения Пуассона

Приближение Пуассона считается допустимым, если:

  • n ≥ 50 (большое число испытаний)
  • p ≤ 0,1 (малая вероятность успеха)
  • Параметр λ = np ≤ 10 (среднее число наступлений события).

Формула Пуассона позволяет приближенно рассчитать вероятность того, что событие наступит ровно k раз:

Pλ(k) ≈ (λk / k!) · e

где:

  • λ = np — среднее число наступлений события в n испытаниях.
  • e ≈ 2,71828 — основание натурального логарифма.

Это приближение особенно полезно для моделирования редких событий, таких как число несчастных случаев на производстве, количество дефектов в крупной партии продукции, или число телефонных звонков в колл-центр за определенный интервал времени. Оно позволяет получить достаточно точные результаты, избегая ресурсоёмких расчетов.

Пример Задачи 7: Вероятность брака при производстве детали равна 0,005. Найти вероятность того, что в партии из 1000 деталей:

а) будет ровно 3 бракованных детали;

б) будет не более 2 бракованных деталей;

в) будет хотя бы одна бракованная деталь.

Условие:

  • n = 1000 (число деталей/испытаний)
  • p = 0,005 (вероятность брака/успеха)

Обоснование:

Поскольку n = 1000 (велико) и p = 0,005 (мало), а также λ = np = 1000 · 0,005 = 5 (≤ 10), можно с высокой точностью использовать приближение Пуассона к биномиальному распределению. Это обосновано вышеуказанными критериями, обеспечивая адекватность выбранного метода.

Формула:

Pλ(k) ≈ (λk / k!) · e, где λ = 5.

Расчет:

а) Ровно 3 бракованных детали (k=3):

P5(3) = (53 / 3!) · e-5 = (125 / 6) · 0,006738 ≈ 20,833 · 0,006738 ≈ 0,1404.

б) Не более 2 бракованных деталей (k ≤ 2):

P(X ≤ 2) = P5(0) + P5(1) + P5(2).

  • P5(0) = (50 / 0!) · e-5 = (1 / 1) · 0,006738 ≈ 0,006738.
  • P5(1) = (51 / 1!) · e-5 = (5 / 1) · 0,006738 ≈ 0,03369.
  • P5(2) = (52 / 2!) · e-5 = (25 / 2) · 0,006738 ≈ 12,5 · 0,006738 ≈ 0,084225.

P(X ≤ 2) = 0,006738 + 0,03369 + 0,084225 ≈ 0,124653.

в) Хотя бы одна бракованная деталь (k ≥ 1):

P(X ≥ 1) = 1 - P5(0) = 1 - 0,006738 ≈ 0,993262.

Ответ:

а) Вероятность того, что будет ровно 3 бракованных детали, составляет приблизительно 0,1404.

б) Вероятность того, что будет не более 2 бракованных деталей, составляет приблизительно 0,1247.

в) Вероятность того, что будет хотя бы одна бракованная деталь, составляет приблизительно 0,9933.

Блок 5: Дискретная Случайная Величина (ДСВ) и Числовые Характеристики (Задача 8)

Помимо расчета вероятностей отдельных событий, теория вероятностей занимается изучением случайных величин — величин, значения которых зависят от исхода случайного эксперимента. Дискретные случайные величины (ДСВ) принимают конечное или счетное множество изолированных значений.

Построение Закона Распределения (Ряд)

Закон распределения ДСВ — это полное описание случайной величины, которое устанавливает соответствие между всеми возможными значениями, которые она может принять, и их вероятностями. Чаще всего он представляется в виде таблицы, называемой рядом распределения:

X (xi) x1 x2 xn
P(X=xi) p1 p2 pn

Ключевое свойство закона распределения: сумма вероятностей всех возможных значений ДСВ должна быть равна единице (Σ pk = 1). Это служит важной проверкой корректности построения ряда распределения и позволяет убедиться в полноте охвата всех возможных исходов.

Расчет Математического Ожидания, Дисперсии и СКО

После построения закона распределения ДСВ можно вычислить её числовые характеристики, которые описывают центральную тенденцию и меру рассеяния.

Математическое ожидание (M(X))

Это среднее (взвешенное) значение случайной величины, своего рода «центр тяжести» её распределения. Оно рассчитывается как сумма произведений каждого возможного значения на его вероятность:

M(X) = Σni=1 xipi

Дисперсия (D(X))

Дисперсия измеряет степень рассеяния или разброса значений случайной величины вокруг её математического ожидания. Большая дисперсия указывает на то, что значения ДСВ сильно отклоняются от среднего, а малая — на их концентрацию вокруг M(X). Это даёт представление о предсказуемости результатов.

D(X) = M(X2) - [M(X)]2

где M(X2) — математическое ожидание квадрата случайной величины, которое рассчитывается по формуле:

M(X2) = Σni=1 x2ipi

Среднее квадратическое отклонение (σ(X))

Среднее квадратическое отклонение является квадратным корнем из дисперсии:

σ(X) = √(D(X))

Оно измеряется в тех же единицах, что и сама случайная величина, что делает его более интуитивно понятной мерой рассеяния, чем дисперсия. Это упрощает интерпретацию результатов и сравнение различных распределений.

Пример Задачи 8: Производится 3 выстрела по мишени. Вероятность попадания при каждом выстреле равна 0,6. Построить закон распределения числа попаданий X. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение ДСВ X.

Условие:

  • n = 3 (число выстрелов/испытаний)
  • p = 0,6 (вероятность попадания)
  • q = 1 — p = 0,4 (вероятность промаха)
  • X — число попаданий (ДСВ).

Обоснование:

Число попаданий в n независимых испытаниях с постоянной вероятностью успеха p подчиняется биномиальному распределению. Это позволит нам построить закон распределения ДСВ X. Затем, используя определения, рассчитаем числовые характеристики, которые дадут полное представление о поведении этой случайной величины.

Формулы:

Pn(k) = Ckn · pk · qn-k

M(X) = Σ xipi

D(X) = M(X2) - [M(X)]2

σ(X) = √(D(X))

Расчет:

  1. Построение закона распределения (ряда) ДСВ X:
    Возможные значения X (число попаданий): k = 0, 1, 2, 3.

    • P(X=0): 0 попаданий из 3.
      P3(0) = C03 · (0,6)0 · (0,4)3 = 1 · 1 · 0,064 = 0,064.
    • P(X=1): 1 попадание из 3.
      P3(1) = C13 · (0,6)1 · (0,4)2 = 3 · 0,6 · 0,16 = 0,288.
    • P(X=2): 2 попадания из 3.
      P3(2) = C23 · (0,6)2 · (0,4)1 = 3 · 0,36 · 0,4 = 0,432.
    • P(X=3): 3 попадания из 3.
      P3(3) = C33 · (0,6)3 · (0,4)0 = 1 · 0,216 · 1 = 0,216.

    Проверка: 0,064 + 0,288 + 0,432 + 0,216 = 1,000. Сумма вероятностей равна 1,0, ряд распределения построен верно.
    Ряд распределения числа попаданий X:

    X (xi) 0 1 2 3
    P(X=xi) 0,064 0,288 0,432 0,216
  2. Расчет математического ожидания M(X):
    M(X) = 0 · 0,064 + 1 · 0,288 + 2 · 0,432 + 3 · 0,216
    M(X) = 0 + 0,288 + 0,864 + 0,648 = 1,8.
    Примечание: Для биномиального распределения M(X) = np = 3 · 0,6 = 1,8, что совпадает с расчетом.
  3. Расчет дисперсии D(X):
    Сначала найдем M(X2):
    M(X2) = 02 · 0,064 + 12 · 0,288 + 22 · 0,432 + 32 · 0,216
    M(X2) = 0 · 0,064 + 1 · 0,288 + 4 · 0,432 + 9 · 0,216
    M(X2) = 0 + 0,288 + 1,728 + 1,944 = 3,96.
    Теперь рассчитаем D(X):
    D(X) = M(X2) - [M(X)]2 = 3,96 - (1,8)2 = 3,96 - 3,24 = 0,72.
    Примечание: Для биномиального распределения D(X) = npq = 3 · 0,6 · 0,4 = 0,72, что совпадает с расчетом.
  4. Расчет среднего квадратического отклонения σ(X):
    σ(X) = √(D(X)) = √(0,72) ≈ 0,8485.

Ответ:

Закон распределения числа попаданий X:

X (xi) 0 1 2 3
P(X=xi) 0,064 0,288 0,432 0,216

Математическое ожидание M(X) = 1,8.

Дисперсия D(X) = 0,72.

Среднее квадратическое отклонение σ(X) ≈ 0,8485.

Заключение

Представленное руководство демонстрирует комплексный подход к решению типовых задач по теории вероятностей, охватывающих фундаментальные разделы курса: от классического определения вероятности и комбинаторики до анализа дискретных случайных величин и их характеристик. Каждая задача была рассмотрена с акцентом на методологическое обоснование выбора конкретных формул и распределений, что является краеугольным камнем академически строгого решения.

Мы увидели, как задачи на выборку без возвращения логично приводят к гипергеометрическому распределению; как сложные события «хотя бы одно» и «только одно» требуют внимательного применения теорем сложения и умножения, а также принципа противоположного события. Задачи на надежность систем стали наглядной демонстрацией практического применения этих же теорем. Многоэтапные эксперименты показали мощь формулы полной вероятности и теоремы Байеса в переоценке наших знаний. Наконец, анализ схемы Бернулли не только позволил рассчитать вероятности повторных испытаний, но и познакомил с эффективным приближением Пуассона для редких событий. Завершился анализ построением закона распределения дискретной случайной величины и расчетом её ключевых числовых характеристик, дающих представление о центральной тенденции и рассеянии данных.

Глубокое понимание теоретической базы, способность аргументировать выбор математического аппарата и умение применять его пошагово — это те навыки, которые позволят студентам не просто успешно справиться с контрольной работой, но и заложить прочный фундамент для дальнейшего изучения статистики, анализа данных и принятия решений в условиях неопределенности. Теория вероятностей — это не просто набор формул, а мощный инструмент познания мира, полного случайностей, способный дать конкурентное преимущество в любой сфере, где требуется принятие обоснованных решений.

Список использованной литературы

  1. Гмурман В. Е. Теория вероятностей и математическая статистика. М. : Юрайт.
  2. Теорема сложения вероятностей, совместные и несовместные события. URL: https://webmath.ru/poleznoe/veroyatnosti/teorema_slozheniya_veroyatnostey.php (дата обращения: 06.10.2025).
  3. Теория вероятностей: формулы, примеры и онлайн-калькулятор. URL: https://skysmart.ru/articles/math/teoriya-veroyatnostej (дата обращения: 06.10.2025).
  4. Вероятность хотя бы одного события из нескольких возможных. URL: https://smysl.io/blog/veroyatnost-hotya-by-odnogo-sobytiya-iz-neskolkih-vozmozhnyh/ (дата обращения: 06.10.2025).
  5. Теорема Байеса. URL: https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%B0 (дата обращения: 06.10.2025).
  6. Число сочетаний. URL: https://foxford.ru/wiki/matematika/chislo-sochetaniy (дата обращения: 06.10.2025).
  7. Теория вероятностей и математическая статистика. URL: https://esyr.org/doc/math_stat/index.htm (дата обращения: 06.10.2025).
  8. Основы расчета надежности технических систем по надежности их элементов. URL: https://obzh.ru/spravochnik/osnovy-rascheta-nadezhnosti-tehnicheskih-sistem-po-nadezhnosti-ih-elementov (дата обращения: 06.10.2025).
  9. Формула полной вероятности и формулы Байеса. Примеры решений. URL: https://mathprofi.ru/formula_polnoi_veroyatnosti_baiesa.html (дата обращения: 06.10.2025).
  10. Теория вероятностей и математическая статистика. Минск : БГУИР. URL: https://www.bsuir.by/m/12_100228_1_59187.pdf (дата обращения: 06.10.2025).
  11. Расчет надежности при последовательном соединении элементов. URL: https://studfile.net/preview/7185016/page:17/ (дата обращения: 06.10.2025).
  12. Классическое определение вероятности, теория и примеры решений. Онлайн учебник по теории вероятностей. URL: https://matburo.ru/tv_classic.html (дата обращения: 06.10.2025).
  13. Сочетание. URL: https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D1%87%D0%B5%D1%82%D0%B0%D0%BD%D0%B8%D0%B5 (дата обращения: 06.10.2025).
  14. Лекция 5. Закон распределения дискретной случайной величины. URL: https://math.msu.ru/node/1406 (дата обращения: 06.10.2025).
  15. Вероятность. URL: https://ru.wikipedia.org/wiki/%D0%92%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D1%8C (дата обращения: 06.10.2025).
  16. Краткий курс комбинаторики, теории вероятностей и математической статистики. URL: https://dep_math.pnzgu.ru/files/dep_math.pnzgu.ru/study/tvims/kratkiy_kurs_kombinatoriki_tv_i_ms.pdf (дата обращения: 06.10.2025).
  17. Дискретные случайные величины. Профильный уровень. Видеоурок. Алгебра 11 Класс. URL: https://interneturok.ru/lesson/algebra/11-klass/sluchaynyie-sobytiya-i-veroyatnosti/diskretnyie-sluchaynyie-velichiny-profilnyy-uroven (дата обращения: 06.10.2025).
  18. Закон распределения вероятностей дискретной случайной величины. URL: https://synergy.ru/knowledges/stat_mat/teoriya_veroyatnostej_i_matematicheskaya_statistika/zakon_raspredeleniya_veroyatnostej_diskretnoj_sluchajnoj_velichiny (дата обращения: 06.10.2025).
  19. Основы математической обработки наблюдательных и экспериментальных данных для астрономов. М. : ГАИШ. URL: https://www.gai.ru/books/OsnMatObrabDann/ (дата обращения: 06.10.2025).
  20. Лекция 3. Формулы полной вероятности и Байеса. URL: https://math.msu.ru/node/1404 (дата обращения: 06.10.2025).
  21. §5. Формула полной вероятности. Формула Байеса. URL: https://kpfu.ru/portal/docs/F_1482811340/Glava_2.pdf (дата обращения: 06.10.2025).
  22. Гипергеометрическое распределение. URL: https://fsight.ru/glossary/gipergeometricheskoe-raspredelenie (дата обращения: 06.10.2025).
  23. Гипергеометрическое распределение дискретной случайной величины. URL: https://100task.ru/teoriya-veroyatnostej/gipergeometricheskoe-raspredelenie/ (дата обращения: 06.10.2025).
  24. Схема испытаний Бернулли и его теорема. URL: https://math.msu.ru/node/1405 (дата обращения: 06.10.2025).
  25. Биномиальное распределение вероятностей. URL: https://mathprofi.ru/binom_raspredelenie_veroyatnostei.html (дата обращения: 06.10.2025).
  26. Классическое определение вероятности. Основные формулы комбинаторики. URL: https://studfile.net/preview/10317376/page:3/ (дата обращения: 06.10.2025).
  27. Число сочетаний из n по k: формула и онлайн калькулятор. URL: https://matburo.ru/tvart_sub.php?p=tv_combinations (дата обращения: 06.10.2025).
  28. Классическое определение вероятности. URL: https://www.yaklass.ru/p/algebra/9-klass/elementy-kombinatoriki-i-teorii-veroiatnostei-9269/klassicheskoe-opredelenie-veroiatnosti-30046/re-ef0f171c-37fe-49b8-b98a-78f7e2a4df95 (дата обращения: 06.10.2025).
  29. Элементы комбинаторики и теории вероятностей. URL: https://sgpi.ru/upload/iblock/f32/f32483569804b7f808f88ff0859a037b.pdf (дата обращения: 06.10.2025).
  30. Формула Бернулли. Биномиальные вероятности. URL: https://studfile.net/preview/10317376/page:14/ (дата обращения: 06.10.2025).
  31. Сочетания. URL: https://www.yaklass.ru/p/algebra/11-klass/elementy-kombinatoriki-teorii-veroiatnostei-i-matematicheskoi-statistiki-10660/sochetaniia-30080/re-eb56d9fc-e069-45f8-b80c-25d2b77a28e3 (дата обращения: 06.10.2025).
  32. Числом сочетаний СNK. URL: https://olympiads.ru/articles/combinatorics/combination_nk.shtml (дата обращения: 06.10.2025).
  33. 3.1. Закон распределения дискретной случайной величины. URL: https://studfile.net/preview/10317376/page:17/ (дата обращения: 06.10.2025).
  34. Гипергеометрическое распределение. URL: https://ru.wikipedia.org/wiki/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B3%D0%B5%D0%BE%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B5_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5 (дата обращения: 06.10.2025).
  35. Распределение Бернулли. URL: https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%91%D0%B5%D1%80%D0%BD%D1%83%D0%BB%D0%BB%D0%B8 (дата обращения: 06.10.2025).
  36. Подборка книг по теории вероятностей и математической статистике. Часть 1. URL: https://pikabu.ru/story/podborka_knig_po_teorii_veroyatnostey_i_matematicheskoy_statistike_chast_1_5914562 (дата обращения: 06.10.2025).
  37. Найти надёжность Р каждой из схем — примеры, решения. URL: https://feniks.help/tv/nadezhnost-shem.html (дата обращения: 06.10.2025).
  38. Гипергеометрическое распределение ДСВ. Примеры решения задач. URL: https://matburo.ru/tvart_sub.php?p=tv_gipergeom (дата обращения: 06.10.2025).
  39. 1.8 Надежность систем с последовательным соединением элементов. URL: https://studfile.net/preview/7185016/page:16/ (дата обращения: 06.10.2025).
  40. Гипергеометрическое распределение. URL: https://cyclowiki.org/wiki/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B3%D0%B5%D0%BE%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B5_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5 (дата обращения: 06.10.2025).
  41. Онлайн расчет надежности. URL: https://areliability.com/ru/reliability-calculation-online/ (дата обращения: 06.10.2025).

Похожие записи