В мире, где данные стали новой валютой, способность анализировать случайные явления и извлекать из них значимую информацию является краеугольным камнем успеха в любой технической, экономической или даже гуманитарной области. Дисциплины «Теория вероятностей» и «Математическая статистика» — это не просто абстрактные математические конструкции, а мощные инструменты для понимания неопределенности, принятия обоснованных решений и прогнозирования будущих событий. Именно поэтому овладение ими становится критически важным для каждого современного специалиста.
Цель данной работы — не просто предоставить набор решенных задач. Мы стремимся создать исчерпывающее, академически строгое руководство, которое шаг за шагом проведет читателя через ландшафт основных концепций и методов Теории вероятностей и Математической статистики. Каждое решение будет сопровождаться детальными пояснениями, обоснованиями и, что особенно важно, явными ссылками на классические теоремы и определения из авторитетных источников, таких как учебники В.Е. Гмурмана и Е.С. Вентцель. Такой подход гарантирует не только правильность ответов, но и глубокое понимание логики и принципов, лежащих в их основе, что является основой для формирования прочных академических знаний.
Структура документа логически разбита на пять основных разделов, каждый из которых посвящен определенному кругу задач и понятий. Мы начнем с фундаментальных определений случайных событий и базовых комбинаторных методов, затем перейдем к теоремам вероятностей и геометрическому подходу. Далее будут рассмотрены дискретные и непрерывные случайные величины с их характеристиками, и завершим работу погружением в элементы математической статистики, где особое внимание будет уделено нюансам обработки выборочных данных и построению несмещенных оценок. Каждый раздел будет представлять собой не просто набор формул, а цельную повествовательную линию, призванную сделать сложные концепции доступными и увлекательными.
Раздел I. Основные понятия и классические методы вычисления вероятностей
Изучение теории вероятностей начинается с самого элементарного понятия – случайного события. Это фундамент, на котором строится вся дальнейшая логика, ведь прежде чем мы сможем измерить «шансы» какого-либо явления, мы должны научиться его точно описывать. В этом разделе мы углубимся в строгое определение случайных событий и освоим мощный арсенал комбинаторных методов, позволяющих вычислить количество возможных исходов, что является ключом к классическому определению вероятности.
Строгое описание сложных событий с помощью операций (Задача 1)
Представьте себе мир, где все предопределено. Скучно, не правда ли? К счастью, наша реальность полна неопределенности, и именно эту неопределенность мы пытаемся формализовать с помощью случайных событий. Случайное событие – это исход испытания, который может произойти или не произойти при выполнении определённого комплекса условий S. Примерами могут служить выпадение орла при подбрасывании монеты, выигрыш в лотерее или поломка детали в механизме.
Для того чтобы описывать более сложные сценарии, мы используем алгебру событий – операции, аналогичные тем, что применяются к множествам:
- Объединение событий (Сумма): Событие A + B (или A ∪ B) происходит, если наступает хотя бы одно из событий A или B. То есть, A произошло, или B произошло, или оба произошли.
- Пересечение событий (Произведение): Событие AB (или A ∩ B) происходит, если события A и B наступают одновременно в одном и том же испытании.
- Дополнение (Противоположное событие): Событие A (или Ac) означает, что событие A не наступило. Если событие A произошло с вероятностью P(A), то вероятность его дополнения P(A) = 1 — P(A).
Также важно различать:
- Достоверное событие – событие, которое обязательно произойдет при осуществлении условий S. Его вероятность равна 1.
- Невозможное событие – событие, которое заведомо не произойдет при осуществлении условий S. Его вероятность равна 0.
- Совместные события – события, появление одного из которых не исключает появление другого в том же испытании (например, извлечь из колоды туза и пиковую карту).
- Несовместные события – события, появление одного из которых исключает появление других событий в одном и том же испытании (например, извлечь из колоды туз и король – несовместны, так как одна карта не может быть одновременно тузом и королем).
- Событие A: «Из урны извлечен красный шар».
- Событие B: «Из урны извлечен синий шар».
- Событие C: «Из урны извлечен белый шар».
- «Не является красным шаром» – это противоположное событие к A, то есть A.
- «Не является синим шаром» – это противоположное событие к B, то есть B.
- Союз «и» в данном контексте означает, что должны произойти оба условия одновременно. Следовательно, мы используем операцию пересечения (произведения).
- Формула перестановок (Pn): Число способов, которыми можно упорядочить n различных объектов. Pn = n!.
- Пример: Сколько слов можно составить из букв «А, Б, В»? P3 = 3! = 3 × 2 × 1 = 6. (АБВ, АВБ, БАВ, БВА, ВАБ, ВБА).
- Формула размещений (Akn): Число способов выбрать и упорядочить k элементов из n различных элементов (выбор без возвращения, с учетом порядка). Akn = n! / (n — k)!.
- Пример: Сколько есть способов выбрать 2 призера из 5 участников соревнования (1-е и 2-е места)? A25 = 5! / (5 — 2)! = 5! / 3! = 5 × 4 = 20.
- Формула сочетаний (Ckn): Число способов выбрать k элементов из n различных элементов без учета порядка (выбор без возвращения). Ckn = n! / (k! · (n — k)!).
- Пример: Сколько способов выбрать 2 человек из 5 для формирования команды? C25 = 5! / (2! · (5 — 2)!) = 5! / (2! · 3!) = (5 × 4) / (2 × 1) = 10.
- Расчет общего числа исходов (n):
Мы извлекаем 4 шара из 10, при этом порядок извлечения не имеет значения. Следовательно, используем формулу сочетаний.
n = C410 = 10! / (4! · (10 — 4)!) = 10! / (4! · 6!) = (10 × 9 × 8 × 7) / (4 × 3 × 2 × 1) = 10 × 3 × 7 = 210.
Таким образом, существует 210 различных способов извлечь 4 шара из 10. - Расчет числа благоприятствующих исходов (m):
Нам необходимо извлечь ровно 2 красных шара и (4 — 2) = 2 синих шара.- Число способов извлечь 2 красных шара из 3 имеющихся красных: C23 = 3! / (2! · (3 — 2)!) = 3! / (2! · 1!) = (3 × 2) / (2 × 1) = 3.
- Число способов извлечь 2 синих шара из 7 имеющихся синих: C27 = 7! / (2! · (7 — 2)!) = 7! / (2! · 5!) = (7 × 6) / (2 × 1) = 21.
Поскольку выбор красных и синих шаров является независимым, общее число благоприятствующих исходов (m) находится путем умножения этих чисел (по правилу произведения в комбинаторике):
m = C23 × C27 = 3 × 21 = 63.
Таким образом, существует 63 способа извлечь 4 шара так, чтобы среди них было ровно 2 красных и 2 синих. - Расчет вероятности (P(A)):
P(A) = m / n = 63 / 210.
Для упрощения дроби разделим числитель и знаменатель на их общий делитель (например, на 21):
P(A) = 3 / 10 = 0.3. - x — y ≤ l ⇒ y ≥ x — l
- -(x — y) ≤ l ⇒ y — x ≤ l ⇒ y ≤ x + l
- Строим квадрат с вершинами (0,0), (L,0), (L,L), (0,L).
- Строим прямую y = x.
- Строим прямые y = x — l и y = x + l.
Задача 1: Формулировка сложного события
Пусть в урне находятся шары разного цвета. Обозначим:
Сформулируйте событие X: «Из урны извлечен шар, который не является красным и не является синим».
Решение:
Для строгого описания события X воспользуемся операциями над событиями:
Таким образом, событие X может быть строго описано как X = A ∩ B.
Интерпретируя это событие, мы видим, что X означает «извлечен шар, который не красный И не синий». Если единственными возможными цветами шаров являются красный, синий и белый, то это событие эквивалентно событию C: «Из урны извлечен белый шар».
Применение формул комбинаторики и классического определения (Задача 2)
Когда мы говорим о вероятности, чаще всего на ум приходит классическое определение вероятности, предложенное П.С. Лапласом: вероятность события A равна отношению числа m исходов, благоприятствующих наступлению события A, к общему числу n всех равновозможных несовместных исходов. Формально: P(A) = m / n. Это определение применимо тогда, когда все элементарные исходы симметричны и равновозможны. Однако для вычисления m и n нам часто требуется мощный аппарат — комбинаторика.
Комбинаторика – это раздел математики, изучающий вопросы о том, сколько различных комбинаций, элементов или объектов можно получить из данного множества. Основные формулы комбинаторики:
Задача 2: Расчет вероятности с использованием комбинаторики
В урне находится 10 шаров, из которых 3 красных и 7 синих. Из урны наугад извлекают 4 шара. Какова вероятность того, что среди извлеченных шаров окажется ровно 2 красных?
Решение:
Обозначим событие A: «Среди 4 извлеченных шаров ровно 2 красных».
Для применения классического определения вероятности P(A) = m / n, нам необходимо вычислить общее число возможных исходов n и число благоприятствующих исходов m.
Ответ: Вероятность того, что среди извлеченных 4 шаров окажется ровно 2 красных, составляет 0.3.
Раздел II. Теоремы вероятностей и геометрическое определение (Задачи 3, 4)
Выходя за рамки простых комбинаторных подсчетов, Теория вероятностей предлагает мощные инструменты для работы со сложными сценариями, где события могут быть взаимосвязаны или же описываться непрерывными параметрами. В этом разделе мы исследуем как фундаментальные теоремы сложения и умножения, позволяющие комбинировать вероятности различных событий, так и элегантный подход геометрической вероятности, который расширяет классическое определение на случаи, когда число исходов бесконечно.
Расчет геометрической вероятности (Задача 3)
В классическом определении вероятности мы имеем дело с конечным или счетным множеством равновозможных исходов. Однако что делать, если пространство элементарных исходов бесконечно? Например, если мы случайно выбираем точку на отрезке или в некоторой области? В таких случаях на помощь приходит геометрическое определение вероятности.
Геометрическое определение вероятности: Если пространство элементарных исходов Ω и событие A представлены геометрическими областями (отрезками, плоскими фигурами, объемными телами), то вероятность P(A) равна отношению меры области A (длины, площади, объема) к мере всей области Ω.
P(A) = mes(A) / mes(Ω)
где mes(A) — мера (длина, площадь, объем) области, благоприятствующей событию A, а mes(Ω) — мера всей области возможных исходов Ω. Ключевое условие: точки внутри области Ω выбираются случайно, то есть любая точка имеет одинаковую вероятность быть выбранной.
Задача 3: Расчет геометрической вероятности
На отрезке длиной L случайно выбирают две точки. Какова вероятность того, что расстояние между этими точками будет меньше или равно l (где l < L)?
Решение:
Пусть координаты выбранных точек на отрезке [0, L] будут x и y. Каждая из этих координат может принимать любое значение от 0 до L.
Пространство элементарных исходов Ω в данном случае представляет собой квадрат в декартовой системе координат с вершинами (0,0), (L,0), (L,L), (0,L). Площадь этого квадрата равна L × L = L2. Это и есть мера всей области Ω: mes(Ω) = L2.
Событие A: «Расстояние между точками x и y меньше или равно l«.
Математически это условие записывается как |x — y| ≤ l.
Это неравенство можно разбить на два:
Теперь необходимо построить область A, соответствующую этим условиям, внутри квадрата [0, L] × [0, L].
Графически это выглядит так:
Область, ограниченная этими прямыми и границами квадрата, является областью A.
На рисунке ниже показано, как эти линии делят квадрат. Область, где |x — y| ≤ l, представляет собой весь квадрат за вычетом двух треугольников в углах.
L | . . . . . . . . . .
| . . . . . . . . . .
| . . . . . . . . . .
| . . . . . . . . . .
| . . . . . . . . . .
| . . . . . . . . . .
| . . . . . . . . . .
| . . . . . . . . . .
l | . . . . . . . . . .
| . . . . . . . . . .
0 +---------------------
0 l L
Графическое представление:
Прямая y = x делит квадрат пополам. Условия y ≥ x — l и y ≤ x + l задают полосу вокруг прямой y = x.
Два «лишних» треугольника, которые не удовлетворяют условию |x — y| ≤ l, имеют катеты длиной (L — l).
Площадь каждого такого треугольника: (1/2) · (L — l) · (L — l) = (1/2) · (L — l)2.
Общая площадь двух таких треугольников: (L — l)2.
Мера благоприятствующей области A (площадь):
mes(A) = mes(Ω) — (площадь двух треугольников) = L2 — (L — l)2.
mes(A) = L2 — (L2 — 2Ll + l2) = L2 — L2 + 2Ll — l2 = 2Ll — l2.
Теперь найдем вероятность P(A):
P(A) = mes(A) / mes(Ω) = (2Ll — l2) / L2 = 2(l/L) — (l/L)2.
Ответ: Вероятность того, что расстояние между двумя случайно выбранными точками на отрезке длиной L будет меньше или равно l, составляет 2(l/L) — (l/L)2.
Теоремы сложения и умножения для независимых/совместных событий (Задача 4)
Понимание того, как события взаимодействуют между собой, является ключом к решению множества вероятностных задач. Две фундаментальные теоремы — теоремы сложения и умножения — позволяют нам вычислять вероятности сложных событий, образованных из более простых.
Теорема сложения вероятностей:
- Для несовместных событий: Если события A и B несовместны (то есть их одновременное наступление невозможно, A ∩ B = ∅), то вероятность их суммы равна сумме их вероятностей:
P(A + B) = P(A) + P(B). - Для совместных событий: Если события A и B совместны, то вероятность их суммы равна сумме их вероятностей минус вероятность их совместного наступления:
P(A + B) = P(A) + P(B) — P(AB).
(Это позволяет избежать двойного подсчета исходов, принадлежащих обоим событиям).
Теорема умножения вероятностей:
- Для независимых событий: События A и B называются независимыми, если вероятность появления одного из них не зависит от наступления или ненаступления другого. В этом случае вероятность их произведения (совместного наступления) равна произведению их вероятностей:
P(AB) = P(A) · P(B). - Для зависимых событий (условная вероятность): Если события A и B зависимы, то P(AB) = P(A) · P(B|A), где P(B|A) — условная вероятность события B при условии, что событие A уже произошло.
Задача 4: Применение теорем сложения и умножения
Два стрелка делают по одному выстрелу по мишени. Вероятность попадания для первого стрелка составляет P(A) = 0.7, для второго стрелка P(B) = 0.8. Найти вероятность того, что:
а) Оба стрелка попадут в мишень.
б) Хотя бы один стрелок попадет в мишень.
в) Ни один стрелок не попадет в мишень.
Решение:
Определим события:
- A: «Первый стрелок попал в мишень». P(A) = 0.7.
- B: «Второй стрелок попал в мишень». P(B) = 0.8.
Предполагаем, что выстрелы стрелков независимы друг от друга.
а) Вероятность того, что оба стрелка попадут в мишень.
Это событие является произведением событий A и B (A ∩ B). Поскольку события A и B независимы, мы используем теорему умножения для независимых событий.
P(A ∩ B) = P(A) · P(B) = 0.7 · 0.8 = 0.56.
б) Вероятность того, что хотя бы один стрелок попадет в мишень.
Событие «хотя бы один стрелок попадет» означает, что попадет первый, или попадет второй, или попадут оба. Это соответствует объединению событий A и B (A ∪ B).
Поскольку события A и B совместны (оба могут попасть), используем теорему сложения для совместных событий:
P(A ∪ B) = P(A) + P(B) — P(A ∩ B).
Мы уже вычислили P(A ∩ B) = 0.56.
P(A ∪ B) = 0.7 + 0.8 — 0.56 = 1.5 — 0.56 = 0.94.
Альтернативный способ:
Событие «хотя бы один попадет» является противоположным событию «ни один не попадет».
Событие «первый не попал» – A. P(A) = 1 — P(A) = 1 — 0.7 = 0.3.
Событие «второй не попал» – B. P(B) = 1 — P(B) = 1 — 0.8 = 0.2.
Событие «ни один не попал» – ¯A ∩ ¯B. Поскольку выстрелы независимы, A и B тоже независимы.
P(A ∩ B) = P(A) · P(B) = 0.3 · 0.2 = 0.06.
Тогда вероятность «хотя бы один попал» = 1 — P(A ∩ B) = 1 — 0.06 = 0.94.
Результаты совпадают, что подтверждает корректность расчетов.
в) Вероятность того, что ни один стрелок не попадет в мишень.
Это событие ¯A ∩ ¯B, которое мы уже вычислили в альтернативном способе для пункта б).
P(A ∩ B) = 0.06.
Ответ:
а) Вероятность, что оба стрелка попадут: 0.56.
б) Вероятность, что хотя бы один стрелок попадет: 0.94.
в) Вероятность, что ни один стрелок не попадет: 0.06.
Раздел III. Дискретные случайные величины и схема Бернулли (Задача 5)
Переходя от событий к величинам, мы вступаем в область случайных величин — концепции, которая позволяет количественно описывать исходы случайных экспериментов. В этом разделе мы сфокусируемся на дискретных случайных величинах (ДСВ), которые принимают отдельные, изолированные значения. Особое внимание будет уделено схеме Бернулли — мощной модели для анализа повторяющихся независимых испытаний, и вытекающему из неё биномиальному распределению, которое позволяет предсказать число «успехов» в серии таких экспериментов.
Формула Бернулли и ряд распределения
Случайная величина (СВ) – это величина, которая в результате испытания примет то или иное значение, заранее неизвестное, и зависящее от случайных факторов.
Дискретная случайная величина (ДСВ) – это СВ, которая может принимать конечное или счетное множество значений. Например, число выпавших «орлов» при 5 бросках монеты (0, 1, 2, 3, 4, 5).
Для полного описания ДСВ необходимо знать её закон распределения. Это любое соответствие, устанавливающее связь между возможными значениями СВ и вероятностями их наступления. Наиболее часто закон распределения ДСВ представляется в виде ряда распределения:
X = xi | x1 | x2 | … | xn |
---|---|---|---|---|
P(X = xi) | p1 | p2 | … | pn |
При этом сумма всех вероятностей должна быть равна единице: Σpi = 1.
Одной из самых распространённых моделей для дискретных случайных величин является схема Бернулли. Это последовательность n независимых испытаний, в каждом из которых событие A (называемое «успехом») может произойти с одной и той же вероятностью p, а неудача – с вероятностью q = 1 — p.
Вероятность того, что в n независимых испытаниях событие A наступит ровно k раз (где k = 0, 1, …, n), определяется формулой Бернулли (биномиальное распределение):
Pn(k) = Ckn · pk · qn-k
где Ckn = n! / (k! · (n — k)!) — число сочетаний из n по k.
Задача 5: Построение закона распределения по схеме Бернулли
Монета подбрасывается 4 раза. Пусть X – число выпавших «орлов». Построить ряд распределения дискретной случайной величины X.
Решение:
- Определение параметров схемы Бернулли:
- Число испытаний n = 4 (монета подбрасывается 4 раза).
- Событие A: «Выпал орел».
- Вероятность успеха p = P(A) = 0.5 (для честной монеты).
- Вероятность неудачи q = 1 — p = 1 — 0.5 = 0.5.
- Случайная величина X – число выпавших «орлов» (количество успехов). Возможные значения X: k = 0, 1, 2, 3, 4.
- Расчет вероятностей для каждого значения k с использованием формулы Бернулли:
- P(X = 0) (0 орлов):
P4(0) = C04 · (0.5)0 · (0.5)4-0 = 1 · 1 · (0.5)4 = 0.0625.
(C04 = 4! / (0! · 4!) = 1) - P(X = 1) (1 орел):
P4(1) = C14 · (0.5)1 · (0.5)4-1 = 4 · 0.5 · (0.5)3 = 4 · 0.5 · 0.125 = 0.25.
(C14 = 4! / (1! · 3!) = 4) - P(X = 2) (2 орла):
P4(2) = C24 · (0.5)2 · (0.5)4-2 = 6 · (0.5)2 · (0.5)2 = 6 · 0.25 · 0.25 = 0.375.
(C24 = 4! / (2! · 2!) = (4 × 3) / (2 × 1) = 6) - P(X = 3) (3 орла):
P4(3) = C34 · (0.5)3 · (0.5)4-3 = 4 · (0.5)3 · 0.5 = 4 · 0.125 · 0.5 = 0.25.
(C34 = 4! / (3! · 1!) = 4) - P(X = 4) (4 орла):
P4(4) = C44 · (0.5)4 · (0.5)4-4 = 1 · (0.5)4 · 1 = 0.0625.
(C44 = 4! / (4! · 0!) = 1)
- P(X = 0) (0 орлов):
- Построение ряда распределения X:
X = k | 0 | 1 | 2 | 3 | 4 |
---|---|---|---|---|---|
P(X = k) | 0.0625 | 0.25 | 0.375 | 0.25 | 0.0625 |
Проверка: Сумма вероятностей = 0.0625 + 0.25 + 0.375 + 0.25 + 0.0625 = 1.00. Ряд распределения построен верно.
Расчет числовых характеристик ДСВ
Закон распределения дает полное описание случайной величины, но для более компактной характеристики используются числовые показатели, такие как математическое ожидание и дисперсия.
- Математическое ожидание (M(X)) – это среднее значение случайной величины, которое она принимает при очень большом числе испытаний. Для дискретной СВ X с рядом распределения (xi, pi) оно вычисляется как: M(X) = Σi xi · pi.
- Дисперсия (D(X)) – это мера разброса значений случайной величины относительно её математического ожидания. Она характеризует степень отклонения случайной величины от её среднего значения. Для дискретной СВ D(X) = Σi (xi — M(X))2 · pi или D(X) = M(X2) — [M(X)]2.
Для биномиального распределения, возникающего из схемы Бернулли, существуют упрощенные формулы для этих характеристик:
- Математическое ожидание биномиального распределения: M(X) = n · p.
- Дисперсия биномиального распределения: D(X) = n · p · q.
Задача 5 (продолжение): Расчет числовых характеристик
Используя ряд распределения из предыдущего пункта, найти математическое ожидание и дисперсию случайной величины X.
Решение:
- Расчет математического ожидания (M(X)):
Используем формулу M(X) = n · p для биномиального распределения.
M(X) = 4 · 0.5 = 2.
Проверка по ряду распределения:
M(X) = 0 · 0.0625 + 1 · 0.25 + 2 · 0.375 + 3 · 0.25 + 4 · 0.0625
M(X) = 0 + 0.25 + 0.75 + 0.75 + 0.25 = 2.0.
Результаты совпадают. - Расчет дисперсии (D(X)):
Используем формулу D(X) = n · p · q для биномиального распределения.
D(X) = 4 · 0.5 · 0.5 = 1.Проверка по ряду распределения:
Сначала найдем M(X2):
M(X2) = Σi xi2 · pi = 02 · 0.0625 + 12 · 0.25 + 22 · 0.375 + 32 · 0.25 + 42 · 0.0625
M(X2) = 0 + 1 · 0.25 + 4 · 0.375 + 9 · 0.25 + 16 · 0.0625
M(X2) = 0.25 + 1.5 + 2.25 + 1 = 5.
Теперь дисперсия: D(X) = M(X2) — [M(X)]2 = 5 — (2)2 = 5 — 4 = 1.
Результаты совпадают.
Ответ:
Математическое ожидание M(X) = 2.
Дисперсия D(X) = 1.
Раздел IV. Непрерывные случайные величины (НСВ) и их характеристики (Задача 7)
Если дискретные случайные величины оперируют с отдельными, «счетными» значениями, то мир непрерывных случайных величин (НСВ) бесконечно более плотен. Они могут принимать любое значение из определенного интервала. Представьте время ожидания автобуса, рост человека или температуру воздуха – все это примеры НСВ. Для их описания требуются другие, более сложные математические инструменты, такие как функция распределения и плотность вероятности, которые мы подробно рассмотрим в этом разделе.
Алгоритм построения плотности распределения f(x)
Центральным понятием для НСВ является функция распределения (интегральная функция) F(x). Она определяет вероятность того, что случайная величина X примет значение, меньшее, чем аргумент x: F(x) = P(X < x).
Свойства F(x):
- F(x) — неубывающая функция.
- limx→-∞ F(x) = 0.
- limx→+∞ F(x) = 1.
В отличие от ДСВ, для НСВ вероятность того, что X примет точно заданное значение, равна нулю (P(X = x) = 0). Поэтому для описания вероятностных свойств НСВ используется плотность распределения вероятностей (дифференциальная функция) f(x).
Определение: Плотность распределения вероятностей f(x) — это первая производная от функции распределения непрерывной случайной величины: f(x) = F'(x).
Свойства f(x):
- f(x) ≥ 0 для всех x.
- Интеграл от f(x) по всей числовой оси равен 1: ∫-∞+∞ f(x) dx = 1.
Задача 7: Нахождение плотности распределения
Дана функция распределения непрерывной случайной величины X:
F(x) =
Найти плотность распределения f(x).
Решение:
Плотность распределения f(x) находится как производная от функции распределения F(x) по x: f(x) = F'(x).
- Для x ≤ 0: F(x) = 0.
f(x) = F'(x) = d/dx (0) = 0. - Для 0 < x ≤ 3: F(x) = x2/9.
f(x) = F'(x) = d/dx (x2/9) = (1/9) · d/dx (x2) = (1/9) · 2x = 2x/9. - Для x > 3: F(x) = 1.
f(x) = F'(x) = d/dx (1) = 0.
Собирая полученные результаты, получаем плотность распределения f(x):
f(x) =
Графическая интерпретация:
Функция F(x) представляет собой параболу, начинающуюся от 0 при x = 0 и достигающую 1 при x = 3, после чего остается равной 1.
Плотность f(x) представляет собой линейную функцию, начинающуюся от 0 при x = 0 и линейно возрастающую до 2 · 3 / 9 = 6 / 9 = 2/3 при x = 3, а затем снова обнуляющуюся. Это треугольник, что подтверждает, что площадь под графиком f(x) равна (1/2) · основание · высота = (1/2) · 3 · (2/3) = 1.
Вычисление математического ожидания и дисперсии НСВ
Как и для дискретных величин, для НСВ определяются математическое ожидание и дисперсия, но уже через интегралы.
- Математическое ожидание (M(X)) непрерывной СВ:
M(X) = ∫-∞+∞ x · f(x) dx.
Это среднее значение, к которому стремится СВ при бесконечном числе наблюдений. - Дисперсия (D(X)) непрерывной СВ:
D(X) = M(X2) — [M(X)]2,
где M(X2) = ∫-∞+∞ x2 · f(x) dx.
Дисперсия по-прежнему характеризует разброс значений СВ вокруг математического ожидания.
Задача 7 (продолжение): Вычисление M(X) и D(X)
Используя найденную плотность распределения f(x), вычислить математическое ожидание M(X) и дисперсию D(X) случайной величины X.
Решение:
Плотность распределения
f(x) =
M(X) = ∫-∞+∞ x · f(x) dx = ∫03 x · (2x/9) dx
M(X) = (2/9) ∫03 x2 dx
M(X) = (2/9) · [x3/3]03
M(X) = (2/9) · (33/3 — 03/3) = (2/9) · (27/3) = (2/9) · 9 = 2.
Сначала найдем M(X2):
M(X2) = ∫-∞+∞ x2 · f(x) dx = ∫03 x2 · (2x/9) dx
M(X2) = (2/9) ∫03 x3 dx
M(X2) = (2/9) · [x4/4]03
M(X2) = (2/9) · (34/4 — 04/4) = (2/9) · (81/4) = 81 / (9 · 2) = 9/2 = 4.5.
Теперь вычислим дисперсию:
D(X) = M(X2) — [M(X)]2 = 4.5 — (2)2 = 4.5 — 4 = 0.5.
Ответ:
Математическое ожидание M(X) = 2.
Дисперсия D(X) = 0.5.
Вероятность попадания НСВ в заданный интервал
Одна из ключевых задач при работе с НСВ — определение вероятности того, что случайная величина примет значение из определенного интервала. Это можно сделать двумя эквивалентными способами.
Определение: Вероятность попадания непрерывной случайной величины X в интервал (a, b) может быть вычислена как:
P(a < X < b) = F(b) — F(a)
или
P(a < X < b) = ∫ab f(x) dx.
Эти две формулы взаимозаменяемы, поскольку F(x) является первообразной для f(x). Выбор метода зависит от того, что дано изначально (F(x) или f(x)) и что удобнее использовать.
Задача 7 (продолжение): Вероятность попадания в интервал
Используя найденные F(x) и f(x), найти вероятность того, что случайная величина X примет значение из интервала (1, 2).
Решение:
Нам нужно найти P(1 < X < 2).
Способ 1: Использование функции распределения F(x)
P(1 < X < 2) = F(2) — F(1).
Из заданной F(x): F(x) = x2/9 для 0 < x ≤ 3.
F(2) = 22/9 = 4/9.
F(1) = 12/9 = 1/9.
P(1 < X < 2) = 4/9 — 1/9 = 3/9 = 1/3.
Способ 2: Использование плотности распределения f(x)
P(1 < X < 2) = ∫12 f(x) dx.
Из найденной f(x): f(x) = 2x/9 для 0 < x ≤ 3.
P(1 < X < 2) = ∫12 (2x/9) dx
P(1 < X < 2) = (2/9) ∫12 x dx
P(1 < X < 2) = (2/9) · [x2/2]12
P(1 < X < 2) = (2/9) · ((22/2) — (12/2))
P(1 < X < 2) = (2/9) · (4/2 — 1/2) = (2/9) · (3/2) = 3/9 = 1/3.
Оба способа дают одинаковый результат, подтверждая корректность вычислений.
Ответ: Вероятность того, что случайная величина X примет значение из интервала (1, 2), составляет 1/3.
Раздел V. Элементы математической статистики: Обработка выборки и несмещенные оценки (Критическая «Слепая Зона»)
Переходя от теории вероятностей к математической статистике, мы смещаем фокус с идеализированных моделей на реальные данные. В статистике мы работаем с выборками — ограниченными наборами наблюдений, сделанными из более крупной генеральной совокупности. Цель состоит в том, чтобы, анализируя эти выборки, делать обоснованные выводы о свойствах всей генеральной совокупности. Этот раздел посвящен фундаментальным методам обработки выборочных данных и, что особенно важно, корректному расчету несмещенных оценок параметров, которые являются более надежными для экстраполяции на всю генеральную совокупность. Именно здесь кроются многие «слепые зоны» в стандартных решениях, которые мы детально раскроем.
Построение статистического распределения выборки и графические представления
Первый шаг в анализе выборки — это ее упорядочивание и представление в удобной форме, что достигается построением статистического распределения выборки, которое показывает, какие значения принимал признак и как часто они встречались.
Статистическое распределение выборки (Ряд частот): Это перечень значений признака (вариант xi) и соответствующих им частот (mi — сколько раз встретилось значение) или относительных частот (wi = mi/n — доля встречаемости), где n — общий объем выборки.
Для наглядного представления данных используются графические методы:
- Полигон частот: Применяется для дискретного вариационного ряда. Это ломаная линия, соединяющая точки (xi, mi), где xi — варианта, а mi — соответствующая ей частота. Он позволяет быстро оценить форму распределения данных.
- Гистограмма частот: Применяется для интервального вариационного ряда, когда данные сгруппированы в интервалы. Над каждым интервалом строится прямоугольник. Критически важно: высота прямоугольника в гистограмме должна быть пропорциональна плотности частоты (mi/hi), где mi — частота, hi — длина интервала. Это гарантирует, что площадь прямоугольника пропорциональна (или равна, если нормирована) частоте попадания значений в данный интервал. Если бы высота была просто mi, то при разных длинах интервалов гистограмма была бы некорректна, искажая картину распределения.
Задача 6: Построение статистического распределения и графиков
Дана выборка значений некоторого признака X:
5.1, 5.3, 5.0, 5.2, 5.1, 5.4, 5.2, 5.3, 5.1, 5.0, 5.2, 5.3, 5.1, 5.0, 5.2, 5.3, 5.1, 5.0, 5.2, 5.3
Решение:
- Построение вариационного ряда (упорядоченной последовательности):
5.0, 5.0, 5.0, 5.0, 5.1, 5.1, 5.1, 5.1, 5.1, 5.2, 5.2, 5.2, 5.2, 5.2, 5.3, 5.3, 5.3, 5.3, 5.3, 5.4
Объем выборки n = 20. - Построение статистического распределения выборки (ряда частот):
Определим уникальные значения (варианты xi) и подсчитаем их частоты (mi) и относительные частоты (wi).
xi (варианта) | mi (частота) | wi = mi/n (относительная частота) |
---|---|---|
5.0 | 4 | 4/20 = 0.2 |
5.1 | 5 | 5/20 = 0.25 |
5.2 | 5 | 5/20 = 0.25 |
5.3 | 5 | 5/20 = 0.25 |
5.4 | 1 | 1/20 = 0.05 |
Сумма | n = 20 | Σwi = 1.00 |
- Построение Полигона частот:
Поскольку это дискретный вариационный ряд, для наглядности построим полигон частот. На горизонтальной оси откладываем значения xi, на вертикальной — mi. Точки (5.0, 4), (5.1, 5), (5.2, 5), (5.3, 5), (5.4, 1) соединяем отрезками.
5 | *-----*-----*
| / \
4 *-----* \
| \
3 | \
| \
2 | \
| \
1 +-------------------------------*
|
0 +-------------------------------------
5.0 5.1 5.2 5.3 5.4 x
Примечание: Если бы данные были представлены интервальным рядом (например, 0-10, 10-20 и т.д.), мы бы построили гистограмму. Для дискретного ряда, как в нашем случае, полигон частот является более подходящим графическим представлением. В гистограмме, если бы интервалы были, например, (4.95; 5.05), (5.05; 5.15) и т.д. (с длиной интервала hi = 0.1), то высота прямоугольника для 5.0 была бы 4/0.1 = 40, для 5.1 — 5/0.1 = 50 и т.д., что и представляло бы плотность частоты.
Расчет выборочной средней и несмещенных оценок дисперсии
Для обобщения информации о генеральной совокупности по выборке используются выборочные характеристики, которые служат оценками для истинных (генеральных) параметров.
- Выборочная средняя (¯xв): Это арифметическое среднее всех значений в выборке. Она является оценкой генеральной средней (математического ожидания) M(X).
Формула для сгруппированных данных: ¯xв = (1/n) · Σki=1 xi · mi, где k — число уникальных вариант.
Важное замечание: Выборочная средняя ¯xв является несмещенной оценкой генеральной средней M(X). Это означает, что математическое ожидание выборочной средней равно истинной генеральной средней (M(¯xв) = M(X)). Это очень ценное свойство, делающее ¯xв надежной оценкой. - Выборочная дисперсия (смещенная оценка, Dв): Это среднее арифметическое квадратов отклонений вариант от выборочной средней.
Формула для сгруппированных данных: Dв = (1/n) · Σki=1 mi · (xi — ¯xв)2.
Критический момент: Выборочная дисперсия Dв, рассчитанная по этой формуле, является смещенной оценкой генеральной дисперсии. Это означает, что ее математическое ожидание систематически недооценивает истинную генеральную дисперсию (M(Dв) < D(X)). Величина смещения тем больше, чем меньше объем выборки n. - Несмещенная оценка генеральной дисперсии (Исправленная выборочная дисперсия, s2): Для устранения смещения выборочной дисперсии используется корректирующий множитель.
Формула: s2 = (n / (n — 1)) · Dв.
Подробное объяснение: Коррекция на (n — 1) вместо n в знаменателе связана с тем, что при расчете Dв мы уже используем выборочную среднюю ¯xв, которая сама является оценкой, полученной из тех же данных. Это приводит к потере одной «степени свободы». Для оценки дисперсии «независимых» отклонений остается не n, а (n — 1). Использование (n — 1) в знаменателе делает оценку s2 несмещенной, т.е. M(s2) = D(X). Это принципиально важно для корректных статистических выводов, особенно при малых объемах выборки.
Задача 6 (продолжение): Расчет выборочной средней и несмещенных оценок дисперсии
Используя данные из предыдущего пункта, рассчитать выборочную среднюю, смещенную и несмещенную оценки генеральной дисперсии.
Решение:
Исходные данные:
xi | mi |
---|---|
5.0 | 4 |
5.1 | 5 |
5.2 | 5 |
5.3 | 5 |
5.4 | 1 |
n = 20 |
- Расчет выборочной средней (¯xв):
¯xв = (1/n) · Σ xi · mi
¯xв = (1/20) · (5.0·4 + 5.1·5 + 5.2·5 + 5.3·5 + 5.4·1)
¯xв = (1/20) · (20.0 + 25.5 + 26.0 + 26.5 + 5.4)
¯xв = (1/20) · 103.4 = 5.17.
Вывод: Выборочная средняя ¯xв = 5.17 является несмещенной оценкой генеральной средней. - Расчет смещенной выборочной дисперсии (Dв):
Для удобства вычислений создадим промежуточную таблицу:
xi | mi | xi — ¯xв | (xi — ¯xв)2 | mi · (xi — ¯xв)2 |
---|---|---|---|---|
5.0 | 4 | 5.0 — 5.17 = -0.17 | (-0.17)2 = 0.0289 | 4 · 0.0289 = 0.1156 |
5.1 | 5 | 5.1 — 5.17 = -0.07 | (-0.07)2 = 0.0049 | 5 · 0.0049 = 0.0245 |
5.2 | 5 | 5.2 — 5.17 = 0.03 | (0.03)2 = 0.0009 | 5 · 0.0009 = 0.0045 |
5.3 | 5 | 5.3 — 5.17 = 0.13 | (0.13)2 = 0.0169 | 5 · 0.0169 = 0.0845 |
5.4 | 1 | 5.4 — 5.17 = 0.23 | (0.23)2 = 0.0529 | 1 · 0.0529 = 0.0529 |
Сумма | 20 | 0.282 |
Dв = (1/n) · Σ mi · (xi — ¯xв)2 = (1/20) · 0.282 = 0.0141.
Вывод: Смещенная выборочная дисперсия Dв = 0.0141.
- Расчет несмещенной оценки генеральной дисперсии (s2):
Используем формулу s2 = (n / (n — 1)) · Dв.
s2 = (20 / (20 — 1)) · 0.0141 = (20 / 19) · 0.0141 ≈ 1.0526 · 0.0141 ≈ 0.01484.
Пояснение: Применение множителя n/(n-1) (в данном случае 20/19 ≈ 1.0526) компенсирует систематическое занижение дисперсии, которое происходит при использовании n в знаменателе, так как выборочная средняя ¯xв уже «подгоняет» данные под себя, уменьшая сумму квадратов отклонений.
Ответ:
Выборочная средняя ¯xв = 5.17.
Смещенная выборочная дисперсия Dв = 0.0141.
Несмещенная оценка генеральной дисперсии s2 ≈ 0.01484.
Заключение и библиография
На протяжении этой работы мы прошли путь от абстрактных определений случайных событий до практической обработки выборочных данных, последовательно решая задачи по Теории вероятностей и Математической статистике. Каждая задача была не просто упражнением в вычислениях, а возможностью глубже понять фундаментальные принципы, лежащие в основе этих дисциплин. Мы убедились в значимости строгого определения событий, освоили тонкости комбинаторных подсчетов, научились применять теоремы сложения и умножения, а также элегантно использовать геометрический подход к вероятности. Мы детально рассмотрели дискретные и непрерывные случайные величины, построение их законов распределения и расчет ключевых числовых характеристик, таких как математическое ожидание и дисперсия.
Особое внимание было уделено критически важным аспектам математической статистики, которые часто упускаются в упрощенных решениях. Мы не только построили статистические распределения и их графические представления, но и акцентировали внимание на принципиальной разнице между смещенной и несмещенной оценками генеральной дисперсии, подчеркнув, почему использование несмещенных оценок (с делением на n-1) является залогом академической корректности и точности статистических выводов. Это позволяет исследователям делать выводы, которые с гораздо большей вероятностью будут справедливы для всей генеральной совокупности, а не только для конкретной выборки.
Данное руководство полностью соответствует академическим стандартам, обеспечивая не только правильные ответы, но и всестороннее, пошаговое обоснование каждого этапа решения с явными ссылками на теоретические основы. Глубокое понимание этих принципов открывает двери к более сложным статистическим моделям, регрессионному анализу, проверке гипотез и многим другим методам, которые являются незаменимыми инструментами в современном мире данных. Применение полученных знаний охватывает широкий спектр областей — от инженерии и экономики до медицины и социальных наук, позволяя принимать обоснованные решения в условиях неопределенности.
Библиография
- Гмурман В.Е. Теория вероятностей и математическая статистика. 11-е изд. — М.: Высшее образование, 2007. (Или более позднее издание).
- Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. 11-е изд. — М.: Высшее образование, 2007. (Или более позднее издание).
- Вентцель Е.С. Теория вероятностей. 10-е изд., стер. — М.: КноРус, 2021.
- Вентцель Е.С. Задачи и упражнения по теории вероятностей. — М.: Высшая школа, 2000.
- Кремер Н.Ш. Теория вероятностей и математическая статистика. 4-е изд., перераб. и доп. — М.: Юнити-Дана, 2017.
- В. И. Ерошевская, Е. Л. Ерошевская, Л. П. Минченкова. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА: Методическое пособие. — Минск: БНТУ, 2011.
Список использованной литературы
- Гмурман В. Е. Руководство к решению задач по теории вероятностей и математической статистике: учеб. пособие для студентов вузов. М.: Высшая школа, 2003.
- Гмурман В.Е. Теория вероятностей и математическая статистика: учеб. пособие для вузов. М.: Высшая школа, 2001.
- Калинина В.Н., Панкин В.Ф. Математическая статистика: учеб. для студ. М.: Дрофа, 2002.
- В. И. Ерошевская, Е. Л. Ерошевская, Л. П. Минченкова, МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Методическое пособие. bntu.by.
- Гмурман В. Е. Теория вероятностей и математическая статистика. urait.ru.
- Гмурман В. Е. Теория вероятностей и Математическая статистика. xn--e1ajqk.kiev.ua, 2003.
- Геометрическая вероятность. yaklass.ru.
- Геометрическое определение вероятности, теория и примеры решений. Онлайн учебник по теории вероятностей. matburo.ru.
- Геометрическое определение вероятности. Задачи с решениями. mathprofi.ru.
- Как вычислить математическое ожидание и дисперсию непрерывной случайной величины? mathprofi.ru.
- Комбинаторика: основные правила и формулы. ya-znau.ru.
- Модуль 1. Тема 4. Геометрические вероятности. dgu.ru.
- Найти плотность распределения вероятностей) (x f , математическое ожидание ) (XM и дисперсию) (XD случайной величины X — примеры, решения. feniks.help.
- Непрерывная случайная величина. donstu.ru.
- Непрерывные случайные величины. swsu.ru.
- Основные формулы комбинаторики. nsu.ru.
- Понятие схемы Бернулли. Формула Бернулли. studfile.net.
- Построить гистограмму частот. Найти несмещенные оценки генеральной средней и генеральной дисперсии. moscow-stud.com.
- Ряд распределения по схеме Бернулли онлайн. semestr.ru.
- Сложение и умножение вероятностей, примеры решений и теория. Онлайн учебник по теории вероятностей. matburo.ru.
- Статистическое распределение выборки. Полигон частот и гистограмма частот. studfile.net.
- Теоремы сложения и умножения вероятностей. Примеры решения задач. matem96.ru.
- Теоремы сложения и умножения вероятностей. Условная вероятность. Независимость событий. studfile.net.
- Теория вероятностей. ysn.ru (Гмурман В.Е. Учебное пособие).
- Формулы комбинаторики с примерами. Основные формулы комбинаторики: сочетания, размещения, перестановки. matburo.ru.
- Элементы комбинаторики и теории вероятностей 1. Понятие комбинаторно. sgpi.ru.