Подробное академическое руководство по решению контрольной работы по Теории Вероятностей и Математической Статистике (15 задач)

Добро пожаловать в исчерпывающее руководство, созданное для того, чтобы не просто дать ответы, но и раскрыть глубину логики, стоящей за каждой задачей по теории вероятностей и математической статистике. Наша цель — предложить студентам технических, экономических и гуманитарных вузов, сталкивающимся с количественными методами, не просто «решебник», а полноценное, академически строгое и пошаговое Руководство по решению. Мы стремимся продемонстрировать, как превратить сложные математические концепции в понятные и применимые алгоритмы, соблюдая при этом принципы классических учебников и современных научных подходов.

Настоящее руководство охватывает широкий спектр тем, от основ комбинаторики и условной вероятности до продвинутых разделов, таких как анализ цепей Маркова и применение критерия согласия Пирсона. Структура работы логически делится на четыре основных раздела, каждый из которых посвящен определенной области дисциплины и включает детальное решение конкретных типов задач. Каждое решение сопровождается не только формулами и численными расчетами, но и подробным обоснованием выбора метода, что позволит не только выполнить контрольную работу, но и глубоко понять материал. Мы убеждены, что такой подход не только обеспечит успех в текущей работе, но и заложит прочный фундамент для дальнейшего изучения стохастических процессов и их применения в реальном мире, давая вам конкурентное преимущество при решении реальных кейсов.

Раздел I. Основы Классической и Условной Вероятности (Задачи 1-5)

Первые шаги в мире вероятности часто начинаются с подсчета возможных исходов. Здесь, словно архитектор, мы будем возводить здание логики, используя кирпичики комбинаторики, а затем, словно детектив, раскрывать тайны условных событий с помощью формул полной вероятности и Байеса. Наша задача — не просто выбрать формулу, а глубоко понять, почему именно она подходит для конкретной ситуации, и как она раскрывает скрытые взаимосвязи между событиями. Это позволяет перейти от механического применения к осознанному моделированию.

Комбинаторика: Сочетания, Размещения и Перестановки

В основе многих вероятностных расчетов лежит комбинаторика — искусство подсчета различных конфигураций элементов. Выбор между сочетаниями (Cnk) и размещениями (Ank) определяется одним ключевым вопросом: важен ли порядок элементов в выборке? Если да — мы обращаемся к размещениям; если нет — к сочетаниям.

Определение и Формулы:

  • Сочетания (Combinations): Это количество способов выбрать k элементов из n без учета порядка. Формула:
    Cnk = n! / [k! (n-k)!]
    Пример: Из 10 студентов нужно выбрать 3 для участия в конференции. Порядок их выбора не важен. Используем сочетания.
  • Размещения без повторений (Arrangements/Permutations): Это количество способов выбрать и упорядочить k элементов из n, где порядок имеет значение. Формула:
    Ank = n! / (n-k)!
    Пример: Из 10 студентов нужно выбрать 3, но для каждой позиции (докладчик, ведущий, ассистент) важен конкретный человек. Используем размещения.

Понимание этой разницы критически важно. Например, если задача касается выбора лотерейных билетов, где порядок чисел не важен, мы используем сочетания. Если же речь идет о распределении призовых мест в забеге, где каждый финишировавший занимает определенную позицию, то это размещения. Осознанный выбор формулы обеспечивает точность и релевантность решения, что принципиально отличает корректный статистический анализ от случайного подбора методов.

Пример применения:
Предположим, в урне 10 шаров: 6 белых и 4 черных. Нам нужно извлечь 3 шара.

  1. Сколько всего способов извлечь 3 шара? Порядок не важен, поэтому это сочетания:
    C103 = 10! / [3! (10-3)!] = 10! / (3! 7!) = (10 · 9 · 8) / (3 · 2 · 1) = 120 способов.
  2. Сколько способов извлечь 2 белых и 1 черный шар?
    Количество способов выбрать 2 белых из 6: C62 = 6! / [2! (6-2)!] = (6 · 5) / (2 · 1) = 15.
    Количество способов выбрать 1 черный из 4: C41 = 4! / [1! (4-1)!] = 4 / 1 = 4.
    Общее количество благоприятных исходов: 15 · 4 = 60 способов.
  3. Вероятность извлечь 2 белых и 1 черный шар:
    P(2 белых, 1 черный) = (Благоприятные исходы) / (Всего исходов) = 60 / 120 = 0.5.

Этот пример наглядно демонстрирует, как правильный выбор комбинаторной формулы становится первым шагом к вычислению вероятности сложных событий. Это знание позволяет не просто механически считать, но и осмысленно подходить к решению задач в условиях неопределенности, например, при анализе рисков в проектах или оценке шансов успеха в стратегических играх.

Формула полной вероятности и Формула Байеса

Когда события неразрывно связаны с определенными условиями или «гипотезами», на помощь приходят формулы полной вероятности и Байеса. Они позволяют нам не только предсказать вероятность исхода, но и «пересмотреть» наши предположения после того, как произошло какое-либо событие. Это особенно ценно в процессах принятия решений, где новая информация может кардинально изменить оценку вероятностей.

1. Условная вероятность:
Вероятность события A при условии, что произошло событие B, обозначается P(A|B) и определяется формулой:
P(A|B) = P(A ∩ B) / P(B), где P(B) > 0.
Это фундаментальное понятие для понимания, как информация о произошедшем событии влияет на вероятность другого.

2. Формула полной вероятности:
Представьте ситуацию, когда событие A может произойти в результате нескольких различных «сценариев» или «гипотез» (H1, H2, …, Hn), которые являются несовместными и образуют полную группу. Тогда вероятность P(A) — это сумма вероятностей каждого сценария, умноженных на условную вероятность A при данном сценарии:
P(A) = Σni=1 P(Hi) P(A|Hi)

Алгоритм применения:

  1. Определение гипотез: Четко сформулировать полную группу несовместных гипотез (сценариев), которые могут привести к событию A.
  2. Расчет априорных вероятностей гипотез: Определить P(Hi) — вероятность каждой гипотезы до того, как событие A произошло.
  3. Расчет условных вероятностей: Определить P(A|Hi) — вероятность события A при условии, что каждая гипотеза Hi истинна.
  4. Применение формулы: Подставить все значения в формулу полной вероятности.

3. Формула Байеса (переоценка вероятностей):
Формула Байеса — это мощный инструмент для «обратного» вывода. Если мы знаем, что событие A уже произошло, как это изменит наши убеждения относительно истинности каждой гипотезы Hk? Формула Байеса позволяет переоценить априорную вероятность гипотезы Hk, давая нам апостериорную вероятность P(Hk|A):
P(Hk|A) = [P(Hk) P(A|Hk)] / P(A)
Знаменатель P(A) обычно вычисляется по формуле полной вероятности, что связывает эти два мощных инструмента. Это позволяет не просто предсказывать, но и корректировать прогнозы на основе новых данных, что незаменимо в медицине (диагностика заболеваний), инженерии (поиск неисправностей) и анализе данных.

Демонстрация алгоритма:
Представим, что у нас есть три завода, производящих одинаковые детали. Завод 1 производит 50% всех деталей, Завод 2 — 30%, Завод 3 — 20%. Известно, что доля брака на Заводе 1 составляет 2%, на Заводе 2 — 3%, на Заводе 3 — 5%.
Задача: Найти вероятность того, что случайно выбранная деталь окажется бракованной (событие A). Если деталь оказалась бракованной, какова вероятность, что она произведена на Заводе 2 (P(H2|A))?

Решение:

  1. Определяем гипотезы:
    H1: Деталь произведена на Заводе 1. P(H1) = 0.5.
    H2: Деталь произведена на Заводе 2. P(H2) = 0.3.
    H3: Деталь произведена на Заводе 3. P(H3) = 0.2.
    (Сумма P(Hi) = 0.5 + 0.3 + 0.2 = 1, что подтверждает полную группу гипотез).
  2. Определяем условные вероятности брака (событие A):
    P(A|H1) = 0.02 (брак на Заводе 1).
    P(A|H2) = 0.03 (брак на Заводе 2).
    P(A|H3) = 0.05 (брак на Заводе 3).
  3. Применяем формулу полной вероятности для P(A):
    P(A) = P(H1)P(A|H1) + P(H2)P(A|H2) + P(H3)P(A|H3)
    P(A) = (0.5 · 0.02) + (0.3 · 0.03) + (0.2 · 0.05)
    P(A) = 0.01 + 0.009 + 0.01 = 0.029
    Итак, вероятность того, что случайно выбранная деталь окажется бракованной, составляет 2.9%.
  4. Применяем формулу Байеса для P(H2|A):
    Теперь, зная, что деталь бракованная, мы хотим переоценить вероятность того, что она произведена на Заводе 2.
    P(H2|A) = [P(H2) P(A|H2)] / P(A)
    P(H2|A) = (0.3 · 0.03) / 0.029 = 0.009 / 0.029 ≈ 0.3103
    После того, как мы узнали, что деталь бракованная, вероятность того, что она произведена на Заводе 2, увеличилась с 30% до примерно 31.03%. Это демонстрирует, как формула Байеса позволяет уточнять наши знания о причинах событий, что является фундаментом для построения эффективных систем контроля качества и минимизации рисков.

Раздел II. Числовые Характеристики Случайных Величин (Задачи 6-9)

Переходя от подсчета событий к анализу случайных величин, мы погружаемся в мир, где числа не просто описывают количество, но и передают информацию о распределении, центральной тенденции и разбросе данных. Математическое ожидание, дисперсия и функция распределения становятся нашими ключевыми инструментами для «вскрытия» природы случайных явлений. Это позволяет количественно оценить неопределенность и принимать обоснованные решения, например, при расчете финансовых рисков или планировании экспериментов.

Расчет характеристик для Дискретной Случайной Величины

Дискретные случайные величины (ДСВ) принимают конечное или счетное множество значений, каждое из которых имеет определенную вероятность. Их анализ — это своего рода «анатомия» распределения вероятностей.

Математическое ожидание M(X):
Это среднее значение, которое случайная величина примет в долгосрочной перспективе. Для ДСВ оно рассчитывается как сумма произведений каждого возможного значения на его вероятность:
M(X) = Σk xk pk
где xk — k-е значение случайной величины, pk — вероятность этого значения. Это ключевой показатель, отражающий «центр тяжести» распределения.

Дисперсия D(X):
Дисперсия измеряет степень разброса значений случайной величины вокруг ее математического ожидания. Чем больше дисперсия, тем шире «размазаны» значения. Формула определения:
D(X) = M[(X-M(X))2]
Для практических расчетов удобнее использовать альтернативную формулу:
D(X) = M(X2) — [M(X)]2
Для этого сначала нужно найти M(X2), которое рассчитывается аналогично M(X), но для квадратов значений: M(X2) = Σk xk2 pk.
Высокая дисперсия указывает на большую неопределенность и потенциально более высокие риски.

Среднее квадратическое отклонение σ(X):
Это квадратный корень из дисперсии. Оно имеет ту же размерность, что и сама случайная величина, что делает его более интуитивно понятным для оценки разброса:
σ(X) = √D(X)
Этот показатель часто используется в инженерных расчетах и контроле качества, так как его значения напрямую сопоставимы с исходными данными.

Функция распределения (интегральная) F(x):
Функция распределения F(x) показывает вероятность того, что случайная величина X примет значение, меньшее заданного x.
F(x) = P(X < x)
Для дискретной случайной величины функция F(x) является ступенчатой функцией, которая увеличивается только в точках, где X принимает свои значения. Её график позволяет быстро оценить кумулятивную вероятность достижения определённого порога.

Пример: Пусть ДСВ X задана рядом распределения:

X 1 2 3
P 0.2 0.5 0.3
  1. Математическое ожидание M(X):
    M(X) = (1 · 0.2) + (2 · 0.5) + (3 · 0.3) = 0.2 + 1.0 + 0.9 = 2.1
  2. Математическое ожидание квадрата M(X2):
    M(X2) = (12 · 0.2) + (22 · 0.5) + (32 · 0.3) = (1 · 0.2) + (4 · 0.5) + (9 · 0.3) = 0.2 + 2.0 + 2.7 = 4.9
  3. Дисперсия D(X):
    D(X) = M(X2) — [M(X)]2 = 4.9 — (2.1)2 = 4.9 — 4.41 = 0.49
  4. Среднее квадратическое отклонение σ(X):
    σ(X) = √0.49 = 0.7
  5. Построение графика функции распределения F(x):
    F(x) = 0, при x ≤ 1
    F(x) = P(X < 1) + P(X=1) = 0 + 0.2 = 0.2, при 1 < x ≤ 2
    F(x) = P(X < 2) + P(X=2) = 0.2 + 0.5 = 0.7, при 2 < x ≤ 3
    F(x) = P(X < 3) + P(X=3) = 0.7 + 0.3 = 1, при x > 3
    Таким образом, F(x) принимает значения 0, 0.2, 0.7, 1, формируя ступенчатый график, где «прыжки» происходят в точках 1, 2, 3. Это позволяет визуализировать вероятность попадания случайной величины в тот или иной диапазон, что крайне полезно, например, при анализе результатов голосований или дискретных измерений.

Расчет характеристик для Непрерывной Случайной Величины

Непрерывные случайные величины (НСВ) могут принимать любые значения из определенного интервала. Вместо ряда распределения, их поведение описывается плотностью распределения вероятностей f(x). Здесь на помощь приходят интегралы.

Плотность распределения f(x):
Это функция, удовлетворяющая двум условиям:

  1. f(x) ≥ 0 для всех x.
  2. -∞ f(x) dx = 1.
    Вероятность того, что НСВ X попадет в интервал [a, b], определяется как ba f(x) dx.
    Понимание плотности позволяет оценить, в каких диапазонах значений случайная величина встречается чаще всего.

Математическое ожидание M(X):
Для НСВ математическое ожидание определяется несобственным интегралом:
M(X) = ∫-∞ x f(x) dx, при условии его сходимости.

Дисперсия D(X):
Аналогично ДСВ, дисперсия для НСВ также может быть вычислена по формуле:
D(X) = M(X2) — [M(X)]2
где M(X2) = ∫-∞ x2 f(x) dx.

Среднее квадратическое отклонение σ(X):
σ(X) = √D(X)

Функция распределения (интегральная) F(x):
Для НСВ функция распределения находится интегрированием плотности распределения:
F(x) = ∫x-∞ f(t) dt
Свойства F(x):

  • 0 ≤ F(x) ≤ 1.
  • F(x) является неубывающей функцией.
  • limx → -∞ F(x) = 0, limx → ∞ F(x) = 1.
  • f(x) = F'(x) (если f(x) непрерывна).

Пример: Пусть НСВ X задана плотностью распределения f(x) = 2x для x ∈ [0, 1] и f(x) = 0 вне этого интервала.

  1. Математическое ожидание M(X):
    M(X) = ∫10 x · (2x) dx = ∫10 2x2 dx = [2x3/3]10 = (2 · 13/3) — (2 · 03/3) = 2/3
  2. Математическое ожидание квадрата M(X2):
    M(X2) = ∫10 x2 · (2x) dx = ∫10 2x3 dx = [2x4/4]10 = [x4/2]10 = (14/2) — (04/2) = 1/2
  3. Дисперсия D(X):
    D(X) = M(X2) — [M(X)]2 = 1/2 — (2/3)2 = 1/2 — 4/9 = 9/18 — 8/18 = 1/18
  4. Среднее квадратическое отклонение σ(X):
    σ(X) = √(1/18) = 1 / (3√2) ≈ 0.2357
  5. Функция распределения F(x):
    Для x ≤ 0, F(x) = 0.
    Для x ∈ (0, 1], F(x) = ∫x0 2t dt = [t2]x0 = x2.
    Для x > 1, F(x) = ∫10 2t dt = 1.
    Таким образом,
    F(x) = { 0, если x ≤ 0
    { x2, если 0 < x ≤ 1
    { 1, если x > 1

    Эти расчеты показывают, как интегральное исчисление применяется для описания непрерывных случайных явлений, например, времени ожидания в очереди или продолжительности жизни электронных компонентов.

Свойства математического ожидания и дисперсии

Понимание свойств математического ожидания и дисперсии позволяет значительно упростить расчеты при линейных преобразованиях случайных величин, а также при работе с их суммами. Это не просто теоретические правила, а мощные инструменты для эффективного анализа сложных систем.

Свойство линейности математического ожидания:
Это одно из самых элегантных свойств. Оно гласит, что математическое ожидание линейной комбинации случайных величин равно линейной комбинации их математических ожиданий. Для любых случайных величин X, Y и неслучайных констант a, b справедливо:
M(aX + bY) = aM(X) + bM(Y)
В частном случае, если Y — это константа (например, Y=1, b=c), то:
M(aX + c) = aM(X) + c
Это означает, что умножение случайной величины на константу a умножает ее математическое ожидание на a, а прибавление константы b смещает математическое ожидание на b. Практическая ценность этого свойства заключается в возможности легко предсказывать среднее значение агрегированных показателей, таких как общая прибыль, состоящая из нескольких случайных источников дохода.

Свойство дисперсии для линейного преобразования:
В отличие от математического ожидания, дисперсия менее чувствительна к сдвигам, но очень чувствительна к масштабированию. Для случайной величины X и неслучайных констант a, b справедливо:
D(aX + b) = a2D(X)
Поскольку дисперсия константы D(b) равна нулю (константа не имеет разброса), добавление константы не изменяет дисперсию. Однако умножение на константу ‘a’ приводит к умножению дисперсии на ‘a2‘. Это логично, ведь разброс значений увеличивается в квадрат раз по сравнению с изменением масштаба. Это свойство является фундаментом для оценки рисков инвестиционных портфелей, где важен не только ожидаемый доход, но и его волатильность.

Пример применения свойств:
Пусть случайная величина X имеет M(X) = 5 и D(X) = 4.
Найти M(2X + 3) и D(2X + 3).

  1. M(2X + 3): Используя свойство линейности M(aX + b) = aM(X) + b:
    M(2X + 3) = 2M(X) + 3 = 2 · 5 + 3 = 10 + 3 = 13.
  2. D(2X + 3): Используя свойство D(aX + b) = a2D(X):
    D(2X + 3) = 22D(X) = 4 · 4 = 16.

Эти свойства незаменимы при анализе сложных систем, где выходная величина является функцией нескольких случайных входов. Они позволяют быстро оценивать ожидаемые значения и риски без необходимости пересчитывать все распределение с нуля, что значительно ускоряет и упрощает моделирование.

Раздел III. Математическая Статистика: Описательный анализ и Проверка Гипотез (Задачи 10-12)

Переходя от теоретических моделей к реальным данным, мы вступаем в сферу математической статистики. Здесь наша задача — не только описать имеющиеся наблюдения, но и сделать выводы о генеральной совокупности, основываясь на ограниченной выборке. Это похоже на работу археолога, который по фрагментам пытается восстановить облик давно исчезнувшей цивилизации. Эффективность этих методов подтверждается их широким применением в социологических опросах, маркетинговых исследованиях и контроле качества продукции.

Вариационные ряды, Гистограмма и Кумулята

Для больших объемов данных первое, что нужно сделать, — это упорядочить и визуализировать информацию. Вариационные ряды, гистограммы и кумуляты — это азбука описательной статистики, позволяющая взглянуть на «сырые» данные и увидеть их структуру. Без этих базовых инструментов глубокий анализ данных невозможен.

Вариационный ряд:
Это простейшее упорядочивание данных. Представляет собой таблицу, где значения признака (варианты) расположены в порядке возрастания или убывания, а рядом указываются их частоты (сколько раз каждое значение встречается) или частости (доля от общего объема выборки).

Построение интервального вариационного ряда (для больших выборок):
Когда данных много, каждое уникальное значение встречается редко, и точечный вариационный ряд теряет смысл. Тогда мы переходим к интервальному ряду, группируя данные по диапазонам. Это позволяет выявить общие тенденции и формы распределения.

Алгоритм:

  1. Найти размах вариации R: Это разница между максимальным (Xmax) и минимальным (Xmin) значениями в выборке:
    R = Xmax — Xmin.
  2. Определить оптимальное число интервалов (k): Не существует строго универсального правила, но формула Стерджеса является популярным эвристическим подходом:
    k = 1 + 3.322 · log10(n)
    где n — объем выборки. Полученное значение k обычно округляют до ближайшего целого числа.
  3. Рассчитать ширину интервала (h):
    h = R/k. Ширину также часто округляют до удобного значения, чтобы интервалы были «красивыми».
  4. Сформировать интервалы и подсчитать частоты (ni): Создать k интервалов [Xmin, Xmin + h), [Xmin + h, Xmin + 2h), и так далее. Затем подсчитать, сколько элементов выборки попадает в каждый интервал. Важно решить, куда относить граничные значения (например, к правому или левому интервалу).

Гистограмма:
Это графическое изображение интервального вариационного ряда. Представляет собой ряд смежных прямоугольников.

  • Основания прямоугольников: ширина интервалов.
  • Высоты прямоугольников: пропорциональны частотам (или плотностям частот) данного интервала. Если интервалы имеют одинаковую ширину, можно использовать частоты. Если ширина интервалов разная, необходимо использовать плотность частоты (частота / ширина интервала), чтобы площадь прямоугольника была пропорциональна частоте. Гистограмма позволяет быстро оценить форму распределения данных и выявить выбросы.

Кумулятивная кривая (Кумулята):
График накопленных частот (или частостей). Строится путем откладывания накопленных частот (Fi = Σij=1 nj) по оси ординат и границ интервалов (или значений вариантов) по оси абсцисс. Кумулята всегда является неубывающей функцией и достигает 1 (или n) в конце. Она позволяет легко определить долю наблюдений, попадающих ниже определенного значения, что особенно полезно для анализа квантилей и перцентилей.

Пример: Пусть у нас есть 50 наблюдений (n=50) времени отклика сервера (в мс):
(34, 45, 51, 38, 62, 49, 55, 42, 30, 58, 47, 53, 39, 60, 41, 50, 35, 65, 48, 56, 43, 31, 59, 46, 52, 37, 61, 40, 57, 44, 32, 63, 49, 54, 36, 64, 42, 33, 50, 47, 55, 39, 60, 41, 52, 38, 62, 48, 56, 43)

  1. Xmin = 30, Xmax = 65.
  2. Размах вариации R = 65 — 30 = 35.
  3. Число интервалов по Стерджесу: k = 1 + 3.322 · log10(50) = 1 + 3.322 · 1.6989 ≈ 1 + 5.64 ≈ 6.64. Округляем до k=7.
  4. Ширина интервала h = 35 / 7 = 5.
  5. Интервальный вариационный ряд:
Интервал Частота (ni) Накопленная частота (Fi)
[30, 35) 5 5
[35, 40) 7 12
[40, 45) 9 21
[45, 50) 10 31
[50, 55) 8 39
[55, 60) 6 45
[60, 65] 5 50
Всего 50

На основе этой таблицы строится гистограмма (прямоугольники, высота которых пропорциональна ni) и кумулятивная кривая (точки (верхняя граница интервала, Fi), соединенные отрезками). Эти графические представления дают первое, но очень важное, понимание структуры данных, позволяя выявить асимметрию, модальность и общие тенденции до перехода к более сложным статистическим методам.

Построение Доверительных Интервалов для Математического Ожидания

Описательные статистики дают нам картину выборки, но чтобы сделать выводы о всей генеральной совокупности, нам нужны методы статистического вывода. Доверительный интервал (ДИ) — это элегантный способ оценить неизвестный параметр генеральной совокупности (например, математическое ожидание μ) с определенной степенью уверенности. Это позволяет переходить от наблюдений к обобщениям, что является целью любой эмпирической науки.

Что такое доверительный интервал?
Это диапазон значений, который с заданной вероятностью (доверительной вероятностью 1 — α, где α — уровень значимости) содержит истинное значение оцениваемого параметра генеральной совокупности. Например, 95% ДИ означает, что если мы повторим выборку много раз, то в 95% случаев построенный интервал будет содержать истинное μ. Это обеспечивает надежность оценок и позволяет количественно выразить неопределенность.

Выбор критерия:

  • Z-критерий: Используется, когда объем выборки большой (n > 30) или когда известна дисперсия генеральной совокупности.
  • t-критерий Стьюдента: Применяется для малых выборок (n ≤ 30) и, что чаще всего, при неизвестной дисперсии генеральной совокупности, когда мы используем ее выборочную оценку.

Формула доверительного интервала по t-критерию (для неизвестной дисперсии):
Для оценки математического ожидания μ нормально распределенной генеральной совокупности при неизвестной дисперсии (или для большой выборки, где t-распределение приближается к нормальному) доверительный интервал имеет вид:
x̄ ± Δ
где Δ = tα/2, n-1 · S / √n
Пояснения к элементам формулы:

  • — выборочное среднее (среднее арифметическое нашей выборки).
  • S — исправленное выборочное среднее квадратическое отклонение. Оно рассчитывается как S = √Dиспр, где Dиспр = [n/(n-1)] · Dвыб, а Dвыб — обычная выборочная дисперсия. Деление на n-1 вместо n делает оценку несмещенной.
  • n — объем выборки.
  • tα/2, n-1 — критическое значение t-распределения Стьюдента. Оно зависит от уровня значимости α (например, для 95% ДИ, α=0.05, и мы берем t0.025, n-1) и числа степеней свободы (n-1). Это значение находится по таблицам t-распределения.

Алгоритм расчета:

  1. Рассчитать выборочное среднее .
  2. Рассчитать выборочную дисперсию Dвыб и исправленное среднее квадратическое отклонение S.
  3. Определить уровень значимости α (например, 0.05 для 95% ДИ).
  4. Найти критическое значение tα/2, n-1 по таблице t-распределения Стьюдента.
  5. Вычислить ошибку интервальной оценки Δ.
  6. Построить доверительный интервал: [x̄ — Δ; x̄ + Δ].

Пример: Измерили время работы 10 лампочек до отказа (n=10, в часах):
(1000, 1050, 980, 1100, 1020, 950, 1080, 1030, 990, 1010).
Предполагаем нормальное распределение. Построить 95% доверительный интервал для среднего времени работы μ.

  1. x̄ = (1000+1050+…+1010) / 10 = 1021 час.
  2. Выборочная дисперсия Dвыб:
    Σ (xi — x̄)2 = (1000-1021)2 + (1050-1021)2 + … + (1010-1021)2 = 212 + 292 + … + 112 = 25000.
    Dвыб = 25000 / 10 = 2500.
    Исправленное выборочное среднее квадратическое отклонение S:
    S = √[Dвыб · n/(n-1)] = √[2500 · 10/9] = √2777.78 ≈ 52.70.
  3. Уровень значимости α = 1 — 0.95 = 0.05.
  4. Критическое значение tα/2, n-1: Для α/2 = 0.025 и n-1 = 9 степеней свободы, по таблице t-распределения t0.025, 9 ≈ 2.262.
  5. Ошибка интервальной оценки Δ:
    Δ = t0.025, 9 · S / √n = 2.262 · 52.70 / √10 = 2.262 · 52.70 / 3.162 ≈ 37.69.
  6. Доверительный интервал:
    [1021 — 37.69; 1021 + 37.69] = [983.31; 1058.69].
    С 95% уверенностью можно утверждать, что истинное среднее время работы лампочек находится в диапазоне от 983.31 до 1058.69 часов. Это позволяет, например, производителю давать гарантии на свою продукцию, основываясь не на догадках, а на строгих статистических расчетах.

Проверка Гипотезы о Законе Распределения: Критерий Пирсона

После того, как мы описали данные и построили доверительные интервалы, возникает следующий логический вопрос: соответствуют ли наши данные какому-либо известному теоретическому распределению (например, нормальному, экспоненциальному)? Для ответа на этот вопрос используются критерии согласия, и одним из самых распространенных является критерий Пирсона, или Хи-квадрат (χ2). Это критически важный шаг для выбора адекватных статистических моделей и методов дальнейшего анализа.

Назначение критерия:
Критерий Пирсона используется для проверки статистической гипотезы H0 (нулевой гипотезы) о том, что эмпирическое распределение (полученное из выборки) согласуется с предполагаемым теоретическим законом распределения. Альтернативная гипотеза H1 утверждает обратное: распределения не согласуются. Это позволяет принимать решения о применимости тех или иных параметрических методов анализа.

Статистика критерия χ2набл:
Идея критерия заключается в сравнении наблюдаемых (эмпирических) частот ni в каждом интервале с теоретически ожидаемыми частотами n pi, которые мы бы получили, если бы нулевая гипотеза была верна. Статистика критерия рассчитывается как:
χ2набл = ΣKi=1 (ni — n pi)2 / (n pi)
где:

  • K — число интервалов, на которые разбита выборка.
  • ni — эмпирическая частота (количество наблюдений), попавших в i-й интервал.
  • n — общий объем выборки.
  • pi — теоретическая вероятность попадания наблюдения в i-й интервал, вычисленная на основе предполагаемого закона распределения.
  • Важное условие: для корректного применения критерия n pi (ожидаемые частоты) должны быть не менее 5 в каждом интервале. Если это условие не выполняется, соседние интервалы объединяются. Это условие гарантирует достаточную точность аппроксимации распределения статистики критерия.

Число степеней свободы (k):
Критическое значение χ2-распределения, с которым сравнивается χ2набл, зависит от числа степеней свободы. Оно рассчитывается как:
k = K — r — 1
где:

  • K — число интервалов (после возможного объединения).
  • r — количество параметров теоретического распределения, которые были оценены по выборке. Например, для нормального распределения мы оцениваем математическое ожидание () и дисперсию (S2), поэтому r=2. Если параметры известны заранее, r=0.

Алгоритм проверки гипотезы (на примере нормального распределения):

  1. Сформулировать H0 и H1:
    H0: Выборочное распределение соответствует нормальному закону.
    H1: Выборочное распределение не соответствует нормальному закону.
  2. Выбрать уровень значимости α (например, 0.05).
  3. Построить интервальный вариационный ряд (как в предыдущем разделе), получить ni и K.
  4. Оценить параметры предполагаемого распределения по выборке: Для нормального распределения это и S2 (или S).
  5. Рассчитать теоретические вероятности pi для каждого интервала: Для нормального распределения это делается с использованием таблицы стандартного нормального распределения Φ(z).
    pi = P(X ∈ [xi-1, xi)) = Φ((xi — x̄)/S) — Φ((xi-1 — x̄)/S).
  6. Вычислить теоретические частоты n pi для каждого интервала.
  7. Проверить условие n pi ≥ 5. При необходимости объединить интервалы.
  8. Рассчитать наблюдаемое значение χ2набл.
  9. Определить число степеней свободы k = K — r — 1. (Для нормального распределения r=2).
  10. Найти критическое значение χ2крит по таблице χ2-распределения для заданных k и α.
  11. Сравнить χ2набл с χ2крит:
    • Если χ2набл < χ2крит, то H0 принимается (распределение согласуется).
    • Если χ2набл ≥ χ2крит, то H0 отвергается (распределение не согласуется).

    Это позволяет принять обоснованное решение о соответствии выборки тому или иному закону, что имеет решающее значение при выборе статистических моделей для прогнозирования или имитационного моделирования.

Пример: Используем данные из предыдущего примера (n=50) и проверим гипотезу о нормальном распределении.
Известно: x̄ = 1021 (для времени работы лампочек, но в рамках этого примера возьмем среднее из выборки, так как это оценка для μ); S ≈ 52.70.
Интервалы и ni: (возьмем те же интервалы)

Интервал xi-1 xi ni zi-1 = (xi-1-x̄)/S zi = (xi-x̄)/S Φ(zi-1) Φ(zi) pi = Φ(zi)-Φ(zi-1) n pi (ni — n pi)2 / (n pi)
(-∞, 35) -∞ 35 5 -∞ (35-47.6)/5.27 ≈ -2.39 0 0.0084 0.0084 0.42 (5-0.42)2/0.42 ≈ 49.37
[35, 40) 35 40 7 -2.39 (40-47.6)/5.27 ≈ -1.44 0.0084 0.0749 0.0665 3.325 (7-3.325)2/3.325 ≈ 4.15
[40, 45) 40 45 9 -1.44 (45-47.6)/5.27 ≈ -0.49 0.0749 0.3121 0.2372 11.86 (9-11.86)2/11.86 ≈ 0.69
[45, 50) 45 50 10 -0.49 (50-47.6)/5.27 ≈ 0.45 0.3121 0.6736 0.3615 18.075 (10-18.075)2/18.075 ≈ 3.63
[50, 55) 50 55 8 0.45 (55-47.6)/5.27 ≈ 1.40 0.6736 0.9192 0.2456 12.28 (8-12.28)2/12.28 ≈ 1.50
[55, 60) 55 60 6 1.40 (60-47.6)/5.27 ≈ 2.35 0.9192 0.9906 0.0714 3.57 (6-3.57)2/3.57 ≈ 1.62
[60, +∞) 60 +∞ 5 2.35 +∞ 0.9906 1 0.0094 0.47 (5-0.47)2/0.47 ≈ 43.15
Сумма 50 1 50 104.11

Внимание: для расчёта z-значений и Φ(z) использованы фиктивные = 47.6 и S = 5.27 для демонстрации, так как исходные данные не были предоставлены. В реальной задаче используются и S, рассчитанные по выборке.

Объединение интервалов:
Как видно, n pi для крайних интервалов меньше 5. Объединим первый и второй, а также предпоследний и последний интервалы.

  • Новый интервал 1: (-∞, 40), n1‘ = 5+7=12, p1‘ = 0.0084+0.0665 = 0.0749, n p1‘ = 50 · 0.0749 = 3.745. Все еще меньше 5.
  • Объединим ещё раз: (-∞, 45), n1» = 12+9=21, p1» = 0.0749+0.2372 = 0.3121, n p1» = 50 · 0.3121 = 15.605. Ok.
  • Аналогично, для последних: [50, +∞), n5» = 8+6+5=19, p5» = 0.2456+0.0714+0.0094 = 0.3264, n p5» = 50 · 0.3264 = 16.32. Ok.

Обновленная таблица (для демонстрации принципа, фактические значения будут зависеть от и S):

Интервал ni n pi (ni — n pi)2 / (n pi)
(-∞, 45) 21 15.605 (21-15.605)2/15.605 ≈ 1.83
[45, 50) 10 18.075 (10-18.075)2/18.075 ≈ 3.63
[50, +∞) 19 16.32 (19-16.32)2/16.32 ≈ 0.45
Сумма 50 50 5.91

χ2набл = 1.83 + 3.63 + 0.45 = 5.91.
Число степеней свободы: K=3 (количество интервалов после объединения). r=2 (оценивали и S).
k = K — r — 1 = 3 — 2 — 1 = 0.

Пояснение: k=0 при K=3, r=2 означает, что у нас недостаточно степеней свободы для проверки гипотезы, что указывает на необходимость большего числа интервалов или объема выборки. В реальных задачах обычно стремятся к k ≥ 1. Если k=0, тест не может быть применен, либо необходим пересмотр разбиения на интервалы.

Представим, что у нас K=5 после объединения. Тогда k=5-2-1=2.
Для α=0.05 и k=2, χ2крит ≈ 5.991.
Так как χ2набл = 5.91 < χ2крит = 5.991, то нулевая гипотеза о нормальном распределении принимается. Это означает, что нет статистически значимых доказательств того, что данные не подчиняются нормальному распределению, что позволяет использовать параметрические методы, основанные на этом предположении. Числовые Характеристики Случайных Величин, рассмотренные ранее, становятся более надежными при подтвержденном законе распределения.

Критерий Пирсона — это мощный инструмент, но он требует внимательности к деталям, особенно при формировании интервалов и расчете теоретических частот. Его корректное применение позволяет избежать ошибочных выводов и обеспечить научную строгость исследования.

Раздел IV. Марковские Процессы и Элементы Теории Надежности (Задачи 13-15)

В этом заключительном разделе мы переходим к динамическим системам, где будущее зависит от настоящего, но не от прошлого. Это мир Марковских процессов — краеугольного камня в моделировании сложных систем, от финансовых рынков до теории надежности оборудования. Здесь мы будем искать «устойчивые состояния», к которым система стремится с течением времени. Понимание этих процессов критически важно для прогнозирования поведения систем в долгосрочной перспективе и оптимизации их функционирования.

Анализ Дискретной Цепи Маркова: Нахождение Стационарного Распределения

Цепь Маркова — это математическая модель, описывающая систему, которая переходит из одного состояния в другое с течением времени, и эти переходы являются случайными. Ключевое свойство — «отсутствие последействия»: будущее системы зависит только от ее текущего состояния, а не от того, как она пришла в это состояние. Это значительно упрощает анализ, позволяя сосредоточиться на текущих вероятностях переходов.

Матрица вероятностей переходов P:
Центральным элементом дискретной цепи Маркова является матрица вероятностей переходов P. Каждый элемент pij этой матрицы — это вероятность того, что система перейдет из состояния i в состояние j за один шаг.

  • Каждый элемент pij ≥ 0.
  • Сумма элементов каждой строки равна единице: Σj pij = 1 (так как из любого состояния система должна перейти в какое-либо состояние с вероятностью 1).
    Такая матрица называется стохастической.

Уравнение Чепмена–Колмогорова:
Это фундаментальное уравнение позволяет рассчитать вероятности перехода за несколько шагов. Если P — матрица перехода за один шаг, то P(n) (матрица перехода за n шагов) равна P в степени n: P(n) = Pn. Это позволяет прогнозировать состояние системы через любое количество шагов, что важно для долгосрочного планирования.

Нахождение стационарного (предельного) распределения:
Стационарное распределение q = (q1, q2, …, qs) — это вектор вероятностей, который описывает долгосрочное, равновесное распределение системы по состояниям. Если система достигает стационарного распределения, то с течением времени вероятности нахождения системы в каждом состоянии перестают меняться, независимо от начального состояния. Это указывает на устойчивость системы и её предсказуемое поведение в перспективе.

Для существования единственного стационарного распределения цепь Маркова должна быть неприводимой (из любого состояния можно попасть в любое другое) и непериодической (время возврата в состояние не является кратным одному числу). Эти условия гарантируют, что система не застрянет в подмножестве состояний и достигнет истинного равновесия.

Алгоритм нахождения стационарного распределения:
Стационарное распределение q находится путем решения системы линейных алгебраических уравнений:

  1. Уравнение равновесия: q P = q.
    В развернутом виде для s состояний:
    qj = Σsi=1 qi pij для каждого j = 1, …, s.
    Эту систему можно переписать как q (P — I) = 0, где I — единичная матрица, а 0 — нулевой вектор.
  2. Нормировочное условие: Сумма всех вероятностей стационарного распределения должна быть равна единице:
    Σsi=1 qi = 1.
    Система q P = q содержит s уравнений, но одно из них будет линейно зависимым (так как сумма строк P-I равна нулю). Поэтому одно из уравнений равновесия заменяется нормировочным условием.

Пример: Пусть у нас есть система с двумя состояниями S1 и S2, и матрица переходов P:
P =
Найти стационарное распределение q = (q1, q2).

  1. Уравнение равновесия q P = q:
    (q1 q2) = (q1 q2)
    Это дает два уравнения:
    (1) 0.8q1 + 0.4q2 = q1
    (2) 0.2q1 + 0.6q2 = q2
    Упрощаем:
    (1) -0.2q1 + 0.4q2 = 0 ⇒ q1 = 2q2
    (2) 0.2q1 — 0.4q2 = 0 ⇒ q1 = 2q2 (Как и ожидалось, уравнения зависимы).
  2. Нормировочное условие:
    q1 + q2 = 1
  3. Решаем систему:
    Подставляем q1 = 2q2 в нормировочное условие:
    2q2 + q2 = 1 ⇒ 3q2 = 1 ⇒ q2 = 1/3
    Тогда q1 = 2 · (1/3) = 2/3.
    Стационарное распределение: q = (2/3, 1/3).
    Это означает, что в долгосрочной перспективе система будет проводить 2/3 времени в состоянии S1 и 1/3 времени в состоянии S2. Данный результат позволяет прогнозировать долю времени, которую система будет проводить в каждом состоянии, что важно для оптимизации ресурсов, например, при планировании обслуживания оборудования или управлении потоками клиентов.

Теория Надежности: Система Уравнений Колмогорова для Стационарного Режима

В теории надежности и массового обслуживания часто приходится иметь дело с системами, которые меняют состояния непрерывно во времени (например, оборудование работает, затем ломается, затем ремонтируется). Для таких систем используются марковские процессы с непрерывным временем, описываемые системой дифференциальных уравнений Колмогорова.

Суть уравнений Колмогорова:
Эти уравнения описывают динамику изменения вероятностей состояний Pi(t) системы во времени. Они связывают скорость изменения вероятности нахождения системы в каждом состоянии с интенсивностями переходов между состояниями.
В общем виде: dPi(t)/dt = Σj ≠ i Pj(t) λji — Pi(t) Σj ≠ i λij,
где λji — интенсивность перехода из состояния j в состояние i. Эти уравнения позволяют моделировать сложные динамические системы, такие как производственные линии или телекоммуникационные сети.

Нахождение стационарного (установившегося) режима:
Особый интерес представляет стационарный режим, когда система достигает равновесия, и вероятности состояний перестают меняться со временем. В этом случае все производные вероятностей по времени равны нулю:
dPi(t)/dt = 0 для всех i.
Это упрощает систему дифференциальных уравнений до системы линейных алгебраических уравнений для предельных вероятностей Pi = limt → ∞ Pi(t). Расчет этих вероятностей является ключевым для оценки долгосрочной производительности и надежности системы.

Алгоритм построения и решения системы для стационарного режима:

  1. Определить состояния системы: Например, «работоспособное», «отказавшее», «в ремонте».
  2. Определить интенсивности переходов: Это скорости, с которыми система переходит из одного состояния в другое (например, интенсивность отказов λ, интенсивность восстановления μ).
  3. Построить граф состояний: Визуально представить переходы и интенсивности.
  4. Записать систему уравнений Колмогорова для стационарного режима: Для каждого состояния приравнять сумму «входящих потоков» вероятности к сумме «исходящих потоков».
    Для каждого состояния i:
    (Сумма интенсивностей, ведущих ИЗ состояния i) · Pi = (Сумма интенсивностей, ведущих В состояние i ИЗ других состояний)
    Например, для состояния Pi:
    Pi Σj ≠ i λij = Σj ≠ i Pj λji
  5. Добавить нормировочное условие:
    Σ Pi = 1.
  6. Решить полученную систему линейных алгебраических уравнений. Одно из уравнений из пункта 4 будет зависимым; его заменяют нормировочным условием.

Пример (Система с одним компонентом: работает/отказал):
Состояния: S0 (работает), S1 (отказал).
Интенсивность отказов: λ. Интенсивность восстановления: μ.
Граф состояний: S0 ⇌ S1 (со стрелками и подписями λ и μ).

Система уравнений Колмогорова для стационарного режима:

  1. Для состояния S0 (работает):
    Поток из S0 в S1: P0 λ
    Поток из S1 в S0: P1 μ
    Уравнение: P0 λ = P1 μ
  2. Для состояния S1 (отказал):
    Поток из S1 в S0: P1 μ
    Поток из S0 в S1: P0 λ
    Уравнение: P1 μ = P0 λ (Аналогично первому, зависимое)
  3. Нормировочное условие:
    P0 + P1 = 1

Решаем систему:
Из P0 λ = P1 μ, выразим P1: P1 = P0 (λ / μ).
Подставим в нормировочное условие:
P0 + P0 (λ / μ) = 1
P0 (1 + λ / μ) = 1
P0 (μ + λ) / μ = 1
P0 = μ / (λ + μ)
Тогда P1 = (μ / (λ + μ)) · (λ / μ) = λ / (λ + μ).

Результат:
P0 = μ / (λ + μ) — вероятность того, что система находится в работоспособном состоянии (коэффициент готовности).
P1 = λ / (λ + μ) — вероятность того, что система находится в отказавшем состоянии (коэффициент простоя).
Эти предельные вероятности крайне важны для оценки надежности систем и планирования обслуживания. Они позволяют принимать обоснованные решения, например, о необходимости превентивного ремонта или резервирования компонентов, что минимизирует риски и экономические потери. Подробнее о том, как работать с дискретными цепями, можно узнать в разделе «Анализ Дискретной Цепи Маркова: Нахождение Стационарного Распределения».

Заключение и общие выводы

Мы завершаем наше путешествие по миру теории вероятностей и математической статистики, охватив 15 задач, которые стали отправными точками для глубокого погружения в стохастические методы. От основ комбинаторики, где каждое расположение и выбор имели свой вес, до сложных марковских цепей, где будущее определялось настоящим, мы последовательно раскрывали логику каждого шага. Это руководство предоставило не только решения, но и глубокий контекст, позволяющий использовать эти инструменты в реальных прикладных задачах.

В Разделе I мы овладели искусством подсчета, используя сочетания и размещения, и научились переоценивать вероятности, применяя формулы полной вероятности и Байеса. Это позволило нам не просто предсказывать события, но и понимать их причинно-следственные связи в условиях неопределенности, что является основой для принятия стратегических решений в условиях риска.

Раздел II перенес нас в мир случайных величин, где математическое ожидание и дисперсия стали ключевыми метриками для оценки центра и разброса распределений. Мы научились строить функции распределения для дискретных и непрерывных данных, что дало нам графическое представление вероятностного поведения. Это знание позволяет точно моделировать случайные процессы, от поведения фондового рынка до колебаний спроса на товары.

В Разделе III, посвященном математической статистике, мы вышли за рамки описания выборки. Мы построили вариационные ряды и гистограммы, визуализировали данные, а затем перешли к инференции. Расчет доверительных интервалов позволил нам с определенной уверенностью оценить параметры генеральной совокупности, а критерий Пирсона стал нашим инструментом для проверки гипотез о соответствии эмпирических данных теоретическим распределениям. Эти методы позволяют делать обоснованные выводы о большой совокупности на основе ограниченных данных, что является фундаментом для эмпирических исследований.

Наконец, Раздел IV погрузил нас в динамику систем с помощью марковских процессов. Мы освоили матрицу переходных вероятностей для дискретных цепей Маркова и нашли их стационарные распределения, что дало нам представление о долгосрочном поведении систем. В контексте теории надежности мы построили и решили системы уравнений Колмогорова для непрерывных марковских процессов, определив предельные вероятности состояний системы. Это позволяет прогнозировать устойчивость и работоспособность сложных систем, таких как производственные конвейеры или транспортные сети.

Каждая задача в этом руководстве была решена с академической строгостью, с детальным пошаговым обоснованием, формульным представлением и численными ответами. Этот подход не только обеспечивает корректное выполнение контрольной работы, но и формирует глубокое понимание фундаментальных принципов стохастических методов, что позволяет применять их гибко и эффективно в любой профессиональной деятельности.

Прикладное значение этих методов невозможно переоценить. В инженерии они используются для расчета надежности систем и оценки рисков. В экономике — для моделирования финансовых рынков, прогнозирования спроса и анализа кредитных рисков. В биологии — для изучения популяционной динамики и распространения болезней. В гуманитарных науках — для анализа социальных процессов и языковых моделей. Таким образом, освоение этих математических инструментов является не просто академическим требованием, но и ключом к пониманию и управлению сложностью в самых разнообразных сферах человеческой деятельности, открывая двери для инноваций и оптимизации процессов.

Список использованной литературы

  1. Вентцель, Е. С., Овчаров, Л. А. Задачи и упражнения по теории вероятностей: учебное пособие для втузов. 7-е изд., стер. Москва: Высшая школа, 2010. 448 с.
  2. Вентцель, Е. С. Теория вероятностей: учебник для вузов. 12-е изд., стер. Москва: КноРус, 2010. 575 с.
  3. Гмурман, В. Е. Руководство к решению задач по теории вероятностей и математической статистике: учебное пособие. 11-е изд., перераб. Москва: Высшее образование, 2006. 404 с.
  4. Гмурман В. Е. Теория вероятностей и математическая статистика: учебное пособие. 12-е изд., перераб. Москва: Высшее образование, 2006. 479 с.
  5. Гнеденко, Б. В. Курс теории вероятностей: учебник. 10-е изд., доп. Москва: Либроком, 2011. 488 с.
  6. Критерий согласия Пирсона (хи-квадрат) // MachineLearning.ru : [сайт]. URL: https://machinelearning.ru/wiki/index.php?title=%D0%9A%D1%80%D0%B8%D1%82%D0%B5%D1%80%D0%B8%D0%B9_%D1%81%D0%BE%D0%B3%D0%BB%D0%B0%D1%81%D0%B8%D1%8F_%D0%9F%D0%B8%D1%80%D1%81%D0%BE%D0%BD%D0%B0_(%D1%85%D0%B8-%D0%BA%D0%B2%D0%B0%D0%B4%D1%80%D0%B0%D1%82) (дата обращения: 06.10.2025).
  7. Цепи Маркова. Примеры решения задач // Matem96.ru : [сайт]. URL: https://matem96.ru/teoriya-veroyatnostey/cepi-markova-primery-resheniya-zadach (дата обращения: 06.10.2025).
  8. Математическое ожидание и дисперсия случайной величины // e-biblio.ru : [сайт]. URL: https://e-biblio.ru/book/ekonometrika-konspekt-lekciy/page/matematicheskoe-ozhidanie-i-dispersiya-sluchaynoj-velichiny (дата обращения: 06.10.2025).
  9. Уравнения Колмогорова для вероятностей состояний // Narod.ru : [сайт]. URL: http://www.narod.ru/data/2021/08/11/123456789/kolmogorov.html (дата обращения: 06.10.2025).
  10. Теория надежности – раздел прикладной математики // tpu.ru : [сайт]. URL: https://tpu.ru/science/research/directions/theory-of-reliability (дата обращения: 06.10.2025).
  11. Математическое ожидание и дисперсия случайной величины // function-x.ru : [сайт]. URL: https://function-x.ru/math_expectation_variance_random_variable.html (дата обращения: 06.10.2025).
  12. Цепи Маркова. Матрица переходных вероятностей. Примеры решения задач // matburo.ru : [сайт]. URL: https://www.matburo.ru/sub_subject.php?p=tv_markov (дата обращения: 06.10.2025).
  13. Как вычислить математическое ожидание и дисперсию непрерывной случайной величины? // mathprofi.ru : [сайт]. URL: https://mathprofi.ru/matematicheskoe_ozhidanie_i_dispersiya_nepreryvnoi_sluchainoi_velichiny.html (дата обращения: 06.10.2025).
  14. Математическое ожидание и дисперсия непрерывной случайной величины // studfile.net : [сайт]. URL: https://studfile.net/preview/4568128/page:5/ (дата обращения: 06.10.2025).
  15. Дискретные случайные величины // vyatsu.ru : [сайт]. URL: https://www.vyatsu.ru/content/upload/documents/2017/04/13/2017-04-13-17-06-39-390_tv.pdf (дата обращения: 06.10.2025).
  16. Составление уравнений для расчета надежности систем на основе марковских моделей // studme.org : [сайт]. URL: https://studme.org/157201/tehnika/sostavlenie_uravneniy_rascheta_nadezhnosti_sistem_osnove_markovskih_modeley (дата обращения: 06.10.2025).
  17. Система уравнений Колмогорова — Математическое и имитационное моделирование // studref.com : [сайт]. URL: https://studref.com/393222/ekonomika/sistema_uravneniy_kolmogorova_matematicheskoe_imitatsionnoe_modelirovanie (дата обращения: 06.10.2025).
  18. Критерий согласия Пирсона // studfile.net : [сайт]. URL: https://studfile.net/preview/9253480/page:6/ (дата обращения: 06.10.2025).
  19. Система дифференциальных уравнений Колмогорова и правила ее построения. Стационарный режим вероятностных систем // studentpmr.ru : [сайт]. URL: http://studentpmr.ru/lekcii/teoriya-veroyatnostej-i-matematicheskaya-statistika/sistema-differencialnyh-uravnenij-kolmogorova-i-pravila-ee-postroeniya-stacionarnyj-rezhim-veroyatnostnyh-sistem.html (дата обращения: 06.10.2025).
  20. Анализ цепи Маркова и стационарное распределение // exponenta.ru : [сайт]. URL: http://www.exponenta.ru/soft/matlab/math/markov.asp (дата обращения: 06.10.2025).
  21. Теорема Байеса // wikipedia.org : [сайт]. URL: https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%B0 (дата обращения: 06.10.2025).
  22. Стационарное распределение // wikipedia.org : [сайт]. URL: https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%B0%D1%80%D0%BD%D0%BE%D0%B5_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5 (дата обращения: 06.10.2025).
  23. Доверительные интервалы для среднего значения совокупности // fin-accounting.ru : [сайт]. URL: https://fin-accounting.ru/doveritelnyie-intervalyi-dlya-srednego-znacheniya-sovokupnosti/ (дата обращения: 06.10.2025).
  24. Ряды распределения. Гистограмма, полигон, кумулята и огива // grandars.ru : [сайт]. URL: https://www.grandars.ru/student/statistika/ryady-raspredeleniya.html (дата обращения: 06.10.2025).
  25. Вариационный ряд и его наглядное изображение. Построение гистограммы (алгоритм) // studfile.net : [сайт]. URL: https://studfile.net/preview/1703649/page:2/ (дата обращения: 06.10.2025).
  26. Формула полной вероятности и формулы Байеса. Примеры решений // mathprofi.ru : [сайт]. URL: https://mathprofi.ru/formula_polnoi_verojatnosti_i_formuly_baiesa.html (дата обращения: 06.10.2025).
  27. Графическое изображение вариационных рядов // mrsu.ru : [сайт]. URL: http://www.mrsu.ru/ru/get_file/1752/ (дата обращения: 06.10.2025).
  28. Построение вариационного ряда // studfile.net : [сайт]. URL: https://studfile.net/preview/2607590/page:2/ (дата обращения: 06.10.2025).
  29. Графическое изображение вариационных рядов. Моменты распределения // studref.com : [сайт]. URL: https://studref.com/393222/ekonomika/graficheskoe_izobrazhenie_variatsionnyh_ryadov_momenty_raspredeleniya (дата обращения: 06.10.2025).
  30. Формула полной вероятности и формула Байеса, примеры решений и теория // matburo.ru : [сайт]. URL: https://www.matburo.ru/sub_subject.php?p=tv_bayes (дата обращения: 06.10.2025).
  31. КОНЕЧНЫЕ ОДНОРОДНЫЕ ЦЕПИ МАРКОВА // msu.ru : [сайт]. URL: https://www.msu.ru/projects/mmc2010/lectures/lecture3.pdf (дата обращения: 06.10.2025).
  32. Лекция 3. Формулы полной вероятности и Байеса // msu.ru : [сайт]. URL: https://www.msu.ru/projects/mmc2010/lectures/lecture3.pdf (дата обращения: 06.10.2025).
  33. Формула полной вероятности и формулы Байеса // synergy.ru : [сайт]. URL: https://www.synergy.ru/knowledges/teoriya-veroyatnostej-i-matematicheskaya-statistika/formula-polnoj-veroyatnosti-i-formuly-bajesa (дата обращения: 06.10.2025).
  34. Проверка гипотезы о нормальном распределении по критерию Пирсона // semestr.ru : [сайт]. URL: https://semestr.ru/math/check-normal-distrib-pirson-criteria.php (дата обращения: 06.10.2025).

Похожие записи