Случайные Величины, их Числовые Характеристики и Законы Распределения: Академический Обзор для Студентов

В мире, где случайность играет неотъемлемую роль во множестве процессов — от колебаний финансовых рынков до ошибок в инженерных системах, — понимание механизмов её измерения и анализа становится критически важным. Теория вероятностей и математическая статистика предоставляют мощный инструментарий для изучения этих явлений, а краеугольным камнем в этом инструментарии выступают случайные величины. Именно они позволяют перевести качественные описания неопределенных событий в строгие математические модели, доступные для количественного анализа.

Актуальность изучения случайных величин для студентов технических, экономических и математических специальностей трудно переоценить. В инженерном деле они помогают оценивать надежность систем и предсказывать отказы оборудования. В экономике и финансах — моделировать риски, прогнозировать изменения цен активов и оптимизировать инвестиционные портфели. В математике они формируют фундамент для дальнейшего изучения стохастических процессов, статистики и машинного обучения.

Настоящий реферат призван дать исчерпывающий академический обзор основных понятий случайной величины, её числовых характеристик и ключевых законов распределения. Мы последовательно рассмотрим классификацию случайных величин, углубимся в методику расчета их центральных и дисперсионных характеристик, а также подробно изучим как дискретные, так и непрерывные законы распределения, которые являются фундаментом для понимания стохастических процессов в реальном мире. Особое внимание будет уделено взаимосвязи между функцией распределения и плотностью вероятности, а также широкому спектру практических применений этих концепций в различных областях знаний. Наконец, мы окунемся в историю, чтобы проследить, как великие умы прошлого заложили основы этой увлекательной и жизненно важной дисциплины.

Основные Понятия и Классификация Случайных Величин

По своей сути, мир полон неопределенности, и именно случайные величины позволяют нам математически описать эту неопределенность. От исхода подбрасывания монеты до продолжительности жизни сложного оборудования — каждое такое явление можно представить как случайную величину. Но что именно представляет собой этот математический конструкт, и как его классифицировать для эффективного анализа?

Определение случайной величины

Случайная величина — это числовая функция, определенная на пространстве элементарных исходов случайного эксперимента, которая каждому элементарному исходу сопоставляет определенное число.

Проще говоря, это величина, которая в результате случайного испытания принимает только одно значение из возможного набора значений, причем заранее неизвестно, какое именно. Она является своеобразным мостиком, переводящим результаты случайных событий в язык чисел, с которыми уже можно работать с помощью математических инструментов. Традиционно в теории вероятностей случайные величины обозначают заглавными латинскими буквами, такими как X, Y, Z. Их возможные конкретные значения, которые они могут принять, обозначаются соответствующими строчными буквами: x, y, z. Например, если X — это число очков, выпавших при броске игрального кубика, то возможные значения x могут быть 1, 2, 3, 4, 5, 6.

Дискретные случайные величины (ДСВ)

Когда мы говорим о дискретных случайных величинах, мы представляем себе величины, которые могут принимать лишь отдельные, изолированные значения. Эти значения можно пересчитать, даже если их количество бесконечно. Важно, что между любыми двумя соседними возможными значениями ДСВ не существует других возможных значений этой же величины, что делает их идеальными для описания счётных событий.

Определение ДСВ: Дискретная случайная величина (ДСВ) — это величина, принимающая отдельные, изолированные возможные значения с определенными вероятностями. Число возможных значений дискретной случайной величины может быть конечным или счетно бесконечным.

Примеры ДСВ:

  • Число выпавших очков при подбрасывании игрального кубика: X ∈ {1, 2, 3, 4, 5, 6}. Это конечный набор значений.
  • Количество бракованных деталей из 100 произведенных: Y ∈ {0, 1, …, 100}. Тоже конечный набор.
  • Число попаданий в серии из N выстрелов: Z ∈ {0, 1, …, N}.
  • Число звонков, поступивших на телефонную станцию за час: Это может быть 0, 1, 2, … и так до бесконечности, но каждое значение является целым числом. Это пример счетно бесконечного набора значений.

Распределение вероятностей для ДСВ обычно задается рядом распределения, который представляет собой таблицу, где каждому возможному значению случайной величины сопоставляется его вероятность:

X x1 x2 xn
P(X=x) p1 p2 pn

Где Σpi = 1.

Непрерывные случайные величины (НСВ)

В отличие от дискретных, непрерывные случайные величины могут принимать любые значения из некоторого интервала. Их возможные значения нельзя пересчитать, поскольку между любыми двумя значениями всегда можно найти бесконечное множество других значений, что обуславливает их использование для измерения непрерывных характеристик.

Определение НСВ: Непрерывная случайная величина (НСВ) — это величина, принимающая любые значения из некоторого промежутка (возможно, бесконечного). Множество возможных значений непрерывной случайной величины целиком заполняет некоторый конечный или бесконечный промежуток. Число возможных значений непрерывной случайной величины является несчетным.

Примеры НСВ:

  • Дальность полета снаряда: X может принимать любое значение, например, от 0 до 1000 метров, включая 500.1 м, 500.12 м и т.д.
  • Отклонение размера детали от номинального: Y может быть в диапазоне, скажем, от -0.05 мм до +0.05 мм.
  • Ресурс системы (время безотказной работы): Z может быть любым положительным числом, например, 100.5 часа, 100.51 часа и т.д.
  • Температура, давление, влажность: Эти физические величины также принимают значения из непрерывных интервалов.

Для НСВ вероятность того, что она примет точно заданное значение, равна нулю. Вместо этого мы говорим о вероятности попадания НСВ в некоторый интервал. Поведение НСВ описывается не рядом распределения, а функцией распределения или плотностью вероятности, о которых пойдет речь в следующих разделах.

Понимание этой фундаментальной классификации позволяет правильно выбирать математический аппарат для анализа конкретных случайных явлений и строить адекватные вероятностные модели.

Числовые Характеристики Случайных Величин: Измерение Положения и Разброса

Чтобы получить полное представление о случайной величине, недостаточно знать только её возможные значения и соответствующие вероятности. Необходимо также иметь количественные характеристики, которые описывают её центральную тенденцию (вокруг чего группируются значения) и степень разброса (насколько эти значения рассеяны). Именно для этих целей используются математическое ожидание, дисперсия и среднеквадратическое отклонение.

Математическое ожидание (M[X] или E[X])

Математическое ожидание является ключевой характеристикой, дающей представление о «среднем» значении случайной величины, которое она примет в долгосрочной перспективе, при многократном повторении эксперимента. Оно является центром распределения или характеристикой положения случайной величины на числовой оси.

Определение: Математическое ожидание (M[X] или E[X]) — это среднее значение случайной величины, вокруг которого группируются остальные возможные значения.

Формулы для вычисления:

  • Для дискретной случайной величины (ДСВ):
    Если ДСВ X принимает значения x1, x2, …, xn с соответствующими вероятностями p1, p2, …, pn, то её математическое ожидание вычисляется как сумма произведений каждого возможного значения на его вероятность:
    M[X] = Σxipi
    Пример для ДСВ:
    Рассмотрим игральный кубик. Случайная величина X — число выпавших очков. Возможные значения xi: 1, 2, 3, 4, 5, 6. Вероятность выпадения каждого значения pi = 1/6.
    M[X] = 1 ⋅ (1/6) + 2 ⋅ (1/6) + 3 ⋅ (1/6) + 4 ⋅ (1/6) + 5 ⋅ (1/6) + 6 ⋅ (1/6) = (1+2+3+4+5+6)/6 = 21/6 = 3.5.
    Это означает, что в среднем при большом числе бросков кубика будет выпадать 3.5 очка.
  • Для непрерывной случайной величины (НСВ):
    Если НСВ X имеет плотность вероятности f(x), то её математическое ожидание вычисляется как интеграл от произведения значения x на плотность вероятности по всему диапазону возможных значений:
    M[X] = ∫-∞+∞ x ⋅ f(x) dx
    Пример для НСВ:
    Пусть НСВ X имеет равномерное распределение на интервале [a, b]. Тогда плотность вероятности f(x) = 1/(b-a) при x ∈ [a, b] и 0 в противном случае.
    M[X] = ∫ab x ⋅ (1/(b-a)) dx = (1/(b-a)) ⋅ [x2/2]ab = (1/(b-a)) ⋅ (b2/2 — a2/2) = (1/(b-a)) ⋅ (b-a)(b+a)/2 = (a+b)/2.
    Для интервала [0, 10], M[X] = (0+10)/2 = 5. Это соответствует геометрическому центру интервала, что является интуитивно понятным результатом для равномерного распределения.

Дисперсия (D[X] или Var(X))

Математическое ожидание говорит нам о «центре тяжести» распределения, но не дает информации о том, насколько сильно значения случайной величины отклоняются от этого центра. Для этого служит дисперсия, которая фактически количественно оценивает эту изменчивость.

Определение: Дисперсия (D[X], Var(X) или σ2) — это мера разброса значений случайной величины относительно её математического ожидания. Она показывает степень рассеивания значений, принимаемых случайной величиной, вокруг её математического ожидания.

Определение дисперсии случайной величины: D[X] = E[(X — E[X])2]. То есть, дисперсия — это математическое ожидание квадрата отклонения случайной величины от её среднего. Квадрат используется для того, чтобы избежать взаимного сокращения положительных и отрицательных отклонений, а также для придания большей «весомости» большим отклонениям.

Формулы для вычисления:

  • Для дискретной случайной величины (ДСВ):
    D[X] = Σ(xi - M[X])2pi
    Существует также удобная формула для вычисления, не требующая предварительного вычисления разностей: D[X] = E[X2] - (E[X])2. Где E[X2] = Σxi2pi.
    Пример для ДСВ (продолжение с кубиком):
    M[X] = 3.5.
    E[X2] = 12 ⋅ (1/6) + 22 ⋅ (1/6) + 32 ⋅ (1/6) + 42 ⋅ (1/6) + 52 ⋅ (1/6) + 62 ⋅ (1/6) = (1+4+9+16+25+36)/6 = 91/6 ≈ 15.167.
    D[X] = E[X2] — (M[X])2 = 91/6 — (3.5)2 = 91/6 — 12.25 = 91/649/4 = (182 — 147)/12 = 35/12 ≈ 2.917.
    Этот показатель говорит о том, насколько сильно значения, выпадающие на кубике, «размазаны» вокруг среднего значения 3.5.
  • Для непрерывной случайной величины (НСВ):
    D[X] = ∫-∞+∞ (x - M[X])2 ⋅ f(x) dx
    Аналогично, существует более удобная формула: D[X] = E[X2] - (E[X])2. Где E[X2] = ∫-∞+∞ x2 ⋅ f(x) dx.
    Пример для НСВ (продолжение с равномерным распределением на [a, b]):
    M[X] = (a+b)/2.
    E[X2] = ∫ab x2 ⋅ (1/(b-a)) dx = (1/(b-a)) ⋅ [x3/3]ab = (1/(b-a)) ⋅ (b3/3 — a3/3) = (1/(b-a)) ⋅ (b-a)(b2+ab+a2)/3 = (b2+ab+a2)/3.
    D[X] = E[X2] — (M[X])2 = (b2+ab+a2)/3 — ((a+b)/2)2 = (b2+ab+a2)/3 — (a2+2ab+b2)/4 = (4b2+4ab+4a2 — 3a2-6ab-3b2)/12 = (a2-2ab+b2)/12 = (b-a)2/12.
    Для интервала [0, 10], D[X] = (10-0)2/12 = 100/12 ≈ 8.33.

Важное свойство дисперсии: дисперсия суммы независимых случайных величин равна сумме их дисперсий. Это свойство широко используется при анализе сложных систем, позволяя декомпозировать общую изменчивость на составляющие.

Среднеквадратическое отклонение (σ(X))

Дисперсия измеряется в квадрате единиц измерения случайной величины, что иногда затрудняет её интуитивное понимание. Чтобы вернуть меру разброса к исходным единицам измерения, используется среднеквадратическое отклонение (СКО), которое значительно облегчает интерпретацию.

Определение: Среднеквадратическое отклонение (СКО) или стандартное отклонение (σ) — это квадратный корень из дисперсии.

Формула: σ(X) = √D[X]

Интерпретация: Среднеквадратическое отклонение измеряется в тех же единицах, что и сама случайная величина, что делает его более понятным и удобным для интерпретации. Чем больше σ, тем сильнее рассеяны значения случайной величины вокруг её математического ожидания. Например, если средний рост мужчин в популяции 175 см со СКО 7 см, это означает, что большинство мужчин имеют рост в диапазоне 175 ± 7 см.

  • Пример для ДСВ (продолжение с кубиком):
    σ(X) = √D[X] = √(35/12) ≈ √2.917 ≈ 1.708.
  • Пример для НСВ (продолжение с равномерным распределением на [a, b]):
    σ(X) = √D[X] = √((b-a)2/12) = (b-a)/√12 ≈ (b-a)/3.464.
    Для интервала [0, 10], σ(X) = 10/√12 ≈ 10/3.464 ≈ 2.887.

Эти числовые характеристики являются фундаментальными для любого анализа случайных величин, позволяя не только численно описать их поведение, но и сравнивать различные распределения между собой, выявляя, например, где риски выше или где процесс более стабилен.

Функции, описывающие поведение случайных величин: Функция распределения и Плотность вероятности

В теории вероятностей для полного описания поведения случайных величин используются специальные функции. Две из них — функция распределения и плотность вероятности — играют центральную роль, предоставляя разные, но взаимосвязанные перспективы на вероятностную структуру величины.

Функция распределения (F(x))

Функция распределения является универсальным способом описания любой случайной величины, будь то дискретная или непрерывная. Она дает информацию о вероятности того, что случайная величина примет значение, меньшее или равное заданному порогу.

Определение: Функция распределения (интегральная функция распределения) F(x) = P(X < x) для любой случайной величины. Она определяет вероятность того, что случайная величина X примет значение меньше x.

Свойства функции распределения:

  1. Неубывающая функция: F(x1) ≤ F(x2) при x1 < x2. Это логично, поскольку вероятность того, что значение будет меньше меньшего числа, не может быть больше вероятности быть меньше большего числа.
  2. Предельные значения:
    • limx→-∞ F(x) = 0. Вероятность того, что значение случайной величины меньше минус бесконечности, равна нулю.
    • limx→+∞ F(x) = 1. Вероятность того, что значение случайной величины меньше плюс бесконечности, равна единице (событие достоверно).
  3. Непрерывность справа: Для любой точки x, F(x) = limh→0+ F(x+h). (Это свойство особенно важно для дискретных величин, где функция имеет «скачки»).

Связь F(x) с рядом распределения для ДСВ:
Для дискретной случайной величины X, принимающей значения x1 < x2 < … < xn с вероятностями p1, p2, …, pn, функция распределения имеет ступенчатый вид:
F(x) = Σpi (для всех xi < x)
Например, если X принимает значения {1, 2, 3} с вероятностями {0.2, 0.5, 0.3}:

  • F(x) = 0 при x ≤ 1
  • F(x) = 0.2 при 1 < x ≤ 2
  • F(x) = 0.2 + 0.5 = 0.7 при 2 < x ≤ 3
  • F(x) = 0.2 + 0.5 + 0.3 = 1 при x > 3

Связь F(x) с интегралом для НСВ:
Для непрерывной случайной величины X с плотностью вероятности f(t), функция распределения представляется как интеграл:
F(x) = ∫-∞x f(t) dt.
Это означает, что F(x) — это площадь под кривой плотности вероятности f(t) от минус бесконечности до точки x.

Плотность вероятности (f(x))

Плотность вероятности — это инструмент для описания непрерывных случайных величин. В отличие от дискретных, где мы можем указать вероятность каждого отдельного значения, для непрерывных величин вероятность точного попадания в заданную точку равна нулю. Вместо этого мы используем плотность вероятности, которая характеризует «концентрацию» вероятности в окрестности каждой точки.

Определение: Плотность распределения вероятностей (дифференциальная функция распределения) f(x) — это первая производная от её функции распределения: f(x) = F'(x).

Важно подчеркнуть, что плотность распределения существует только для непрерывной случайной величины. Для дискретных случайных величин плотность вероятности не определена в том же смысле, поскольку их функция распределения ступенчатая и не везде дифференцируема.

Вероятностный смысл плотности распределения: f(x) есть предел отношения вероятности попадания случайной величины в промежуток [x, x + Δx] к длине этого промежутка Δx, когда Δx стремится к нулю. То есть, P(x ≤ X ≤ x + Δx) ≈ f(x)Δx. Это означает, что плотность f(x) в точке x указывает на относительную вероятность того, что случайная величина примет значение, близкое к x.

Свойства плотности распределения:

  1. Неотрицательность: Плотность распределения неотрицательна: f(x) ≥ 0 для всех x. Вероятность не может быть отрицательной.
  2. Условие нормировки: Несобственный интеграл от плотности вероятности в бесконечных пределах равен единице: -∞+∞ f(x) dx = 1. Это означает, что общая вероятность того, что случайная величина примет какое-либо значение из всего возможного диапазона, равна 1 (достоверное событие). Геометрически это интерпретируется как площадь под кривой плотности вероятности, равная 1.

Взаимосвязь F(x) и f(x)

Связь между функцией распределения F(x) и плотностью вероятности f(x) является фундаментальной для понимания непрерывных случайных величин. Как уже было сказано, f(x) является производной от F(x), а F(x) — интегралом от f(x). Это указывает на то, что эти две функции представляют одну и ту же информацию, но с разных точек зрения, что позволяет использовать наиболее удобную для конкретной задачи.

Ключевое соотношение:

  • F(x) = ∫-∞x f(t) dt
  • f(x) = F'(x)

Вычисление вероятности попадания в интервал:
Вероятность попадания непрерывной случайной величины X в промежуток [a, b] (или (a, b), [a, b), (a, b]) равна определенному интегралу от её плотности в пределах от a до b:
P(a < X < b) = ∫ab f(x) dx.
Геометрически это площадь под кривой плотности вероятности f(x) на интервале от a до b.
Также эту вероятность можно выразить через функцию распределения:
P(a < X < b) = F(b) - F(a).

Понимание этих функций и их взаимосвязи критически важно для анализа поведения случайных величин, построения моделей и решения практических задач в различных областях, где присутствует неопределенность, поскольку оно позволяет переходить от одной формы описания к другой, выбирая наиболее подходящий инструментарий.

Основные Законы Распределения Дискретных Случайных Величин

В мире дискретных событий, где результаты могут быть подсчитаны и представлены в виде целых чисел, существуют несколько ключевых законов распределения, которые описывают наиболее распространенные сценарии. Среди них особенно выделяются биномиальное распределение и распределение Пуассона, каждое из которых имеет свои уникальные особенности и области применения.

Биномиальное распределение

История биномиального распределения тесно связана с именем Якоба Бернулли, который в начале XVIII века в своем труде «Искусство предположений» заложил основы для понимания серии независимых испытаний с двумя возможными исходами. Именно эти испытания, названные в его честь испытаниями Бернулли, лежат в основе биномиального распределения.

Определение и контекст: Биномиальное распределение — это распределение числа «успехов» в серии из n независимых экспериментов (испытаний Бернулли), каждый из которых завершается «успехом» с вероятностью p. Каждый опыт имеет только два возможных исхода: «успех» (с вероятностью p) или «неудача» (с вероятностью q = 1-p).

Функция вероятности:
Функция вероятности биномиального распределения, описывающая вероятность получения x успехов в n испытаниях, задается формулой:
P(X=x) = Cnx ⋅ px ⋅ (1-p)n-x
где:

  • x — число «успехов» (целое число от 0 до n)
  • n — количество независимых испытаний
  • p — вероятность «успеха» в каждом отдельном испытании
  • Cnx — биномиальный коэффициент, равный n! / (x!(n-x)!), который показывает количество способов выбрать x успехов из n испытаний.

Числовые характеристики:

  • Математическое ожидание: M(X) = np
  • Дисперсия: D(X) = np(1-p)
  • Среднеквадратическое отклонение: σ(X) = √[np(1-p)]

Свойства:

  • При p = 0.5 биномиальное распределение симметрично относительно центра n/2. По мере удаления p от 0.5, распределение становится асимметричным.
  • Биномиальное распределение при n=1 является распределением Бернулли, которое описывает результат одного испытания (0 или 1 успех).

Примеры применения:
Представьте, что вы проводите контроль качества на заводе, где 5% продукции является бракованной (p = 0.05). Вы случайным образом отбираете 100 деталей (n = 100). Какова вероятность, что среди них будет ровно 3 бракованные детали?
Здесь X — число бракованных деталей. x = 3.
P(X=3) = C1003 ⋅ (0.05)3 ⋅ (0.95)97.
Вычисление:
C1003 = 100! / (3! ⋅ 97!) = (100 ⋅ 99 ⋅ 98) / (3 ⋅ 2 ⋅ 1) = 161 700.
P(X=3) = 161 700 ⋅ (0.05)3 ⋅ (0.95)97 ≈ 161 700 ⋅ 0.000125 ⋅ 0.00769 ≈ 0.1396.
Таким образом, вероятность найти ровно 3 бракованные детали составляет около 13.96%.
Математическое ожидание бракованных деталей: M(X) = 100 ⋅ 0.05 = 5.
Дисперсия: D(X) = 100 ⋅ 0.05 ⋅ 0.95 = 4.75.

Распределение Пуассона

Распределение Пуассона, названное в честь французского математика Симеона Дени Пуассона, является идеальным инструментом для моделирования количества событий, происходящих за фиксированный интервал времени или в определенном пространстве, при условии, что эти события редки и независимы друг от друга.

Определение и контекст: Распределение Пуассона — это дискретное распределение, являющееся одним из важных предельных случаев биномиального распределения, когда число испытаний n велико, а вероятность успеха p мала (событие редкое). Описывает число независимых событий, происходящих с фиксированной средней интенсивностью λ за определенный интервал.

Функция вероятности:
Функция вероятности распределения Пуассона задается формулой:
P(X=k) = (λk ⋅ e) / k!
где:

  • λ — интенсивность событий (среднее число событий за заданный интервал), λ > 0.
  • k — число появлений события (целое неотрицательное число).
  • e — основание натурального логарифма (приблизительно 2.71828).
  • k! — факториал числа k.

Числовые характеристики:
Примечательной особенностью распределения Пуассона является равенство его математического ожидания и дисперсии:

  • Математическое ожидание: M(X) = λ
  • Дисперсия: D(X) = λ

Примеры применения:
Распределение Пуассона широко используется в теории массового обслуживания, например, для моделирования числа входящих звонков в колл-центр за минуту, числа дефектов на квадратный метр ткани, числа радиоактивных распадов за секунду, или числа покупателей, зашедших в магазин за час.

Предположим, среднее число обращений в техническую поддержку банка за один час составляет 5 (λ = 5). Какова вероятность, что в следующий час поступит ровно 3 обращения?
Используем формулу Пуассона с λ = 5 и k = 3:
P(X=3) = (53 ⋅ e-5) / 3! = (125 ⋅ e-5) / 6.
e-5 ≈ 0.006738.
P(X=3) = (125 ⋅ 0.006738) / 6 = 0.84225 / 6 ≈ 0.140375.
Таким образом, вероятность поступления ровно 3 обращений в течение следующего часа составляет около 14.04%.
Математическое ожидание и дисперсия в данном случае равны 5.

Оба этих распределения — биномиальное и Пуассона — являются мощными инструментами для анализа дискретных случайных явлений, позволяя предсказывать и управлять процессами, в которых события происходят с определенной вероятностью.

Основные Законы Распределения Непрерывных Случайных Величин

В мире, где значения величин могут принимать любые точки на числовой оси — от времени до веса — непрерывные случайные величины становятся незаменимым инструментом для моделирования. Три наиболее фундаментальных распределения в этой категории — равномерное, показательное и нормальное — каждый со своим уникальным характером и обширными областями применения.

Равномерное распределение

Представьте себе ситуацию, когда все исходы в заданном интервале абсолютно равновероятны. Именно такую картину описывает равномерное распределение. Оно является базовой моделью для процессов, где нет предпочтения к какому-либо конкретному значению в пределах заданного диапазона.

Определение: Непрерывная случайная величина X имеет равномерное распределение на интервале [a, b], если на этом интервале плотность распределения случайной величины постоянна, а вне его равна нулю.

Плотность вероятности:

f(x) = 1/(b-a) при x ∈ [a, b]
f(x) = 0 в противном случае

Графически это выглядит как горизонтальный отрезок на высоте 1/(b-a) над интервалом [a, b] и нулевое значение за его пределами.

Функция распределения:

F(x) = 0 при x < a
F(x) = (x-a)/(b-a) при a ≤ x < b
F(x) = 1 при x ≥ b

Числовые характеристики:

  • Математическое ожидание: M(X) = (a+b)/2. Это логично, так как центр распределения находится посередине интервала.
  • Дисперсия: D(X) = (b-a)2/12. Чем шире интервал, тем больше дисперсия.
  • Среднеквадратическое отклонение: σ(X) = √[(b-a)2/12].

Свойства:

  • Моды равномерное распределение не имеет, так как все значения в интервале имеют одинаковую плотность вероятности.

Примеры применения:
Равномерное распределение часто используется для моделирования ошибок округления или ошибок при снятии показаний с измерительных приборов. Например, если показания округляются до ближайшего целого, ошибка может быть равномерно распределена в интервале [-0.5, 0.5]. Также оно применяется при генерации случайных чисел в заданном диапазоне.

Показательное (экспоненциальное) распределение

Показательное распределение является краеугольным камнем в теории надежности и массового обслуживания. Оно идеально подходит для моделирования времени, которое проходит до наступления следующего события, если эти события происходят с постоянной средней интенсивностью.

Определение: Показательное распределение — это абсолютно непрерывное распределение, моделирующее время между двумя последовательными свершениями одного и того же события в пуассоновском потоке. Важной особенностью является "отсутствие последействия", то есть вероятность наступления события в будущем не зависит от того, сколько времени оно уже не наступало.

Плотность вероятности:

f(x) = λ ⋅ e-λx при x ≥ 0
f(x) = 0 при x < 0

где λ > 0 — параметр интенсивности, который является обратным к среднему времени ожидания.

График плотности имеет ниспадающий вид, резко уменьшаясь от максимального значения λ при x=0.

Функция распределения:

F(x) = 1 - e-λx при x ≥ 0
F(x) = 0 при x < 0

Числовые характеристики:

  • Математическое ожидание: M(X) = 1/λ. Это среднее время ожидания события.
  • Дисперсия: D(X) = 1/λ2.
  • Среднеквадратическое отклонение: σ(X) = 1/λ.

Свойства:

  • Характерное свойство показательного распределения — равенство математического ожидания и среднеквадратического отклонения: M(X) = σ(X).
  • Свойство отсутствия последействия (без памяти): P(X > t+s | X > t) = P(X > s). Это означает, что если система проработала время t, вероятность того, что она проработает еще s единиц времени, не зависит от t.

Примеры применения:
Показательное распределение используется для моделирования времени ожидания обслуживания покупателя в очереди, продолжительности телефонного разговора, времени безотказной работы оборудования (ресурс системы) или промежутка времени между поломками. Например, если среднее время жизни компонента составляет 1000 часов (λ = 1/1000), показательное распределение позволяет рассчитать вероятность того, что компонент проработает более определенного времени.

Нормальное распределение (распределение Гаусса)

Нормальное распределение, также известное как распределение Гаусса или Гаусса — Лапласа, по праву считается одним из самых важных и широко используемых в статистике. Его "колоколообразная" форма встречается повсеместно в природе, технике и социальных науках, что делает его незаменимым инструментом для моделирования множества явлений. Стоит ли удивляться, что оно лежит в основе множества статистических выводов и проверок гипотез?

Определение: Нормальное распределение — это непрерывное распределение вероятностей, где значения симметрично сгруппированы вокруг среднего (математического ожидания), а вероятность отклонений уменьшается по мере удаления от него.

Плотность вероятности:

f(x) = (1 / (σ√(2π))) ⋅ e-(x-μ)2 / (2σ2)

где:

  • μ (мю) — математическое ожидание (среднее значение), которое определяет центр колоколообразной кривой.
  • σ (сигма) — среднеквадратическое отклонение, которое характеризует степень разброса значений; чем меньше σ, тем уже и выше "колокол" на графике.
  • π — число Пи (приблизительно 3.14159).
  • e — основание натурального логарифма (приблизительно 2.71828).

Параметры и свойства:

  • Нормальное распределение полностью определяется двумя параметрами: математическим ожиданием (μ) и среднеквадратическим отклонением (σ).
  • Нормальная кривая имеет колоколообразную форму, симметричную относительно точки x = μ.
  • Точки перегиба графика функции плотности находятся на расстоянии ±σ от μ.
  • Медиана и мода нормального распределения совпадают и равны μ.
  • Коэффициенты асимметрии и эксцесса нормального распределения равны нулю, что указывает на его идеальную симметричность и умеренную "остроконечность" (мезокуртичность).

Нормированное нормальное распределение:
Особый случай — стандартное (нормированное) нормальное распределение, которое имеет параметры μ=0 и σ=1. Его плотность часто обозначается φ(u), а функция распределения Ф(u).
Любую нормально распределенную величину X можно нормировать (стандартизировать) по формуле U = (X-μ)/σ. Это позволяет использовать стандартные таблицы для расчета вероятностей.

Правило трех сигм:
Это эмпирическое правило гласит, что для нормального распределения почти все значения случайной величины (около 99.7%) находятся в интервале [μ - 3σ, μ + 3σ]. Это означает, что крайне маловероятно наблюдать значения, отклоняющиеся от среднего более чем на три стандартных отклонения, что является мощным инструментом для контроля качества и выявления аномалий.

Примеры применения:
Нормальное распределение является мощным инструментом для описания множества естественных характеристик (рост, вес людей, их физическая сила и умственные способности), а также различных характеристик неодушевленных объектов (размеры, вес) и продолжительности процессов. Оно широко используется для описания ошибок измерений, ошибок выполнения команд автоматизированным устройством, ошибок вывода космического корабля в заданную точку пространства, ошибок параметров компьютерных систем. В экономике оно моделирует доходности финансовых активов, а в контроле качества — отклонения параметров продукции от нормы.

Эти три распределения — равномерное, показательное и нормальное — формируют основу для понимания и моделирования широкого круга непрерывных случайных явлений, предоставляя аналитикам и исследователям мощный арсенал для работы с неопределенностью.

Функции распределения и плотность вероятности: взаимосвязь и свойства

Функция распределения и плотность вероятности — это два фундаментальных понятия в теории вероятностей, которые позволяют описывать поведение случайных величин. Хотя они и представляют одну и ту же информацию, делают это по-разному, дополняя друг друга и раскрывая различные аспекты вероятностной структуры.

Функция распределения (F(x))

Как было сказано ранее, функция распределения F(x) является универсальным способом описания любой случайной величины — дискретной или непрерывной. Она отвечает на вопрос: "Какова вероятность того, что случайная величина примет значение, меньшее или равное заданному порогу x?"

Определение: Функция распределения (интегральная функция распределения) F(x) = P(X < x) для любой случайной величины. Она определяет вероятность того, что случайная величина X примет значение меньше x.

Свойства функции распределения:

  1. Неубывающая: F(x) не убывает с ростом x. Это означает, что если x1 < x2, то F(x1) ≤ F(x2).
  2. Ограниченность: Область значений F(x) лежит в интервале [0, 1].
    • limx→-∞ F(x) = 0.
    • limx→+∞ F(x) = 1.
  3. Непрерывность справа: Для любой точки x0, limx→x0+ F(x) = F(x0). Это свойство особенно заметно для дискретных случайных величин, где функция распределения представляет собой ступенчатую кривую с "скачками" в точках, где случайная величина принимает свои возможные значения. Для непрерывных случайных величин функция распределения является непрерывной.

Представление связи F(x) с рядом распределения для ДСВ и интегралом для НСВ:

  • Для дискретных случайных величин (ДСВ):
    F(x) = Σxi < x P(X = xi)
    Здесь F(x) представляет собой сумму вероятностей всех значений xi, которые меньше x. График F(x) для ДСВ является ступенчатой функцией, где "скачки" (разрывы) происходят в точках xi, и высота скачка равна соответствующей вероятности P(X = xi).
  • Для непрерывных случайных величин (НСВ):
    F(x) = ∫-∞x f(t) dt
    В этом случае функция распределения является интегралом от плотности вероятности f(t) от минус бесконечности до x. Она непрерывна и дифференцируема во всех точках, где существует плотность вероятности.

Плотность вероятности (f(x))

Плотность вероятности f(x) является уникальной характеристикой для непрерывных с��учайных величин и не имеет прямого аналога для дискретных в том же смысле. Она описывает, как "концентрируется" вероятность в различных точках диапазона значений случайной величины.

Определение: Плотность распределения вероятностей (дифференциальная функция распределения) f(x) — это первая производная от её функции распределения: f(x) = F'(x).

Важно подчеркнуть, что плотность вероятности существует только для НСВ. Для дискретных случайных величин, поскольку F(x) имеет разрывы (ступеньки), её производная не существует в этих точках.

Вероятностный смысл плотности распределения: f(x) есть предел отношения вероятности попадания случайной величины в промежуток [x, x + Δx] к длине этого промежутка Δx, когда Δx стремится к нулю. Это можно записать как:
f(x) ≈ P(x ≤ X < x + Δx) / Δx
Это означает, что произведение f(x)Δx приближенно равно вероятности того, что случайная величина X примет значение в очень малом интервале вокруг x. Сама по себе f(x) не является вероятностью, но её значение указывает на сравнительную вероятность того, что случайная величина примет значение, близкое к x.

Свойства плотности вероятности:

  1. Неотрицательность: f(x) ≥ 0 для всех x. Вероятность не может быть отрицательной, и плотность, описывающая её распределение, также должна быть неотрицательной.
  2. Условие нормировки: Несобственный интеграл от плотности вероятности в бесконечных пределах равен единице: -∞+∞ f(x) dx = 1. Это фундаментальное свойство означает, что общая вероятность того, что случайная величина примет какое-либо значение из всего своего диапазона, равна 100%. Геометрически это означает, что площадь под кривой плотности вероятности всегда равна 1.

Взаимосвязь F(x) и f(x)

Функция распределения и плотность вероятности неразрывно связаны через операции дифференцирования и интегрирования. Это демонстрирует их двойственную природу: F(x) является накопленной вероятностью, а f(x) — мгновенной "скоростью" накопления вероятности.

Ключевая связь:

  • Если известна плотность вероятности f(x), то функция распределения F(x) может быть найдена путем интегрирования: F(x) = ∫-∞x f(t) dt.
  • Если известна функция распределения F(x) (для НСВ), то плотность вероятности f(x) может быть найдена путем дифференцирования: f(x) = F'(x).

Вычисление вероятности попадания в интервал:
Одним из наиболее важных применений этой взаимосвязи является расчет вероятности того, что непрерывная случайная величина X примет значение в заданном интервале [a, b].
P(a < X < b) = ∫ab f(x) dx
Это равно F(b) - F(a). Геометрически, это площадь под кривой плотности вероятности f(x) между точками a и b.

Эта глубокая взаимосвязь позволяет эффективно анализировать поведение непрерывных случайных величин, будь то через накопленную вероятность (F(x)) или через локальную концентрацию вероятности (f(x)), что является критически важным для построения и верификации статистических моделей.

Практическое Применение Случайных Величин и их Распределений

Теория вероятностей, а вместе с ней и концепция случайных величин, давно вышла за рамки чисто академической дисциплины, став мощным аналитическим инструментом, проникающим практически во все отрасли знаний. От прогнозирования погодных явлений до оптимизации работы сложных технических систем – понимание случайных процессов и их распределений является ключевым для принятия обоснованных решений в условиях неопределенности.

Применение в медицине и биологии

В медицине и биологии теория вероятностей играет ключевую роль в анализе и интерпретации сложных данных, помогая выявлять закономерности, оценивать риски и прогнозировать исходы.

  • Анализ медицинских данных: Случайные величины используются для моделирования различных медицинских показателей, таких как уровень сахара в крови, артериальное давление, концентрация лекарственных препаратов в организме. Распределения этих величин позволяют понять нормальные диапазоны и выявить аномалии.
  • Клинические испытания: При оценке эффективности новых лекарств и методов лечения в клинических испытаниях активно применяются статистические методы, основанные на теории вероятностей. Здесь случайные величины могут описывать реакцию пациентов на лечение, вероятность побочных эффектов или время до рецидива заболевания.
  • Генетика: Вероятностные модели используются для изучения наследственных заболеваний, предрасположенности к ним, а также для анализа распределения генетических признаков в популяциях.
  • Эпидемиология: В эпидемиологии случайные величины помогают прогнозировать развитие эпидемий, оценивать скорость распространения инфекций и эффективность мер борьбы с ними. Например, число новых случаев заболевания за день может быть смоделировано распределением Пуассона.
  • Диагностика и прогноз: С помощью теории вероятностей оцениваются вероятность постановки конкретного диагноза (на основе совокупности симптомов), вероятность возникновения побочных эффектов от лечения, а также прогноз исходов и результатов лечения для конкретного пациента.

Применение в экономике и финансах

В условиях постоянной изменчивости рынков и неопределенности экономических процессов случайные величины являются незаменимым инструментом для количественного анализа рисков и принятия стратегических решений.

  • Анализ рисков: Случайные величины и их распределения применяются для анализа рисков ликвидности, потери платежеспособности, финансовой устойчивости и независимости банков и компаний. Например, нормальное распределение часто используется для моделирования доходности акций.
  • Страхование: Теория вероятностей лежит в основе актуарных расчетов. Она помогает находить вероятность наступления страховых происшествий (например, вероятность смерти гражданина в зависимости от возраста), рассчитывать размеры страховых премий и определять возможную прибыль или убыток страховой компании. С её помощью оценивается вероятность получения убытка и возможность превышения дохода от заданной фиксированной величины.
  • Прогнозирование и моделирование: Случайные процессы используются для моделирования динамики цен на активы, процентных ставок и других финансовых показателей, что позволяет строить более точные прогнозы и разрабатывать стратегии хеджирования.

Применение в инженерии и контроле качества

В инженерии и производстве случайные величины используются для обеспечения надежности, безопасности и высокого качества продукции.

  • Контроль качества продукции: Статистические методы, основанные на теории вероятностей, позволяют не только контролировать качество продукции, но и по нему судить о качестве технологического процесса и осуществлять его регулирование. Это включает установление оптимальных планов выборочного контроля и критериев оценки результатов, а также построение контрольных карт (например, на основе нормального распределения) для выявления отклонений.
  • Надежность оборудования: Показательное распределение широко применяется для моделирования времени жизни оборудования до отказа или промежутка времени между поломками. Это позволяет прогнозировать сроки службы, планировать техническое обслуживание и повышать общую надежность систем.
  • Ошибки измерений: Равномерное распределение может описывать ошибку при снятии показаний с измерительных приборов, а нормальное распределение часто используется для описания ошибок выполнения команд автоматизированным устройством, ошибок вывода космического корабля в заданную точку пространства, ошибок параметров компьютерных систем.

Применение в телекоммуникациях

Современные телекоммуникационные системы — это сложнейшие сети, эффективность которых напрямую зависит от способности управлять случайными процессами.

  • Оптимизация сетевых соединений: Теория вероятностей применяется для оптимизации скорости доставки при маршрутизации пакетов через сетевые соединения. Случайные величины моделируют задержки передачи, потери пакетов, загрузку каналов.
  • Анализ поведения сети: С её помощью анализируется поведение телекоммуникационной сети, включая вероятности отказов, перегрузок, доступности сервисов.
  • Мобильная связь: В мобильной связи случайные величины используются для анализа причин дефектных звонков, расчета вероятности успешной передачи сообщений в условиях слабой связи, а также для моделирования помех и шумов в каналах связи.

Таким образом, случайные величины и их распределения являются не просто абстрактными математическими конструкциями, а мощными и универсальными инструментами, необходимыми для решения широкого круга практических задач в самых разнообразных областях человеческой деятельности. Они позволяют переходить от интуитивного понимания неопределенности к её строгому количественному анализу.

Исторический Контекст Развития Теории Вероятностей

История теории вероятностей — это увлекательный путь от азартных игр к строгой математической дисциплине, формировавшейся благодаря гению выдающихся мыслителей разных эпох. Именно в этом историческом контексте можно по-настоящему оценить глубину и значимость концепции случайной величины.

Зарождение теории (XVII век)

Принято считать, что теория вероятностей, как самостоятельная научная дисциплина, зародилась во второй половине XVII века. Первоначальным стимулом для её развития послужили весьма земные, но интеллектуально сложные проблемы, возникающие в азартных играх. Заядлые игроки, желая увеличить свои шансы на выигрыш, обращались к выдающимся умам своего времени.

Ключевым моментом, часто упоминаемым как рождение теории вероятностей, стала переписка двух великих французских ученых — Блеза Паскаля (1623-1662) и Пьера Ферма (1601-1665) в 1654 году. Их дискуссия была посвящена так называемой "задаче о разделе ставки" (или задаче о точках). Эта задача касалась справедливого распределения ставок между двумя игроками, если игра прерывается до её завершения. Паскаль и Ферма, независимо друг от друга, пришли к решению, что ставку нужно разделить в соответствии с остающимися шансами на выигрыш, то есть пропорционально вероятностям победы каждого игрока при продолжении игры. Эта задача стала отправной точкой для систематического подхода к вероятностным расчетам.

Формализация понятий

Вслед за пионерскими работами Паскаля и Ферма, другие европейские ученые начали развивать и формализовать новые идеи.

  • Вклад Христиана Гюйгенса (1629-1695): Голландский ученый Христиан Гюйгенс, вдохновленный перепиской Паскаля и Ферма, опубликовал в 1657 году трактат "О расчетах в азартных играх" (De ratiociniis in ludo aleae). В этой работе он не только обобщил и систематизировал идеи своих предшественников, но и ввел фундаментальные понятия числовой меры вероятности события и, что особенно важно для нашего обсуждения, понятие математического ожидания случайной величины. Гюйгенс показал, как можно численно оценить "ценность" игры или ожидаемый выигрыш.
  • Вклад Галилео Галилея (1564-1642): Хотя работы Галилея по теории вероятностей предшествовали Паскалю и Ферма, они были менее формализованы, но не менее прозорливы. В своём трактате «О выходе очков при игре в кости» и, что более значимо, в «Диалоге о двух главнейших системах мира», Галилей указал на возможность оценки погрешности измерений. Он интуитивно сформулировал принципы, которые позже легли в основу нормального распределения ошибок: малые ошибки вероятнее больших, отклонения в обе стороны равновероятны, а средний результат близок к истинному значению. Эти рассуждения стали первым в истории предсказанием того, что в дальнейшем назовут нормальным распределением ошибок.

Развитие классической теории (XVIII-XIX века)

XVIII и XIX века стали периодом бурного развития классической теории вероятностей, когда она постепенно превращалась из инструмента для азартных игр в мощный аппарат для изучения природных и социальных явлений.

  • Якоб Бернулли (1654-1705): Швейцарский математик Якоб Бернулли в своей посмертно опубликованной книге «Искусство предположений» (Ars Conjectandi, 1713) сделал колоссальный вклад. Он предложил классическое определение вероятности как отношение числа равновероятных исходов, связанных с событием, к общему числу возможных равновероятных исходов. Бернулли также доказал свой знаменитый закон больших чисел, который показал, что при увеличении числа испытаний частота появления события приближается к его теоретической вероятности. Его работы легли в основу понимания биномиального распределения.
  • Пьер-Симон Лаплас (1749-1827): Французский математик и астроном Лаплас в начале XIX века значительно развил теорию вероятностей, применив её к проблемам астрономии и статистики. Он сформулировал и доказал центральную предельную теорему (в одной из её форм), показав, что сумма большого числа независимых случайных величин при определённых условиях имеет распределение, близкое к нормальному, независимо от исходных распределений слагаемых.
  • Карл Фридрих Гаусс (1777-1855): Немецкий математик и физик Карл Фридрих Гаусс, также в начале XIX века, внёс огромный вклад в развитие теории ошибок наблюдений. Он впервые использовал нормальное распределение для описания не только ошибок измерений (что уже было интуитивно предсказано Галилеем), но и для описания распределения самих случайных величин в различных областях. Его работа по методу наименьших квадратов и анализу астрономических данных привела к повсеместному признанию "колоколообразной кривой", которая в Великобритании получила название нормального закона.
  • Симеон Дени Пуассон (1781-1840): Ещё один французский математик, Пуассон, в 1837 году опубликовал работу "Исследования о вероятности приговоров в уголовных и гражданских делах", где вывел свой знаменитый закон распределения редких событий, ныне известный как распределение Пуассона. Он показал, что это распределение является предельным случаем биномиального при большом числе испытаний и малой вероятности успеха.

Таким образом, исторический путь теории вероятностей от азартных игр до фундаментальной науки демонстрирует, как человеческая любознательность и стремление к систематизации неопределённости привели к созданию мощного аппарата для анализа случайных явлений, в основе которого лежит глубокое понимание случайных величин и их распределений.

Заключение

Путешествие по миру случайных величин, их числовых характеристик и законов распределения позволяет не только освоить фундаментальные понятия теории вероятностей, но и осознать её колоссальную прикладную значимость. Мы увидели, как абстрактные математические конструкции превращаются в незаменимые инструменты для анализа и прогнозирования в самых разнообразных областях — от тайн генетики до тонкостей финансовых рынков, от обеспечения надёжности инженерных систем до оптимизации телекоммуникационных потоков.

Начиная с базового определения случайной величины как моста между случайным экспериментом и числовым результатом, мы последовательно классифицировали эти величины на дискретные и непрерывные. Каждая из них требует своего уникального подхода к описанию: ряд распределения для дискретных и функция распределения (или плотность вероятности) для непрерывных. Мы подробно рассмотрели математическое ожидание как меру центральной тенденции, и дисперсию со среднеквадратическим отклонением как показатели разброса значений, показав их формулы и логику вычисления для обоих типов случайных величин.

Особое внимание было уделено взаимосвязи функции распределения и плотности вероятности, которая является краеугольным камнем для понимания непрерывных случайных явлений. Эта связь через интеграл и производную подчёркивает глубокое единство этих понятий. Затем мы погрузились в мир конкретных законов распределения: биномиальное и Пуассона для дискретных событий, а также равномерное, показательное и, конечно же, вездесущее нормальное распределение для непрерывных данных. Каждый закон, со своими уникальными параметрами и свойствами, раскрывает специфику определённых типов случайных процессов.

Исторический экскурс показал, что теория вероятностей не возникла мгновенно, а формировалась веками, благодаря озарениям Паскаля, Ферма, Гюйгенса, Бернулли, Лапласа, Гаусса и Пуассона, которые превратили любопытство к азартным играм в строгую научную методологию.

Для студентов технических, экономических и математических специальностей глубокое понимание случайных величин является не просто требованием учебной программы, но и критически важным навыком, открывающим двери к дальнейшему изучению математической статистики, машинного обучения, анализа данных и множества других прикладных дисциплин. Именно эти знания позволяют не просто наблюдать за случайностью, но и управлять ею, превращая неопределённость в измеримый риск и возможность для принятия обоснованных решений.

Дальнейшее изучение может включать многомерные случайные величины, ковариацию и корреляцию, различные виды сходимости случайных величин, а также более сложные стохастические процессы, что позволит углубить понимание динамических систем, подверженных случайным воздействиям.

Список использованной литературы

  1. Гмурман В.Е. Теория вероятностей и математическая статистика. – М.: Высшая школа, 1977.
  2. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. – М.: Высшая школа, 1997.
  3. Калинина В.Н., Панкин В.Ф. Математическая статистика. – М.: Высшая школа, 1994.
  4. Мацкевич И.П., Свирид Г.П., Булдык Г.М. Сборник задач и упражнений по высшей математике (Теория вероятностей и математическая статистика). – Минск: Вышейша школа, 1996.
  5. Тимофеева Л.К., Суханова Е.И. Математика для экономистов. Сборник задач по теории вероятностей и математической статистике. – М.: УМиИЦ «Учебная литература», 1998. – 182 с.
  6. Тимофеева Л.К., Суханова Е.И., Сафиулин Г.Г. Сборник задач по теории вероятностей и математической статистике. – Самара: Самарск. экон. ин-т, 1992.
  7. Тимофеева Л.К., Суханова Е.И., Сафиулин Г.Г. Теория вероятностей и математическая статистика. – Самара: Самарск. гос. экон. акад., 1994.
  8. Университет СИНЕРГИЯ. Теория вероятностей и математическая статистика: Случайные величины. Дискретные и непрерывные случайные величины. – Учебные материалы, дата публикации 01.07.2025.
  9. ООО «ФОРСАЙТ». Биномиальное распределение. – Справочная система, версия 10.9 от 18.08.2025.
  10. ООО «ФОРСАЙТ». Распределение Пуассона. – Справочная система, версия 10.9 от 18.08.2025.
  11. «История возникновения теории вероятностей» [Электронный ресурс]. – Режим доступа: https://mathprofi.ru/istoriya_vozniknoveniya_teorii_veroyatnostey.html.
  12. Случайные величины. Математическое ожидание. - Математика для заочников [Электронный ресурс]. – Режим доступа: https://mathprofi.ru/sluchainye_velichiny_matematicheskoe_ozhidanie.html.
  13. Очерк истории теории вероятностей∗ - decoder.ru - ЕДИНИЦЫ ИЗМЕРЕНИЯ [Электронный ресурс]. – Режим доступа: https://decoder.ru/list/505.
  14. Биномиальное распределение случайной величины - statanaliz.info [Электронный ресурс]. – Режим доступа: https://statanaliz.info/teoriya-veroyatnostej/binominalnoe-raspredelenie-sluchajnoj-velichiny/.
  15. Нормальное распределение: что это такое и как используется - Skillfactory media [Электронный ресурс]. – Режим доступа: https://skillfactory.ru/media/normalnoe-raspredelenie-chto-eto-takoe-i-kak-ispolzuetsya.
  16. Распределение и формула Пуассона - Математика для заочников [Электронный ресурс]. – Режим доступа: https://mathprofi.ru/raspredelenie_puassona.html.
  17. Нормальное распределение вероятностей. Понятие, формулы, графики и задачи с решениями - Математика для заочников [Электронный ресурс]. – Режим доступа: https://mathprofi.ru/normalnoe_raspredelenie.html.
  18. Биномиальное распределение ДСВ. Примеры решения задач - МатБюро [Электронный ресурс]. – Режим доступа: https://matburo.ru/tv_sub.php?p=binom_raspred.
  19. Показательный закон распределения вероятностей [Электронный ресурс]. – Режим доступа: https://mathprofi.ru/pokazatelnoe_raspredelenie.html.
  20. Числовые характеристики дискретной случайной величины - МатБюро [Электронный ресурс]. – Режим доступа: https://matburo.ru/tv_sub.php?p=ch_har.
  21. Показательное распределение: свойства и применение в моделировании времени ожидания / 3dstroyproekt.ru [Электронный ресурс]. – Режим доступа: https://3dstroyproekt.ru/pokazatelnoe-raspredelenie-svojstva-i-primenenie-v-modelirovanii-vremeni-ozhidaniya.html.
  22. Свойства функции плотности распределения случайной величины - Webmath.ru [Электронный ресурс]. – Режим доступа: https://webmath.ru/poleznoe/veroyatnost/svojstva_funkcii_plotnosti_raspredeleniya_sluchajnoj_velichiny/.
  23. Дисперсия, среднеквадратичное (стандартное) отклонение, коэффициент вариации в Excel - statanaliz.info [Электронный ресурс]. – Режим доступа: https://statanaliz.info/teoriya-veroyatnostej/dispersiya-srednekvadratichnoe-standartnoe-otklonenie/.
  24. Формулы по теории вероятностей онлайн: случайные величины - МатБюро [Электронный ресурс]. – Режим доступа: https://matburo.ru/tv_sub.php?p=formuly_sluch_vel.
  25. Паскаль - Теория вероятности [Электронный ресурс]. – Режим доступа: https://teoriya-veroyatnosti.ru/istoriya-teorii-veroyatnostej/paskal.
  26. Экспоненциальное (показательное) распределение. Примеры решения задач [Электронный ресурс]. – Режим доступа: https://matburo.ru/tv_sub.php?p=pokazatel_raspr.
  27. Дисперсия и среднее квадратичное отклонение. Примеры вычисления [Электронный ресурс]. – Режим доступа: https://www.mathteach.ru/teoriya-veroyatnostej/dispersiya-i-srednee-kvadratichnoe-otklonenie-primery-vychisleniya.

Похожие записи