Корреляционная теория случайных процессов: Строгие математические основы и аппаратный анализ

Введение в теорию случайных процессов

В современной науке и инженерии, особенно в областях, связанных с обработкой сигналов, радиотехникой, финансовым моделированием и физической кинетикой, приходится сталкиваться с явлениями, которые невозможно описать детерминированными функциями. Эти явления, подверженные случайным флуктуациям, требуют иного математического аппарата — теории случайных процессов (СП). Случайный процесс — это не просто набор случайных величин, а их эволюция во времени или пространстве, что делает его ключевым инструментом для анализа динамических систем, подверженных неопределенности.

Актуальность изучения корреляционной теории обусловлена ее центральной ролью в анализе систем второго порядка. Именно второй момент процесса — корреляционная функция — позволяет нам понять, как статистически связаны значения процесса в разные моменты времени, не требуя при этом знания полного (часто недоступного) многомерного закона распределения. В радиотехнике, например, корреляционная теория служит основой для проектирования оптимальных фильтров, оценки помехоустойчивости и обнаружения слабых сигналов на фоне шума. И что из этого следует? Это означает, что без строгого понимания корреляционных связей невозможно создать алгоритмы, которые смогут эффективно отделить полезную информацию от хаотических помех, что является краеугольным камнем современной цифровой связи и локации.

Данная работа ставит своей целью не просто обзор, а строгое, академически выверенное изложение математических основ корреляционной теории, включая условия существования ключевых моментов, критерии эргодичности и дифференцируемости, а также формулировку фундаментальной теоремы Винера-Хинчина.

Математический аппарат и классификация случайных процессов

Строгое определение и фазовое пространство

Случайный процесс (СП), или стохастический процесс, представляет собой одну из наиболее сложных, но и наиболее мощных конструкций в теории вероятностей.

Строгое определение: Случайный процесс $X(t)$ — это семейство случайных величин $\left\{X(t), t \in T\right\}$, определенных на заданном вероятностном пространстве $(\Omega, \mathcal{A}, \mathbb{P})$, где $T$ — множество индексов (чаще всего, времени), а значения $X(t)$ принимаются в некотором фазовом пространстве $(E, \mathcal{B})$.

Это определение подчеркивает двойственную природу СП:

  1. Для фиксированного $t$: $X(t)$ является обычной случайной величиной, описываемой одномерным законом распределения.
  2. Для фиксированного $\omega \in \Omega$ (элементарного исхода): Функция $X(t, \omega)$ является неслучайной функцией времени, называемой реализацией или траекторией случайного процесса.

Классификация СП основывается на типе множества индексов $T$ и фазового пространства $E$:

  • Если $T$ дискретно (например, $T \subset \mathbb{Z}$), процесс называется случайной последовательностью (дискретное время).
  • Если $T$ непрерывно (например, $T \subset \mathbb{R}$), процесс называется процессом с непрерывным временем.

Стационарность, Эргодичность и Условия Слуцкого

Стационарность и эргодичность являются ключевыми свойствами, позволяющими применять корреляционную теорию и проводить практические измерения.

Стационарность означает инвариантность статистических свойств процесса относительно сдвига начала отсчёта времени.

  1. Стационарный процесс в узком смысле (строгая стационарность): Многомерный закон распределения вероятностей процесса не зависит от выбора начала отсчёта времени, а зависит только от интервалов между выбранными моментами $t_1, t_2, \dots, t_n$.
  2. Стационарный процесс в широком смысле: Более слабое, но чаще используемое на практике требование. Процесс $X(t)$ стационарен в широком смысле, если его математическое ожидание постоянно, $\text{M}[X(t)] = M_x = \text{const}$, а его корреляционная функция зависит только от разности аргументов $\tau = t_2 — t_1$: $R_x(t_1, t_2) = R_x(\tau)$.

Эргодичность — это свойство, которое позволяет заменить трудоемкое усреднение по ансамблю реализаций (статистическое среднее) на усреднение по времени одной достаточно длинной реализации. Это критически важно для инженерных приложений, где обычно доступна только одна траектория процесса.

Определение Эргодичности: Эргодический случайный процесс — это процесс, для которого статистические характеристики (например, математическое ожидание или дисперсия), определенные путем усреднения по ансамблю реализаций, совпадают с характеристиками, полученными путём усреднения по времени одной реализации (с вероятностью, сколь угодно близкой к единице).

Эргодические в строгом смысле СП всегда являются стационарными.

Условие Слуцкого (1938 г.)

Для стационарного в широком смысле случайного процесса $X(t)$, ключевым критерием эргодичности по математическому ожиданию является **Условие Слуцкого**. Оно связывает возможность замены ансамблевого среднего на временное среднее с поведением корреляционной функции на бесконечности.

Необходимое и достаточное условие эргодичности по математическому ожиданию:
Для стационарного в широком смысле центрированного процесса $X(t)$ (то есть $M_x = 0$) с корреляционной функцией $\Psi_{X}(\tau) = R_x(\tau)$ необходимо и достаточно, чтобы:


limT → ∞ (1 / T) ∫0T ΨX(τ) dτ = 0

Данное условие, по сути, является формой закона больших чисел для случайных процессов и означает, что "хвост" корреляционной функции должен достаточно быстро стремиться к нулю, так чтобы среднее значение корреляции за бесконечно большой промежуток времени также стремилось к нулю. Если это условие не выполняется, то процесс сохраняет "память" о своем начальном состоянии, и временное усреднение не может дать истинное ансамблевое среднее. Разве это не означает, что любое практическое измерение, основанное на ограниченном временном интервале, будет искажено, если корреляционная функция затухает слишком медленно?

Пример неэргодического процесса: Рассмотрим процесс $U(t) = X(t) + v$, где $X(t)$ — эргодический процесс с $M[X(t)]=0$, а $v$ — случайная величина, не зависящая от $t$.

  • Ансамблевое среднее: $M[U(t)] = M[X(t)] + M[v] = 0 + M_v$.
  • Временное среднее (для конкретной реализации $v=v_0$): $lim_{T \to \infty} (1 / T) \int_{0}^{T} U(t) dt = lim_{T \to \infty} (1 / T) \int_{0}^{T} X(t) dt + v_0$.

Поскольку $X(t)$ эргодичен, $lim_{T \to \infty} (1 / T) \int_{0}^{T} X(t) dt = M[X(t)] = 0$.
Следовательно, временное среднее равно $v_0$. Так как $v_0$ — случайная величина (разная для разных реализаций), она не совпадает с $M_v$, и процесс $U(t)$ неэргодичен.

Основные моментные функции и условия их существования

Для анализа случайных процессов наиболее важны моментные функции первого и второго порядка, которые описывают основные тенденции и степень разброса процесса.

Математическое ожидание и дисперсия

Математическое ожидание и дисперсия являются простейшими характеристиками, описывающими одномерные свойства процесса.

Математическое ожидание (Первый момент):


Mx(t) = M[X(t)] = ∫-∞ x f1(x; t) dx

Это неслучайная функция времени, которая показывает среднее значение, вокруг которого группируются реализации процесса в момент $t$.

Условие существования: Для существования математического ожидания $M_x(t)$ в любой момент времени $t$ необходимо и достаточно, чтобы математическое ожидание модуля процесса было конечным: $M[|X(t)|] < \infty$. Дисперсия (Центральный момент второго порядка):


Dx(t) = M[(X(t) - Mx(t))2]

Дисперсия характеризует степень разброса (флуктуаций) реализаций процесса $X(t)$ относительно его среднего значения $M_x(t)$ в момент времени $t$.

Ковариационная функция и Гильбертов процесс

Ковариационная функция — это ключевой инструмент, измеряющий линейную статистическую связь между двумя сечениями процесса.

Ковариационная функция:


Kx(t1, t2) = M[(X(t1) - Mx(t1))(X(t2) - Mx(t2))]

Она численно равна ковариации между случайными величинами $X(t_1)$ и $X(t_2)$.

Условие существования моментов второго порядка:
Для существования дисперсии и ковариационной функции необходимо и достаточно, чтобы существовал второй момент:


M[X2(t)] < ∞ для всех t ∈ T

Случайный процесс, удовлетворяющий этому условию, называется процессом с конечным моментом второго порядка или **Гильбертовым случайным процессом**. Вся корреляционная теория, включая стационарность в широком смысле, применима только к Гильбертовым процессам.

Корреляционная функция: Свойства и критерий положительной полуопределенности

Определение и физическая интерпретация

Корреляционная функция, или автокорреляционная функция (АКФ), является фундаментальной характеристикой второго порядка.

Определение: Автокорреляционная функция $R_x(t_1, t_2)$ — это неслучайная функция:
$$ R_x(t_1, t_2) = M[X(t_1)X(t_2)] $$
Она характеризует степень линейной статистической зависимости между двумя сечениями случайного процесса $X(t_1)$ и $X(t_2)$.

Для стационарного в широком смысле процесса АКФ зависит только от временного сдвига $\tau = t_2 - t_1$: $R_x(\tau)$.

Физическая интерпретация: Значение $R_x(\tau)$ показывает, насколько сильно текущее значение процесса $X(t)$ влияет на его будущее значение $X(t+\tau)$. Чем быстрее $R_x(\tau)$ стремится к нулю с ростом $|\tau|$, тем быстрее "забывается" прошлое состояние процесса, и тем меньше статистическая зависимость между его отсчетами.

Фундаментальные математические свойства

Корреляционная функция стационарного в широком смысле процесса $R_x(\tau)$ обладает рядом строгих математических свойств:

Свойство Формулировка Математическое выражение
Связь с дисперсией Максимальное значение АКФ достигается при $\tau=0$ и равно среднему квадрату процесса. $R_x(0) = M[X^{2}(t)]$. Если $M_x = 0$, то $R_x(0) = D_x$.
Симметричность (Чётность) АКФ является чётной функцией временного сдвига. $R_x(\tau) = R_x(-\tau)$.
Ограниченность АКФ не может превышать своего значения при нулевом сдвиге. $|R_x(\tau)| \le R_x(0)$.
Ограниченность (Общий вид) Модуль корреляционной функции не превосходит произведения среднеквадратичных отклонений. $|R_{x}(t_{1}, t_{2})| \le \sigma_{x}(t_{1})\sigma_{x}(t_{2})$.

Критерий положительной полуопределенности

Наиболее глубоким и важным математическим свойством корреляционной функции является ее **положительная полуопределённость**. Это свойство является не просто формальным, а краеугольным камнем, гарантирующим физическую реализуемость процесса.

Строгое определение (Положительная полуопределённость):
Корреляционная функция $R_x(t_1, t_2)$ является положительно определённой, если для любого набора моментов времени $t_1, t_2, \dots, t_n$ и любых комплексных чисел $z_1, z_2, \dots, z_n$ выполняется неравенство:

Σi=1n Σj=1n zi zj* Rx(ti, tj) ≥ 0

Это условие гарантирует, что любая ковариационная матрица, построенная на базе сечений процесса, является положительно полуопределенной, что необходимо для того, чтобы процесс имел действительный спектр мощности.

Эквивалентность с неотрицательностью спектральной плотности:
Для стационарного в широком смысле процесса свойство положительной полуопределенности **эквивалентно** тому, что его спектральная плотность мощности $S_x(\omega)$, полученная преобразованием Фурье, является **неотрицательной** для всех частот $\omega$. Иными словами, $S_{x}(\omega) \ge 0$ для всех $\omega \in (-\infty, \infty)$. Это имеет глубокий физический смысл: мощность не может быть отрицательной. Следовательно, если некоторая функция $R(\tau)$ не является положительно полуопределенной, то она не может быть корреляционной функцией реально существующего физического случайного процесса.

Примеры: Экспоненциально коррелированный процесс

В качестве классического примера, широко используемого в радиофизике и моделировании шумов, рассмотрим экспоненциально коррелированный процесс (например, Марковский процесс первого порядка).

Корреляционная функция такого процесса затухает по экспоненциальному закону:


Rx(τ) = Dx e-α |τ|

где $D_x$ — дисперсия процесса, а $\alpha > 0$ — параметр, обратный времени корреляции.
Эта функция является четной, ограничена $D_x$ и, что важно, является положительно полуопределенной. Она моделирует процессы, где корреляция быстро, но плавно, исчезает со временем, как это происходит, например, с тепловыми шумами в узкополосных системах.

Теорема Винера-Хинчина и спектральная плотность

Корреляционная теория достигает своего апогея в частотной области через фундаментальную **теорему Винера-Хинчина**, которая устанавливает неразрывную связь между временной и частотной характеристиками стационарного процесса.

Формулировка теоремы и преобразования Фурье

Теорема Винера-Хинчина утверждает, что автокорреляционная функция $R_x(\tau)$ и спектральная плотность мощности $S_x(\omega)$ стационарного в широком смысле случайного процесса составляют пару преобразований Фурье.

Прямое преобразование (Спектральная плотность):


Sx(ω) = ∫-∞ Rx(τ) e-iωτ

Обратное преобразование (Корреляционная функция):


Rx(τ) = (1 / 2π) ∫-∞ Sx(ω) eiωτ

Эта теорема позволяет анализировать стационарный процесс как в области времени (через $R_x(\tau)$), что важно для оценки задержек и памяти системы, так и в области частот (через $S_x(\omega)$), что необходимо для фильтрации, спектрального анализа и оценки мощности.

Условие существования классического преобразования

Важно отметить, что приведенные интегралы Фурье существуют в классическом смысле не для любого стационарного процесса. Требуется соблюдение строгого математического условия.

Условие абсолютной интегрируемости:
Для того чтобы интеграл прямого преобразования Фурье существовал в классическом смысле, необходимо, чтобы автокорреляционная функция $R_x(\tau)$ была **абсолютно интегрируемой** на всей оси:

-∞ |Rx(τ)| dτ < ∞

Если это условие не выполняется (например, для процессов, содержащих периодическую составляющую, где $R_x(\tau)$ не затухает), то преобразование Фурье должно рассматриваться в более общем смысле — в смысле обобщенных функций или распределений (например, с использованием дельта-функции Дирака).

Физический смысл спектральной плотности

Спектральная плотность мощности $S_x(\omega)$ является неотрицательной величиной ($S_x(\omega) \ge 0$) и имеет точный физический смысл.

Если проинтегрировать спектральную плотность по всем частотам, мы получим среднюю мощность процесса, которая, как мы помним, равна $R_x(0)$:


Rx(0) = (1 / 2π) ∫-∞ Sx(ω) dω

Таким образом, $S_x(\omega)$ трактуется как **мера распределения средней мощности случайного процесса по частотам**. Высокие значения $S_x(\omega)$ на определенной частоте $\omega_0$ указывают на то, что на этой частоте сосредоточена большая доля энергии (мощности) процесса.

Операции над случайными функциями: Строгие критерии дифференцируемости

При анализе динамических систем (например, в физике или радиотехнике) часто возникает необходимость вычислить производную или интеграл от случайного процесса. Эти операции должны быть определены в строгом вероятностном смысле. Наиболее часто используется **среднеквадратичный смысл (с.к.)**.

Критерий дифференцируемости в среднеквадратичном смысле

Процесс $X(t)$ называется дифференцируемым в среднеквадратичном смысле, если существует такой процесс $X'(t)$, что


limΔt → 0 M [ ((X(t+Δt) - X(t)) / Δt - X'(t))2 ] = 0

Для Гильбертовых процессов существует элегантный и строгий критерий дифференцируемости, зависящий исключительно от ковариационной функции $K_x(t_1, t_2)$.

Необходимое и достаточное условие дифференцируемости в с.к.:
Случайный процесс $X(t)$ дифференцируем в среднеквадратичном смысле в точке $t$ тогда и только тогда, когда:

  1. Математическое ожидание $M_x(t)$ дифференцируемо.
  2. Существует конечная вторая смешанная частная производная его ковариационной функции $K_x(t_1, t_2)$ при совпадающих аргументах $t_1 = t_2 = t$:

    (∂2 Kx(t1, t2) / ∂t1 ∂t2) |t1 = t2 = t < ∞

Например, если процесс стационарен, его ковариационная функция $K_x(\tau)$ совпадает с $R_x(\tau)$ (если процесс центрирован). Критерий сводится к существованию конечной второй про��зводной $R_x''(\tau)$ при $\tau=0$. Если $R_x(\tau)$ имеет "острый пик" при $\tau=0$ (например, как у экспоненциально коррелированного процесса $R_{x}(\tau) = D_{x} e^{-\alpha |\tau|}$), то вторая производная в нуле не существует, и процесс недифференцируем в среднеквадратичном смысле. Это ключевой момент, который указывает на невозможность применения классических методов анализа Фурье, поскольку гладкость процесса напрямую связана с гладкостью его корреляционной функции.

Корреляционная функция производной

Если стационарный процесс $X(t)$ дифференцируем в с.к., его производная $X'(t)$ также является стационарным процессом. Характеристики производной определяются через характеристики исходного процесса.

  1. Математическое ожидание производной:

    M[X'(t)] = d / dt M[X(t)]

    Для стационарного процесса $M[X(t)] = \text{const}$, следовательно, $M[X'(t)] = 0$.
  2. Корреляционная функция производной:
    Корреляционная функция производной $R_{X'}(\tau)$ равна второй производной от корреляционной функции исходного процесса, взятой со знаком минус:

    RX'(τ) = -d2 / dτ2 Rx(τ) = - Rx''(τ)
  3. Взаимная корреляционная функция процесса и его производной:
    Она связывает исходный процесс и его производную:

    RX X'(τ) = M[X(t)X'(t+τ)] = d / dτ Rx(τ) = Rx'(τ)

Интегрирование случайной функции

Операция интегрирования также определяется в среднеквадратичном смысле. Рассмотрим случайный процесс $Y(t)$, полученный интегрированием стационарной случайной функции $X(t)$ (например, центрированной, $M_x = 0$):


Y(t) = ∫0t X(s) ds

Хотя исходный процесс $X(t)$ стационарен, интегрированный процесс $Y(t)$, как правило, является **нестационарным**. Это легко показать через его дисперсию:


D[Y(t)] = M[Y2(t)] = M[∫0t X(s1) ds10t X(s2) ds2] = ∫0t0t Rx(s1 - s2) ds1 ds2

Полученная дисперсия $D[Y(t)]$ зависит от верхнего предела интегрирования $t$. Поскольку дисперсия не является константой, процесс $Y(t)$ не удовлетворяет условию стационарности в широком смысле. Классическим примером является Винеровский процесс (интеграл от Белого Шума), дисперсия которого растет линейно со временем: $D[Y(t)] = \sigma^2 t$.

Прикладное значение корреляционного анализа в инженерии

Корреляционная теория служит математическим каркасом для значительной части статистической радиотехники, теории связи и обработки сигналов, позволяя перейти от абстрактных вероятностных моделей к конкретным инженерным расчетам.

Анализ шумов и флуктуаций в радиотехнике

В радиотехнике любая система подвержена влиянию случайных флуктуаций — шумов (тепловые, дробовые, атмосферные). Корреляционный анализ позволяет:

  1. Моделировать шумы: Форма корреляционной функции (и соответствующей ей спектральной плотности) полностью определяет статистические свойства шума второго порядка. Например, узкополосные шумы имеют медленно затухающую, осциллирующую АКФ, тогда как широкополосные шумы затухают быстро.
  2. Оценивать помехоустойчивость: Зная корреляционную функцию шума, можно рассчитать его мощность, проходящую через фильтры системы, и, соответственно, оценить отношение сигнал/шум.

Идеализированный процесс: Свойства Белого Шума

Концепция Белого Шума (БШ) является идеализированным, но крайне важным теоретическим пределом в корреляционной теории.

Определение Белого Шума: Белый шум — это стационарный случайный процесс, который имеет одинаковую спектральную плотность мощности на всех частотах.

  • Спектральная плотность (const): $S_{n}(\omega) = N_0 / 2$, где $N_0$ — двусторонняя спектральная плотность.
  • Корреляционная функция (Дельта-функция): Согласно теореме Винера-Хинчина, обратное преобразование Фурье от константы дает дельта-функцию Дирака:

    Rn(τ) = (N0 / 2) δ(τ)

    Это означает, что любые два отсчета Белого Шума, взятые в разные моменты времени ($\tau \ne 0$), статистически абсолютно некоррелированы. Флуктуации Белого Шума не имеют "памяти".

В реальности Белый Шум не существует (так как имел бы бесконечную мощность $R_{n}(0) = \infty$), но он служит отличной аппроксимацией широкополосных шумов, например, теплового шума, в пределах рабочей полосы частот системы.

Корреляционный метод обнаружения сигналов

Одно из наиболее практических применений корреляционной теории — это использование **корреляционных приёмников** для обнаружения и оценки параметров сигнала, погруженного в шум.

Принцип основан на использовании **взаимной корреляционной функции** между принятым сигналом $Y(t)$ (сигнал $S(t)$ плюс шум $N(t)$) и его эталоном $S_{эт}(t)$.


RY Sэт(τ) = M[Y(t) Sэт(t-τ)]

Если шум $N(t)$ некоррелирован с сигналом $S(t)$ и является Белым Шумом, то взаимная корреляция с шумом будет стремиться к нулю. В результате, взаимная корреляционная функция будет повторять форму автокорреляционной функции сигнала $S(t)$, максимумы которой указывают на наилучшее совпадение (обнаружение).

В радиолокации, например, корреляционные методы позволяют точно оценить время задержки (а значит, и расстояние до цели) путем поиска максимума взаимной корреляционной функции между зондирующим импульсом и его отражением. Корреляционный приемник, по сути, выполняет операцию, которая **оптимальна** по критерию максимума отношения сигнал/шум.

Заключение

Изучение теории случайных процессов, особенно в контексте корреляционного анализа, представляет собой необходимый этап для любого специалиста, работающего с динамическими системами, подверженными неопределенности.

Мы дали строгое математическое определение СП, определили условия стационарности и подчеркнули критическую важность **Условия Слуцкого** для установления эргодичности — свойства, позволяющего проводить практические измерения. Центральным звеном работы стал углубленный анализ автокорреляционной функции $R_x(\tau)$, где мы строго сформулировали ее фундаментальные свойства, включая **критерий положительной полуопределенности** и его эквивалентность неотрицательности спектральной плотности $S_x(\omega) \ge 0$.

Ключевым результатом теории является **теорема Винера-Хинчина**, которая служит мостом между временным и частотным анализом, позволяя инженерам эффективно проектировать системы фильтрации. Наконец, мы рассмотрели строгие критерии для операций над случайными функциями, в частности, **критерий дифференцируемости в среднеквадратичном смысле**, зависящий от существования второй смешанной производной ковариационной функции. Это знание критически важно для корректного моделирования динамических процессов, где скорость изменения (производная) не всегда может быть определена классическим образом.

Дальнейшее изучение теории может быть сфокусировано на частных классах случайных процессов: Гауссовских (где АКФ полностью определяет все статистические свойства), Марковских и Пуассоновских процессах, а также на применении аппарата линейного оценивания (фильтр Винера-Колмогорова), которое основано исключительно на корреляционной теории.

Список использованной литературы

  1. Тимошенко Е. И. Теория вероятностей : учеб. пособие / Е. И. Тимошенко, Ю. Е. Воскобойников. – Новосибирск : НГАС, 1998. – 68 с.
  2. Воскобойников Ю. Е. Математическая статистика : учеб. пособие / Ю. Е. Воскобойников, Е. И. Тимошенко. – Новосибирск : Наука, 1996. – 99 с.
  3. Гмурман В. Е. Руководство к решению задач по теории вероятностей и математической статистике / В. Е. Гмурман. – Москва : Высшая школа, 1979. – 400 с.
  4. Гмурман В. Е. Теория вероятностей и математическая статистика / В. Е. Гмурман. – Москва : Высшая школа, 1997. – 479 с.
  5. Боровков А. А. Теория вероятностей / А. А. Боровков. – Москва : Наука, 1976. – 354 с.
  6. Боровков А. А. Математическая статистика / А. А. Боровков. – Москва : Наука, 1984. – 472 с.
  7. Корреляционная функция случайного процесса [Электронный ресурс]. URL: https://studfile.net/ (дата обращения: 09.10.2025).
  8. Свойства корреляционных функций [Электронный ресурс]. URL: https://studfile.net/ (дата обращения: 09.10.2025).
  9. Винера-хинчина теорема [Электронный ресурс]. URL: https://femto.com.ua/ (дата обращения: 09.10.2025).
  10. Tеорема Винера-Хинчина [Электронный ресурс]. URL: https://studfile.net/ (дата обращения: 09.10.2025).
  11. Теория случайных процессов : Томский государственный университет [Электронный ресурс]. URL: https://tsu.ru/ (дата обращения: 09.10.2025).
  12. Корреляционная ф-я является положительно определённой функцией [Электронный ресурс]. URL: https://studfile.net/ (дата обращения: 09.10.2025).
  13. Общие сведения о случайных процессах [Электронный ресурс]. URL: https://donstu.ru/ (дата обращения: 09.10.2025).
  14. Осредненные характеристики случайного процесса [Электронный ресурс]. URL: https://dgu.ru/ (дата обращения: 09.10.2025).
  15. Система случайных процессов, корреляционная функция связи [Электронный ресурс]. URL: https://rshu.ru/ (дата обращения: 09.10.2025).
  16. Производная случайной функции и ее характеристики [Электронный ресурс]. URL: https://studme.org/ (дата обращения: 09.10.2025).
  17. Теорема Винера-Хинчина [Электронный ресурс]. URL: https://siblec.ru/ (дата обращения: 09.10.2025).
  18. Параметры и характеристики случайных процессов [Электронный ресурс]. URL: https://narod.ru/ (дата обращения: 09.10.2025).
  19. Производная от случайной функции [Электронный ресурс]. URL: https://scask.ru/ (дата обращения: 09.10.2025).
  20. Характеристики и свойства случайного процесса [Электронный ресурс]. URL: https://spbu.ru/ (дата обращения: 09.10.2025).
  21. Корреляционная функция производной стационарной случайной функции [Электронный ресурс]. URL: https://studfile.net/ (дата обращения: 09.10.2025).
  22. Некоторые понятия теории случайных процессов. Классификация случайных процессов [Электронный ресурс]. URL: https://sgu.ru/ (дата обращения: 09.10.2025).
  23. Характеристики производной от случайной функции [Электронный ресурс]. URL: https://studfile.net/ (дата обращения: 09.10.2025).
  24. Случайные процессы и математическая статистика [Электронный ресурс]. URL: https://msu.ru/ (дата обращения: 09.10.2025).
  25. СЛУЧАЙНЫЕ ПРОЦЕССЫ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [Электронный ресурс]. URL: https://klgtu.ru/ (дата обращения: 09.10.2025).
  26. Корреляционная функция интеграла от стационарной случайной функции [Электронный ресурс]. URL: https://studme.org/ (дата обращения: 09.10.2025).

Похожие записи