В мире, где экономические процессы непрерывно взаимодействуют, а рынки чутко реагируют на изменения множества факторов, способность количественно оценивать эти взаимосвязи становится не просто желательной, а критически необходимой. Сегодня, когда объемы данных экспоненциально растут, а конкуренция требует высокой точности в прогнозировании и принятии решений, освоение эконометрических методов является фундаментом для любого аналитика или экономиста. Именно поэтому регрессионный и корреляционный анализы выступают краеугольными камнями в арсенале студента-экономиста, стремящегося к глубокому пониманию динамики рынков и поведения экономических агентов.
Целью данной работы является не просто ознакомление с этими мощными инструментами, а их всестороннее и глубокое осмысление, необходимое для написания полноценной и научно обоснованной курсовой работы. Мы погрузимся в математические основы, изучим нюансы интерпретации, рассмотрим практические шаги по построению моделей и, что особенно важно, разберем потенциальные «подводные камни», связанные с нарушением классических предпосылок. В конечном итоге, вы получите не только теоретические знания, но и методологическую базу, которая позволит вам уверенно применять эти методы для анализа реальных экономических данных и формирования обоснованных выводов.
Понятие регрессии и корреляции: основы, отличия и роль в экономике
В основе эконометрического моделирования лежат два взаимодополняющих, но принципиально разных подхода к изучению взаимосвязей между переменными: регрессионный и корреляционный анализы. Оба они призваны пролить свет на характер и степень зависимости экономических показателей, однако делают это с разными целями и с помощью разных аналитических инструментов. Понимание их фундаментальных различий позволяет правильно выбирать метод для решения конкретных экономических задач.
Регрессионный анализ: определение, цели и виды
Регрессионный анализ — это мощный статистический метод, предназначенный для исследования зависимости среднего значения одной переменной, называемой зависимой (или объясняемой, результативным признаком, откликом, эндогенной переменной), от одной или нескольких других переменных, именуемых независимыми (или объясняющими, факторами, предикторами, регрессорами, экзогенными переменными). Суть регрессии не просто в констатации наличия связи, а в её количественном описании и моделировании.
Основные цели регрессионного анализа:
- Установление формы зависимости: Выяснение, как именно изменяется зависимая переменная при изменении независимых, то есть определение математического вида функции регрессии (линейная, нелинейная, логарифмическая и т.д.).
- Оценка воздействия факторов: Количественная оценка степени влияния каждого фактора на зависимую переменную. Например, как увеличение расходов на рекламу на один процент повлияет на объем продаж в денежном выражении.
- Прогнозирование: Использование построенной модели для предсказания будущих или неизвестных значений зависимой переменной на основе известных или предполагаемых значений независимых факторов.
В эконометрике, где между экономическими переменными чаще всего существуют статистические (стохастические) зависимости, а не строгие функциональные, регрессия становится незаменимым инструментом. Она помогает учесть случайные отклонения, вызванные неконтролируемыми или неучтенными факторами, которые в совокупности образуют случайную ошибку (ε, остаток, невязка). Эта ошибка представляет собой случайное отклонение от предсказанной моделью линии или плоскости регрессии.
Примером применения линейной регрессии может служить анализ зависимости между уровнем дохода населения и уровнем его потребления. Модель позволит оценить, на сколько единиц в среднем возрастает потребление при увеличении дохода на единицу, что имеет критическое значение для формирования макроэкономической политики или маркетинговых стратегий.
Корреляционный анализ: определение, характеристики и применение
В отличие от регрессии, корреляционный анализ не ставит своей целью построение уравнения для прогнозирования, а фокусируется на выявлении и измерении тесноты (силы) и направления линейной связи между двумя или более переменными. Он отвечает на вопрос: «Насколько сильно и в каком направлении связаны эти две переменные?».
Парный коэффициент корреляции — это ключевой показатель в корреляционном анализе, который характеризует тесноту линейной зависимости между двумя переменными (например, X и Y) на фоне действия всех остальных показателей, входящих в модель. Его значение всегда находится в диапазоне от -1 до +1:
- +1: Идеальная прямая линейная зависимость (с увеличением X, Y также увеличивается).
- -1: Идеальная обратная линейная зависимость (с увеличением X, Y уменьшается).
- 0: Отсутствие линейной связи. Важно отметить, что отсутствие линейной связи не означает полного отсутствия какой-либо связи; она может быть нелинейной.
| Значение коэффициента корреляции | Интерпретация силы связи |
|---|---|
| ±0.0 до ±0.2 | Очень слабая |
| ±0.2 до ±0.5 | Слабая |
| ±0.5 до ±0.7 | Умеренная |
| ±0.7 до ±0.9 | Сильная |
| ±0.9 до ±1.0 | Очень сильная |
В экономике корреляционный анализ имеет широкое применение. Например, он может быть использован для исследования взаимосвязи между уровнем безработицы и инфляцией (так называемая кривая Филлипса), где ожидается обратная связь. Или же для выявления связи между пользовательским поведением на сайте (например, время, проведенное на странице) и конверсией в электронной коммерции. В маркетинге, корреляционный анализ помогает оптимизировать рекламные кампании, изучая связь между временем показа рекламы и показателем кликабельности, позволяя выявить наиболее эффективные временные интервалы.
Когда необходимо изучить взаимосвязи сразу с несколькими (более двух) наборами данных, применяется коэффициент множественной корреляции, который показывает тесноту связи зависимой переменной со всей совокупностью независимых переменных. Примером может быть анализ финансового состояния предприятия, где различные финансовые показатели (рентабельность, ликвидность) могут коррелировать с рыночной стоимостью компании.
Фундаментальные отличия регрессии от корреляции
Несмотря на тесную взаимосвязь, регрессия и корреляция преследуют разные цели и предоставляют различную информацию:
- Корреляция — это мера силы и направления линейной связи между переменными. Она симметрична: корреляция X с Y такая же, как Y с X. Корреляция не подразумевает причинно-следственную связь, а лишь констатирует совместную изменчивость.
- Регрессия — это метод для моделирования зависимости одной переменной (зависимой) от другой (независимой) и для прогнозирования. Она асимметрична: мы четко выделяем зависимую и независимую переменные, устанавливая направление «влияния» (даже если оно статистическое, а не причинное). Регрессия позволяет предсказать значение одной переменной при изменении другой, описывая эту связь с помощью уравнения.
В регрессионном анализе ключевое значение имеет различение переменных:
- Зависимая переменная (Y, эндогенная): Переменная, значение которой мы пытаемся объяснить или предсказать.
- Независимая переменная (X, экзогенная): Переменная, используемая для объяснения или предсказания зависимой. Считается, что её значения влияют на Y.
Таким образом, если корреляция говорит нам, *насколько* сильно движутся две переменные вместе, то регрессия говорит *как именно* (с помощью какого уравнения) одна переменная движется в ответ на другую. Это различие принципиально для адекватного понимания механизмов взаимодействия экономических явлений.
Ключевые термины и понятия
Для глубокого понимания регрессионного и корреляционного анализа необходимо четкое осмысление ряда базовых терминов:
- Ковариация (Cov(X, Y)): Мера совместного изменения двух случайных величин. Положительная ковариация указывает на тенденцию переменных изменяться в одном направлении, отрицательная — в противоположных. Нулевая ковариация означает отсутствие линейной взаимосвязи. В отличие от коэффициента корреляции, ковариация зависит от единиц измерения переменных.
- Случайная ошибка (ε, остаток, невязка): Разница между фактическим (наблюдаемым) значением зависимой переменной (Yi) и значением, предсказанным моделью (Ŷi). Она включает в себя влияние всех неучтенных в модели факторов, случайные шумы и неточности измерения.
- Коэффициенты регрессии (β1, β2 или b1, b2): Численные значения, рассчитанные в ходе анализа, которые показывают, как в среднем изменится зависимая переменная при изменении независимой переменной на единицу.
- b2 (коэффициент наклона): Показывает, на сколько единиц в среднем изменится Y при увеличении X на одну единицу.
- b1 (свободный член, константа, пересечение): Формально определяет оценку зависимой переменной Y, когда все независимые переменные равны нулю. Его экономическая интерпретация не всегда имеет прямой смысл и зависит от контекста.
Понимание этих фундаментальных концепций является необходимым условием для дальнейшего погружения в математический аппарат и практическое применение регрессионного и корреляционного анализа.
Парная линейная регрессия: модель, математические основы и оценивание параметров
После ознакомления с общими принципами перейдем к детальному изучению одной из самых базовых и широко используемых моделей — парной линейной регрессии. Она служит отправной точкой для понимания более сложных эконометрических построений и является фундаментом для многих практических исследований.
Модель парной линейной регрессии: уравнение и компоненты
Модель парной линейной регрессии описывает линейную зависимость между одной зависимой переменной (Y) и одной независимой переменной (X). Она является «парной», поскольку включает всего две переменные.
Истинное уравнение парной линейной регрессии для генеральной совокупности имеет вид:
Yi = β1 + β2Xi + εi
Где:
- Yi — i-е наблюдение зависимой переменной (например, объем продаж).
- Xi — i-е наблюдение независимой переменной (например, расходы на рекламу).
- β1 — истинный свободный член (пересечение с осью Y). Он представляет среднее значение Y, когда X равно нулю. Его экономический смысл требует осторожности и контекста.
- β2 — истинный коэффициент регрессии (наклон линии). Это центральная характеристика, показывающая, на сколько единиц в среднем изменится Y при увеличении X на одну единицу. Если β2 > 0, связь прямая; если β2 < 0, связь обратная.
- εi — случайный член (ошибка, остаток) для i-го наблюдения. Он отражает влияние всех неучтенных факторов, случайных возмущений и ошибок измерения, которые влияют на Y, но не связаны с X.
Важно понимать, что параметры β1 и β2 являются истинными, но неизвестными значениями генеральной совокупности. Наша задача, используя выборочные данные, получить их оценки. Оцененное уравнение регрессии, построенное на основе выборочных данных, обозначается как:
Ŷi = b1 + b2Xi
Где:
- Ŷi — предсказанное (теоретическое) значение зависимой переменной для i-го наблюдения.
- b1 — выборочная оценка свободного члена β1.
- b2 — выборочная оценка коэффициента регрессии β2.
Эти оценки (b1 и b2) стремятся наилучшим образом аппроксимировать истинные параметры генеральной совокупности на основе имеющихся данных.
Метод наименьших квадратов (МНК): принцип и вывод формул
Наиболее распространенным и фундаментальным методом для оценки параметров линейных регрессий является Метод Наименьших Квадратов (МНК), или Ordinary Least Squares (OLS). Его популярность обусловлена простотой, интуитивной понятностью и желаемыми статистическими свойствами оценок, при условии выполнения определенных предпосылок.
Принцип МНК:
Цель МНК заключается в нахождении таких оценок параметров b1 и b2, которые минимизируют сумму квадратов отклонений фактических (наблюдаемых) значений зависимой переменной (Yi) от теоретических (предсказанных) значений (Ŷi). Эти отклонения называются остатками (ei = Yi — Ŷi).
Математически это выражается так:
Σi=1n (Yi - Ŷi)2 → min
Поскольку Ŷi = b1 + b2Xi, мы хотим минимизировать:
Σi=1n (Yi - (b1 + b2Xi))2 → min
Для нахождения значений b1 и b2, которые минимизируют эту сумму, мы используем методы дифференциального исчисления. Мы берем частные производные по b1 и b2, приравниваем их к нулю и решаем получившуюся систему нормальных уравнений.
Вывод формул для оценок параметров МНК:
После алгебраических преобразований, решение системы нормальных уравнений приводит к следующим формулам для расчета оценок b1 и b2:
- Оценка коэффициента наклона b2:
b2 = Cov(X, Y) / Var(X)где Cov(X, Y) — выборочная ковариация между X и Y, а Var(X) — выборочная дисперсия X.
В развернутом виде, используя суммы, эти формулы выглядят так:
b2 = ( Σi=1n XiYi - n X̄Ȳ ) / ( Σi=1n Xi2 - n X̄2 )Или, что эквивалентно:
b2 = Σi=1n (Xi - X̄)(Yi - Ȳ) / Σi=1n (Xi - X̄)2 - Оценка свободного члена b1:
b1 = Ȳ - b2X̄Где X̄ и Ȳ — выборочные средние значения X и Y соответственно.
Эти формулы позволяют напрямую рассчитать оценки параметров регрессии b1 и b2 на основе наблюдаемых данных.
Статистические свойства оценок МНК: теорема Гаусса-Маркова
Несомненная привлекательность МНК обусловлена не только его простотой, но и желаемыми статистическими свойствами оценок, которые гарантируются при выполнении ряда предпосылок, известных как предпосылки Гаусса-Маркова. Если эти предпосылки выполняются, то оценки b1 и b2, полученные с помощью МНК, являются Наилучшими Линейными Несмещенными Оценками (НЛНО), что сокращенно называется BLUE (Best Linear Unbiased Estimators).
Рассмотрим ключевые свойства:
- Линейность: Оценки b1 и b2 являются линейными функциями наблюдаемых значений зависимой переменной Y. Это означает, что они могут быть выражены как взвешенные суммы Yi.
- Несмещенность (Unbiasedness): Ожидаемое значение каждой оценки МНК равно истинному значению соответствующего параметра генеральной совокупности.
E[b1] = β1
E[b2] = β2Это означает, что, если мы будем повторять процесс выборки и оценивания бесконечное число раз, среднее значение полученных оценок будет точно соответствовать истинному параметру. Смещенность оценок означает систематическую ошибку.
- Эффективность (Efficiency): Оценки МНК имеют наименьшую дисперсию среди всех линейных несмещенных оценок. Это свойство означает, что оценки МНК являются наиболее точными в классе линейных несмещенных оценок, то есть они меньше подвержены случайным колебаниям от выборки к выборке.
- Состоятельность (Consistency): С увеличением объема выборки (n → ∞) оценки МНК стремятся к истинным значениям параметров. Это означает, что при достаточно большом количестве наблюдений наши оценки будут очень близки к истинным значениям параметров.
Эти свойства делают МНК мощным и надежным инструментом для эконометрического анализа, но только при условии, что базовые предпосылки, о которых пойдет речь далее, соблюдаются. Нарушение этих предпосылок может привести к тому, что оценки МНК потеряют свои желаемые свойства, и выводы, сделанные на их основе, окажутся некорректными.
Оценка качества и статистической значимости регрессионной модели
Построение регрессионной модели — это лишь первый шаг. Гораздо важнее оценить её адекватность, надёжность и прогностическую силу. Качественная модель должна не только хорошо описывать существующие данные, но и быть способной давать надёжные прогнозы, а её параметры должны быть статистически значимы.
Коэффициент детерминации (R²): расчет и интерпретация
Коэффициент детерминации (R²) — это один из наиболее важных и широко используемых показателей качества регрессионной модели. Он отражает, какую часть общей изменчивости (дисперсии) зависимой переменной Y можно объяснить с помощью построенной модели, то есть объясняющими переменными. Проще говоря, R² показывает, насколько хорошо независимые переменные (в нашем случае X) объясняют вариацию зависимой переменной (Y).
Формула для расчета коэффициента детерминации:
R² = 1 - SSE / SST
Где:
- SSE (Sum of Squared Errors) — Сумма Квадратов Остатков. Это сумма квадратов отклонений фактических значений Yi от предсказанных моделью Ŷi:
SSE = Σi=1n (Yi - Ŷi)2SSE отражает ту часть вариации зависимой переменной, которая *не объясняется* моделью. Меньшее значение SSE указывает на лучшее соответствие модели данным.
- SST (Total Sum of Squares) — Общая Сумма Квадратов. Это сумма квадратов отклонений фактических значений Yi от их среднего значения Ȳ:
SST = Σi=1n (Yi - Ȳ)2SST отражает общую изменчивость зависимой переменной.
В случае линейной регрессии с константой (то есть, когда в модели присутствует свободный член), SST может быть разложена на две компоненты:
SST = ESS + SSE
Где:
- ESS (Explained Sum of Squares) — Объясненная Сумма Квадратов. Это сумма квадратов отклонений предсказанных значений Ŷi от среднего значения Ȳ:
ESS = Σi=1n (Ŷi - Ȳ)2ESS отражает ту часть вариации зависимой переменной, которая *объясняется* моделью.
Таким образом, коэффициент детерминации можно также представить как:
R² = ESS / SST
Интерпретация значений R²:
- Значение R² всегда находится в диапазоне от 0 до 1 (или от 0% до 100%).
- R² = 0: Модель не объясняет *ничего* из вариации зависимой переменной. Это означает, что независимые переменные никак не связаны с Y в линейной форме.
- R² = 1: Модель объясняет *всю* вариацию зависимой переменной. Это идеальная ситуация, когда все эмпирические точки лежат точно на линии регрессии, и между переменными Y и X существует строгая линейная функциональная зависимость. В экономических исследованиях такое встречается крайне редко.
- R² между 0 и 1: Чем ближе R² к 1, тем выше качество модели и тем лучше модель объясняет вариацию зависимой переменной. В экономических моделях R² часто бывает ниже, чем в естественных науках, из-за стохастического характера экономических данных.
- Для приемлемых моделей предполагается, что R² должен быть хотя бы не меньше 50% (R² ≥ 0.5).
- Модели с R² выше 80% (R² > 0.8) можно признать достаточно хорошими.
Важно отметить, что для модели парной линейной регрессии коэффициент детерминации равен квадрату обычного коэффициента корреляции между Y и X.
Скорректированный R² (Adjusted R²):
При добавлении новых независимых переменных в модель (в случае множественной регрессии) обычный R² *всегда* увеличивается, даже если новые переменные не несут значимой объясняющей силы. Чтобы избежать этого эффекта и получить более объективную оценку прогностической силы, используется скорректированный R². Он учитывает количество независимых переменных и размер выборки, «штрафуя» модель за каждую добавленную переменную. Если скорректированный R² уменьшается при добавлении предиктора, это означает, что новая переменная не улучшает модель значимо, а возможно, даже ухудшает её обобщающую способность.
Проверка статистической значимости коэффициентов регрессии
После оценки параметров модели необходимо выяснить, являются ли эти оценки статистически значимыми, то есть можем ли мы быть уверены, что обнаруженная связь не является результатом случайности в нашей выборке. Для проверки значимости отдельных коэффициентов регрессии используется t-критерий Стьюдента.
Суть проверки:
Проверяется нулевая гипотеза (H0) о том, что истинный коэффициент регрессии (βj) равен нулю против альтернативной гипотезы (H1) о том, что он не равен нулю.
- H0: βj = 0 (j-й независимый фактор не оказывает линейного влияния на Y)
- H1: βj ≠ 0 (j-й независимый фактор оказывает линейное влияние на Y)
Расчет t-статистики:
Для каждого коэффициента bj рассчитывается t-статистика по формуле:
tbj = bj / SE(bj)
Где SE(bj) — стандартная ошибка оценки коэффициента bj, которая показывает, насколько в среднем оценка bj отклоняется от своего истинного значения.
Принятие/отклонение гипотезы:
Расчетное значение t-статистики сравнивается с табличным (критическим) значением t-критерия Стьюдента для заданного уровня значимости (α, обычно 0.05 или 0.01) и числа степеней свободы.
- Если |tрасчетное| > tтабличное (или p-значение < α), то нулевая гипотеза H0 отвергается. Это означает, что коэффициент bj статистически значим, и мы можем с высокой степенью уверенности утверждать, что соответствующая независимая переменная оказывает значимое влияние на зависимую переменную.
- Если |tрасчетное| ≤ tтабличное (или p-значение ≥ α), то нет достаточных оснований отвергнуть H0. Коэффициент считается статистически незначимым, что может указывать на отсутствие линейной связи или на то, что влияние данной переменной недостаточно сильно, чтобы быть обнаруженным на данной выборке.
Проверка статистической значимости модели в целом
Помимо значимости отдельных коэффициентов, крайне важно оценить значимость всей регрессионной модели в целом. Это делается с помощью F-критерия Фишера (или F-статистики), который основан на дисперсионном анализе (ANOVA).
Суть проверки:
Проверяется нулевая гипотеза (H0) о том, что *все* коэффициенты регрессии (за исключением свободного члена) одновременно равны нулю против альтернативной гипотезы (H1) о том, что хотя бы один из них отличен от нуля.
- H0: β2 = 0 (в парной регрессии; в множественной: β2 = β3 = … = βk = 0) — модель в целом статистически незначима, независимые переменные не объясняют вариацию Y.
- H1: Не все βj = 0 — модель в целом статистически значима, по крайней мере одна независимая переменная объясняет вариацию Y.
Расчет F-статистики:
F-статистика рассчитывается как отношение объясненной дисперсии к необъясненной дисперсии:
F = (ESS / dfESS) / (SSE / dfSSE) = (ESS / (k-1)) / (SSE / (n-k))
Где:
- ESS — объясненная сумма квадратов.
- SSE — сумма квадратов остатков.
- dfESS — число степеней свободы для ESS (количество объясняющих переменных, k-1, где k – общее число параметров включая свободный член). Для парной регрессии k-1 = 1.
- dfSSE — число степеней свободы для SSE (n-k, где n — объем выборки, k — количество параметров в модели). Для парной регрессии n-k = n-2.
Принятие/отклонение гипотезы:
Расчетное значение F-критерия сравнивается с табличным (критическим) значением F-распределения для заданного уровня значимости (α) и двух степеней свободы (dfESS и dfSSE).
- Если Fрасчетное > Fтабличное (или p-значение < α), то нулевая гипотеза H0 отвергается. Это означает, что модель в целом статистически значима, и мы можем утверждать, что по крайней мере одна из независимых переменных оказывает значимое влияние на зависимую переменную.
- Если Fрасчетное ≤ Fтабличное (или p-значение ≥ α), то нет достаточных оснований отвергнуть H0. Модель считается статистически незначимой, что указывает на её неспособность объяснить вариацию Y.
Другие важные показатели качества:
- Сумма квадратов остатков (SSE): Как уже упоминалось, меньшее значение SSE указывает на лучшее соответствие модели данным.
- Средняя ошибка аппроксимации: Метрики, такие как Mean Absolute Error (MAE) или Mean Absolute Percentage Error (MAPE), измеряют средний размер ошибки прогноза в абсолютных или процентных величинах.
- Статистика Дарбина-Уотсона (DW): Используется для проверки остатков на автокорреляцию первого порядка (зависимость ошибки текущего периода от ошибки предыдущего).
- Значение DW изменяется в диапазоне от 0 до 4.
- Значение, близкое к 2, говорит об отсутствии автокорреляции.
- Близость к 0 указывает на положительную автокорреляцию (ошибки текущего периода повторяют ошибки предыдущего).
- Близость к 4 указывает на отрицательную автокорреляцию (ошибки текущего периода противоположны ошибкам предыдущего).
- Для более точной оценки DW сравнивается с табличными значениями dL и dU. Однако приближенно, отсутствие статистически значимой автокорреляции остатков может быть признано, если DW находится приблизительно между 1.2-1.3 и 2.7-2.8.
Тщательная оценка всех этих показателей позволяет получить полную картину качества и надежности построенной регрессионной модели.
Допущения классической модели парной линейной регрессии и последствия их нарушения
Метод наименьших квадратов (МНК) является мощным инструментом, но его желаемые свойства (несмещенность, эффективность, состоятельность) гарантированы только при соблюдении ряда строгих условий, известных как предпосылки классической линейной регрессионной модели (КЛМР) или предпосылки Гаусса-Маркова. Нарушение этих допущений может привести к серьезным проблемам с оценками и некорректным статистическим выводам.
Классические предпосылки МНК (Гаусса-Маркова)
Перечислим и кратко объясним основные 7 предпосылок:
- Модель линейна по параметрам и корректно специфицирована:
- Уравнение регрессии должно быть линейным относительно оцениваемых коэффициентов (β1, β2):
Yi = β1 + β2Xi + εi. Это не означает, что переменные сами по себе должны быть линейными (например, X² или log(X) допустимы, если они входят в модель как линейные компоненты). - Модель должна быть корректно специфицирована, то есть все релевантные объясняющие переменные должны быть включены, а нерелевантные исключены.
- Уравнение регрессии должно быть линейным относительно оцениваемых коэффициентов (β1, β2):
- Независимые переменные X являются детерминированными и линейно независимыми:
- Значения X считаются фиксированными в повторных выборках. Это означает, что X не является случайной величиной, или, по крайней мере, некоррелирована со случайным членом.
- В случае множественной регрессии отсутствует идеальная мультиколлинеарность, то есть ни одна объясняющая переменная не является идеальной линейной комбинацией других объясняющих переменных.
- Математическое ожидание случайных ошибок равно нулю:
E[εi] = 0. Это означает, что ошибки не имеют систематического смещения. В среднем, неучтенные факторы не приводят к завышению или занижению предсказанных значений.
- Гомоскедастичность (постоянство дисперсии случайных ошибок):
Var(εi) = σ² = constдля всех наблюдений. Дисперсия случайной ошибки должна быть одинаковой для всех значений независимой переменной X. Иными словами, разброс ошибок вокруг линии регрессии должен быть постоянным по всей её длине.
- Отсутствие автокорреляции случайных ошибок:
Cov(εi, εj) = 0для i ≠ j. Ошибки для разных наблюдений должны быть независимы друг от друга. Это особенно важно для временных рядов, где ошибка в текущий период может быть связана с ошибкой в предыдущий.
- Случайные ошибки имеют нормальное распределение:
εi ∼ N(0, σ²). Это допущение необходимо для того, чтобы статистические тесты (t- и F-критерии) были валидными, а интервальное оценивание (построение доверительных интервалов) было корректным, особенно на малых выборках.
- Отсутствие ошибок измерения в независимых переменных:
- Предполагается, что независимые переменные X измерены без ошибок. Ошибки измерения в X приводят к смещенным и несостоятельным оценкам.
Гетероскедастичность: влияние и диагностика
Гетероскедастичность — это нарушение допущения гомоскедастичности, то есть ситуация, когда дисперсия случайных ошибок не является постоянной, а изменяется в зависимости от значений независимых переменных. Например, разброс ошибок может увеличиваться с ростом дохода.
Влияние на оценки МНК:
- Несмещенность и состоятельность: Оценки МНК остаются несмещенными и состоятельными. То есть, в среднем, они по-прежнему будут близки к истинным значениям параметров, и при увеличении выборки будут стремиться к ним.
- Потеря эффективности: Оценки МНК теряют свою эффективность, то есть перестают быть НЛНО (BLUE). Это означает, что существуют другие линейные несмещенные оценки с меньшей дисперсией, которые дают более точные результаты.
- Смещенные стандартные ошибки: Стандартные ошибки оценок МНК становятся смещенными. Это критически важно, так как именно на стандартных ошибках основаны t- и F-тесты. Если стандартные ошибки смещены, то t- и F-тесты становятся некорректными, и статистические выводы о значимости коэффициентов или модели в целом будут ошибочными. Доверительные интервалы также будут неверными.
Диагностика гетероскедастичности:
- Визуальный анализ диаграммы рассеяния остатков: Построение графика остатков (ei) против предсказанных значений (Ŷi) или против независимой переменной (Xi). При гомоскедастичности точки должны быть распределены случайным образом вокруг нуля, не образуя видимых паттернов. Гетероскедастичность проявляется в виде «конуса» (увеличение разброса) или «песочных часов» (увеличение, затем уменьшение разброса).
- Формальные тесты: Тесты Парка, Глейзера, Уайта, Бройша-Пагана-Годфри и др.
Автокорреляция: влияние и диагностика
Автокорреляция (или последовательная корреляция) — это нарушение допущения об отсутствии корреляции между случайными ошибками. Это означает, что ошибка в одном наблюдении (εi) коррелирует с ошибкой в другом наблюдении (εj), чаще всего в соседних во времени. Автокорреляция особенно характерна для анализа временных рядов.
Влияние на оценки МНК:
- Несмещенность и состоятельность: Аналогично гетероскедастичности, оценки МНК остаются несмещенными и состоятельными.
- Потеря эффективности: Оценки МНК теряют эффективность, переставая быть НЛНО.
- Смещенные стандартные ошибки: Стандартные ошибки оценок МНК становятся смещенными, что приводит к некорректности t- и F-тестов и неверным доверительным интервалам. Это может привести к ошибочным выводам о значимости коэффициентов.
Диагностика автокорреляции:
- Визуальный анализ остатков: Построение графика остатков во времени (для временных рядов) может выявить систематические паттерны.
- Критерий Дарбина-Уотсона (DW): Наиболее распространенный тест для проверки автокорреляции первого порядка.
- Расчетное значение DW изменяется от 0 до 4.
- Значение, близкое к 2, указывает на отсутствие автокорреляции.
- Значение, близкое к 0, свидетельствует о сильной положительной автокорреляции (ошибки имеют тенденцию быть похожими друг на друга).
- Значение, близкое к 4, свидетельствует о сильной отрицательной автокорреляции (ошибки имеют тенденцию быть противоположными друг другу).
- Для принятия окончательного решения расчетное значение DW сравнивается с критическими значениями dL и dU из таблиц Дарбина-Уотсона. Если DW попадает в интервал (dU, 4-dU), гипотеза об отсутствии автокорреляции не отвергается.
Мультиколлинеарность (в контексте множественной регрессии) и другие нарушения
Хотя мультиколлинеарность является проблемой множественной регрессии, важно упомянуть её влияние:
- Мультиколлинеарность — это сильная или идеальная корреляция между двумя или более независимыми переменными.
- Влияние: Оценки МНК остаются несмещенными и состоятельными, но их стандартные ошибки становятся очень большими. Это приводит к нестабильности оценок, затрудняет интерпретацию индивидуального влияния каждого предиктора и делает t-статистики низкими, часто приводя к ошибочному выводу о статистической незначимости важных переменных.
Другие нарушения:
- Ошибки измерения в независимых переменных: Если независимые переменные измерены с ошибками, оценки МНК становятся смещенными и несостоятельными. Это означает, что даже на очень больших выборках оценки не будут приближаться к истинным значениям.
- Нарушение нормальности распределения ошибок: Для больших выборок (благодаря Центральной Предельной Теореме) оценки МНК остаются состоятельными, и t- и F-тесты приблизительно корректны. Однако для небольших выборок нарушение нормальности делает t- и F-критерии некорректными, что влияет на достоверность проверки гипотез и построения доверительных интервалов.
Глубокое понимание этих допущений и последствий их нарушения является краеугольным камнем для проведения качественного эконометрического анализа и предотвращения ошибочных выводов.
Построение и анализ парной линейной регрессионной модели: практический алгоритм
Построение регрессионной модели — это не просто применение формул, а последовательный, итеративный процесс, требующий внимательности и глубокого понимания как теоретических основ, так и практических нюансов. Ниже представлен пошаговый алгоритм, который поможет в построении и анализе парной линейной регрессионной модели для курсовой работы.
Этапы построения модели: от постановки задачи до прогнозирования
- Постановка задачи и определение цели:
- Содержательное описание: Четко сформулируйте исследуемую экономическую проблему. Например, «Изучение зависимости между уровнем инвестиций в основной капитал и ВВП региона за последние 10 лет».
- Выделение переменных: Определите, какая переменная будет зависимой (Y, например, ВВП), а какая — независимой (X, например, инвестиции). Обоснуйте выбор переменных с экономической точки зрения.
- Ожидаемый характер связи: Сформулируйте предварительные гипотезы о направлении и характере связи (например, ожидается прямая линейная зависимость).
- Сбор и подготовка данных:
- Источники: Соберите статистические данные из надёжных источников (Госкомстат, Росстат, базы данных ЦБ РФ, международные статистические агентства, авторитетные научные публикации).
- Очистка данных: Проверьте данные на полноту, корректность, наличие выбросов (аномальных значений) и пропусков. При необходимости проведите их обработку (например, замена пропусков, удаление выбросов).
- Масштабирование/Преобразование: Иногда может потребоваться преобразование переменных (например, логарифмирование, приведение к одному масштабу) для улучшения свойств модели или линеаризации нелинейных зависимостей.
- Предварительный анализ данных:
- Диаграмма рассеяния (scatterplot): Постройте график Y от X. Визуально оцените характер связи:
- Линейная или нелинейная?
- Прямая (положительная) или обратная (отрицательная)?
- Наличие выбросов или групп наблюдений.
- Признаки гетероскедастичности (изменение разброса по мере изменения X).
- Расчет коэффициента корреляции: Вычислите выборочный коэффициент парной линейной корреляции (rXY) для количественной оценки тесноты и направления линейной связи. Его значение, близкое к ±1, подтвердит гипотезу о сильной линейной связи.
- Диаграмма рассеяния (scatterplot): Постройте график Y от X. Визуально оцените характер связи:
- Выбор метода регрессии и спецификация модели:
- Для парной линейной регрессии выбор очевиден — метод наименьших квадратов (МНК).
- Запишите математическую модель:
Yi = b1 + b2Xi + ei.
- Оценивание параметров модели:
- Используя собранные данные и формулы МНК, рассчитайте оценки коэффициентов регрессии b1 и b2.
- Пример расчета b2 и b1 методом цепных подстановок (один из методов для факторного анализа, но здесь используется для иллюстрации пошаговости):
Допустим, у нас есть данные:
X = [10, 20, 30, 40, 50]
Y = [15, 30, 35, 50, 60]
n = 51. Расчет средних:
X̄ = (10+20+30+40+50)/5 = 30
Ȳ = (15+30+35+50+60)/5 = 382. Расчет числителя b2 (ковариация):
Σ (Xi - X̄)(Yi - Ȳ) = (10-30)(15-38) + (20-30)(30-38) + (30-30)(35-38) + (40-30)(50-38) + (50-30)(60-38)
= (-20)(-23) + (-10)(-8) + (0)(-3) + (10)(12) + (20)(22)
= 460 + 80 + 0 + 120 + 440 = 11003. Расчет знаменателя b2 (дисперсия X):
Σ (Xi - X̄)2 = (10-30)2 + (20-30)2 + (30-30)2 + (40-30)2 + (50-30)2
= (-20)2 + (-10)2 + 02 + 102 + 202
= 400 + 100 + 0 + 100 + 400 = 10004. Расчет b2:
b2 = 1100 / 1000 = 1.15. Расчет b1:
b1 = Ȳ - b2X̄ = 38 - 1.1 * 30 = 38 - 33 = 5Таким образом, оцененное уравнение регрессии:
Ŷ = 5 + 1.1X
- Оценка качества модели:
- Коэффициент детерминации (R²): Рассчитайте R² и скорректированный R². Интерпретируйте долю объясненной вариации.
- t-критерий: Проверьте статистическую значимость каждого коэффициента регрессии (b1 и b2). Отвергните или примите гипотезу о равенстве коэффициентов нулю.
- F-критерий: Проверьте статистическую значимость модели в целом.
- Анализ остатков:
- Постройте диаграммы рассеяния остатков (ei против Ŷi или ei против Xi) для проверки гомоскедастичности (равномерный разброс) и отсутствия систематических паттернов.
- Для временных рядов используйте критерий Дарбина-Уотсона для проверки на автокорреляцию.
- Проверьте нормальность распределения остатков (например, с помощью гистограммы остатков, квантиль-квантиль графика или тестов Колмогорова-Смирнова, Шапиро-Уилка).
- Если допущения нарушены, рассмотрите корректирующие меры или альтернативные модели (см. следующий раздел).
- Интерпретация результатов:
- Экономический смысл коэффициентов:
- b2: Интерпретируйте, на сколько единиц в среднем изменяется Y при увеличении X на одну единицу. Укажите направление связи (положительная/отрицательная) согласно знаку коэффициента. Например: «Увеличение инвестиций в основной капитал на 1 млн. рублей в среднем приводит к росту ВВП региона на 1.1 млн. рублей.»
- b1: Интерпретируйте как среднее значение Y при X=0. Будьте осторожны, если X=0 находится далеко за пределами наблюдаемого диапазона или не имеет экономического смысла.
- R²: Интерпретируйте, сколько процентов вариации Y объясняется X.
- Значимость: Укажите, какие коэффициенты и модель в целом статистически значимы на выбранном уровне.
- Экономический смысл коэффициентов:
- Прогнозирование и использование модели:
- Если модель адекватна, статистически значима и соответствует предпосылкам, используйте её для прогнозирования значений Y для новых значений X.
- Всегда указывайте диапазон, в котором модель может давать надёжные прогнозы (в пределах наблюдаемых значений X). Экстраполяция за пределы этого диапазона может быть некорректной.
- Проверка и актуализация модели:
- Экономические условия меняются, поэтому модели требуют периодической переоценки с использованием новых данных для подтверждения их актуальности и точности.
Соблюдение этого алгоритма позволит вам провести глубокий и обоснованный регрессионный анализ, отвечающий академическим требованиям курсовой работы.
Альтернативные модели и методы анализа связи при нарушении допущений
Реальный мир редко бывает идеален, и экономические данные часто нарушают классические предпосылки МНК. В таких случаях слепое применение стандартной парной линейной регрессии может привести к некорректным или неэффективным оценкам. К счастью, эконометрика предлагает широкий спектр альтернативных моделей и методов для преодоления этих вызовов.
Методы устранения гетероскедастичности и автокорреляции
Нарушения гомоскедастичности и отсутствия автокорреляции являются одними из наиболее распространенных проблем в эконометрике.
- При гетероскедастичности:
- Обобщенный метод наименьших квадратов (ОМНК): Этот метод является расширением МНК, который учитывает структуру гетероскедастичности путем взвешивания наблюдений. Наблюдения с меньшей дисперсией ошибок получают больший вес, а с большей дисперсией — меньший. Это позволяет получить эффективные оценки.
- Робастные стандартные ошибки (например, стандартные ошибки Уайта): Вместо того чтобы пытаться исправить саму гетероскедастичность, можно скорректировать стандартные ошибки оценок МНК таким образом, чтобы они были корректными даже при наличии гетероскедастичности. Оценки коэффициентов при этом остаются несмещенными и состоятельными, но t- и F-тесты становятся надежными.
- Преобразование переменных: Иногда преобразование зависимой или независимой переменной (например, логарифмирование, взятие квадратного корня) может стабилизировать дисперсию ошибок и привести к гомоскедастичности.
- При автокорреляции:
- Обобщенный метод наименьших квадратов (ОМНК): При известной форме автокорреляции (например, авторегрессия первого порядка AR(1)) ОМНК может быть использован для преобразования исходной модели таким образом, чтобы остатки преобразованной модели не имели автокорреляции.
- Методы, учитывающие временные ряды: Для данных временных рядов при наличии автокорреляции часто используются специализированные модели, такие как ARMA (Autoregressive Moving Average) или ARIMA (Autoregressive Integrated Moving Average), которые явно учитывают зависимость между текущими и прошлыми значениями переменной или ошибок.
- Робастные стандартные ошибки: Как и при гетероскедастичности, можно использовать робастные стандартные ошибки (например, стандартные ошибки Ньюи-Веста), которые корректируют стандартные ошибки оценок МНК на наличие автокорреляции, делая статистические выводы более надежными.
- При нарушении нормальности распределения ошибок:
- Для больших выборок: Благодаря центральной предельной теореме, оценки МНК остаются состоятельными, и t- и F-тесты приблизительно корректны.
- Непараметрические методы: Если выборка мала и нормальность сильно нарушена, могут быть применены непараметрические методы регрессии, которые не требуют предположений о распределении ошибок.
- Преобразование переменных: Логарифмирование или другие преобразования могут помочь приблизить распределение ошибок к нормальному.
- При мультиколлинеарности (во множественной регрессии):
- Удаление высококоррелированных переменных: Если несколько независимых переменных сильно коррелированы, можно рассмотреть удаление одной из них, если это не приведет к потере важной экономической информации.
- Центрирование данных: Вычитание среднего значения из каждой переменной может уменьшить мультиколлинеарность, особенно между переменными и свободным членом.
- Гребневая регрессия (Ridge Regression): Это смещенный метод оценки, который вводит небольшое смещение в оценки коэффициентов, чтобы значительно уменьшить их дисперсию и стабилизировать их в условиях мультиколлинеарности.
- Метод главных компонент (Principal Component Analysis — PCA): Преобразует набор коррелированных переменных в набор некоррелированных «главных компонент», которые затем используются в регрессии.
Множественная линейная регрессия
Когда зависимая переменная Y зависит от двух и более независимых переменных X1, X2, …, Xk, используется множественная линейная регрессия. Это логичное расширение парной регрессии, позволяющее учесть более сложный набор факторов.
Модель множественной линейной регрессии имеет вид:
Ŷ = b0 + b1X1 + b2X2 + ... + bkXk + ε
Преимущество множественной линейной регрессии по сравнению с парной заключается в том, что использование нескольких входных переменных позволяет увеличить долю объясненной дисперсии выходной переменной (R²). Она позволяет более полно моделировать реальные экономические процессы, где на один показатель влияют множество факторов.
Нелинейная регрессия и методы линеаризации
Когда зависимость между переменными не является линейной, применяется нелинейная регрессия. Однако многие нелинейные модели могут быть «линеаризованы» путем преобразования переменных, что позволяет использовать стандартный МНК.
Примеры линеаризуемых моделей:
- Полиномиальная регрессия: Зависимость описывается полиномом, например:
Y = β1 + β2X + β3X² + ε. Здесь X² рассматривается как отдельная объясняющая переменная. - Логарифмическая регрессия:
Y = β1 + β2ln(X) + εln(Y) = β1 + β2X + ε(полулогарифмическая)ln(Y) = β1 + β2ln(X) + ε(двойная логарифмическая, или лог-лог модель)
Последняя модель особенно полезна, так как коэффициент β2 в ней интерпретируется как эластичность Y по X.
- Экспоненциальная регрессия:
Y = e(β1 + β2X)ε, которая логарифмированием преобразуется вln(Y) = β1 + β2X + ln(ε). - Обратная регрессия:
Y = β1 + β2(1/X) + ε.
Если же нелинейность присутствует относительно самих параметров (например, Y = Xβ + ε), то для оценивания используются итерационные методы нелинейного МНК, которые требуют специализированного программного обеспечения и более сложного подхода.
Другие продвинутые методы
- Логистическая регрессия: Применяется, когда зависимая переменная является дискретной (бинарной), например, «купит/не купит», «выплатит кредит/не выплатит». Модель позволяет оценить вероятность наступления события на основе значений независимых переменных.
- Полиномиальная регрессия: Уже упоминалась в контексте линеаризуемых моделей, позволяет моделировать криволинейные зависимости, вводя в модель степени независимой переменной.
- Регрессия с использованием инструментальных переменных (IV): Применяется, когда существует проблема эндогенности, то есть корреляции независимых переменных со случайной ошибкой. Это часто происходит из-за пропущенных переменных, ошибок измерения или одновременности (обратной причинности). Инструментальные переменные — это переменные, которые коррелированы с эндогенной независимой переменной, но не коррелированы со случайной ошибкой и не влияют на зависимую переменную напрямую.
Выбор альтернативной модели или метода зависит от конкретного характера нарушения предпосылок, типа данных и целей исследования. Владение этим арсеналом позволяет аналитику гибко реагировать на сложности реальных экономических данных и строить более адекватные и надежные модели.
Заключение
Математическое описание взаимосвязей экономических показателей через призму регрессионного и корреляционного анализа является краеугольным камнем современной эконометрики и незаменимым инструментом для любого студента, работающего над курсовой или дипломной работой в этой области. Мы прошли путь от фундаментальных определений и различий между корреляцией и регрессией до глубокого погружения в математический аппарат парной линейной регрессии, включая детальное изложение метода наименьших квадратов и его важнейших статистических свойств.
Особое внимание было уделено критическому этапу оценки качества модели, где коэффициент детерминации, t- и F-критерии выступают индикаторами надёжности и адекватности наших построений. Однако подлинная сила эконометрического анализа проявляется в понимании его ограничений, а именно — допущений классической модели. Подробный разбор последствий нарушения этих предпосылок, будь то гетероскедастичность, автокорреляция или мультиколлинеарность, и ознакомление с диагностическими тестами, такими как критерий Дарбина-Уотсона, подчёркивает необходимость тщательной проверки и умения адаптировать подход к реалиям данных.
Наконец, мы рассмотрели многообразие альтернативных моделей и методов, которые позволяют справляться с неидеальными условиями, расширяя аналитический инструментарий от множественной и нелинейной регрессии до логистической и инструментальных переменных.
Для успешного написания курсовой работы и дальнейшей профессиональной деятельности в экономике критически важно не просто механически применять формулы, а глубоко понимать экономический смысл каждого коэффициента, интерпретировать статистические показатели в контексте задачи и, самое главное, осознавать методологические ограничения и пути их преодоления. Только такой комплексный подход позволит вам получать достоверные результаты, формулировать обоснованные выводы и вносить ценный вклад в экономическую науку и практику.
Список использованной литературы
- Айвазян, С. А. Прикладная статистика. Исследование зависимостей / С. А. Айвазян, И. С. Енюков, Л. Д. Мешалкин. – Москва : Финансы и статистика, 1985.
- Березинец, И. В. Курс лекций по теории вероятностей. – Санкт-Петербург : ВИКИ им. А.Ф. Можайского, 1997.
- Березинец, И. В. Отраслевая эконометрическая модель в задаче оценки доходности ценных бумаг / И. В. Березинец, В. Е. Лобов // Актуальные проблемы экономики и новые технологии преподавания. – Санкт-Петербург, 2003.
- Волков, Д. Л. Управление ценностью компании: анализ основанных на бухгалтерских показателях моделей оценки / Д. Л. Волков, И. В. Березинец // Научные доклады НИИ менеджмента СПбГУ. – 2006. – № 3(R).
- Демиденко, Е. З. Линейная и нелинейная регрессия. – Москва : Финансы и статистика, 1981.
- Джонстон, Дж. Эконометрические методы : Пер. с англ. – Москва : Статистика, 1980.
- Доугерти, К. Введение в эконометрику : Пер. с англ. – Москва : Инфра-М, 1997.
- Дубров, А. М. Многомерные статистические методы / А. М. Дубров, В. С. Мхитарян, Л. И. Трошин. – Москва : Финансы и статистика, 1998.
- Замков, О. О. Эконометрические методы в макроэкономическом анализе. – Москва : ГУВШЭ, 2001.
- Кремер, Н. Ш. Эконометрика / Н. Ш. Кремер, Б. А. Путко. – Москва : ЮНИТИ, 2002.
- Магнус, Я. Р. Эконометрика. Начальный курс / Я. Р. Магнус, Л. К. Катышев, А. А. Пересецкий. – Москва : Дело, 2000.
- Уотшем, Т. Дж. Количественные методы в финансах : Пер. с англ. / Т. Дж. Уотшем, К. Паррамоу. – Москва : ЮНИТИ, 1999.
- Шарп, У. Инвестиции / У. Шарп, Г. Александер, Д. Бейли. – Москва : ИНФРА-М, 1997.
- Чистяков, В. П. Курс теории вероятностей. – Москва : Наука, 1987.
- Эконометрика / Под ред. И.И. Елисеевой. – Москва : Финансы и статистика, 2001.
- Gujarati, D. N. Basic econometrics. – McGraw Hill, 2003.
- Wooldridge, J. V. Introductory econometrics: a modern approach. – Thomson. South-western, 2006.
- Fama, E. Common Risk Factors in the Returns of Stocks and Bond / E. Fama, R. French // Journal of Financial Economics. – 1993. – Vol. 33.
- Fama, E. Industry Cost of Equity / E. Fama, R. French // Journal of Financial Economics. – 1997. – Vol. 43.
- Регрессионный анализ – что это, методы и этапы, применение регрессионного анализа, примеры. – Текст : электронный // Яндекс Практикум. – 2024. – 8 ноября. – URL: https://practicum.yandex.ru/blog/regression-analysis/.
- Регрессия в эконометрике. – Текст : электронный // Справочник Автор24. – 2025. – 29 сентября. – URL: https://spravochnick.ru/ekonomika/ekonometrika/regressiya_v_ekonometrike/.
- Что такое R-квадрат? Руководство по коэффициенту детерминации. – Текст : электронный // Morpher. – 2024. – 4 декабря. – URL: https://morpher.com/guides/r-squared-coefficient-of-determination/.
- Коэффициент детерминации в Excel: что это и как его рассчитать. – Текст : электронный // Timeweb. – URL: https://timeweb.com/ru/community/articles/koefficient-determinacii-v-excel-chto-eto-i-kak-ego-rasschitat.
- Коэффициент детерминации: значения и их интерпретация в анализе. – Текст : электронный // Skypro. – URL: https://sky.pro/media/koefficient-determinacii/.
- Коэффициент детерминации (Coefficient of determination). – Текст : электронный // Loginom Wiki. – URL: https://loginom.ru/wiki/koefficient-determinatsii.
- Коэффициент детерминации. – Текст : электронный // База знаний OpenHealth. – URL: https://openhealth.ru/glossary/koeffitsient-determinatsii/.
- Множественная линейная регрессия (Multiple Linear Regression). – Текст : электронный // Loginom Wiki. – URL: https://loginom.ru/wiki/mnozhestvennaya-lineynaya-regressiya.
- Множественная линейная регрессия. – Текст : электронный // IBM. – URL: https://www.ibm.com/docs/ru/spss-statistics/29.0.0?topic=regression-multiple-linear.
- Методы повышения качества регрессионной модели при ее использовании для прогнозирования. – Текст : электронный // КиберЛенинка. – URL: https://cyberleninka.ru/article/n/metody-povysheniya-kachestva-regressionnoy-modeli-pri-ee-ispolzovanii-dlya-prognozirovaniya.
- Критерии оценки качества регрессионной модели, или какая модель хорошая, а какая лучше. – Текст : электронный // Форсайт. – 2018. – 21 мая. – URL: https://fsight.ru/blog/kriterii-otsenki-kachestva-regressionnoy-modeli-ili-kakaya-model-horoshaya-a-kakaya-luchshe/.
- Оценка качества модели регрессии. – Текст : электронный // met.kantiana.ru. – 2018. – 5 декабря. – URL: http://met.kantiana.ru/docs/met1.doc.
- Регрессия в анализе данных: объяснение и примеры. – Текст : электронный // Skypro. – URL: https://sky.pro/media/chto-takoe-regressiya-v-analize-dannyh/.
- ЭТАПЫ ПОСТРОЕНИЯ РЕГРЕССИОННОЙ МОДЕЛИ. – Текст : электронный // ekonomika.snauka.ru. – 2019. – 13 августа. – URL: https://www.ekonomika.snauka.ru/2019/08/17697.
- Алгоритм построения регрессионных моделей. – Текст : электронный // TSPU.EDU.RU. – 2019. – 15 апреля. – URL: https://www.tspu.edu.ru/files/sveden/education/metod/met_obesp/metod_statistika_ekonometrika_0.pdf.
- Парная линейная регрессия. – Текст : электронный // kaznu.kz. – URL: https://www.kaznu.kz/content/files/pages/44723/parnaya_lineynaya_regressiya.pdf.
- ЭКОНОМЕТРИКА. ПАРНАЯ РЕГРЕССИЯ. – Текст : электронный // Репозиторий Самарского университета. – URL: https://repo.ssau.ru/bitstream/Metodicheskie-ukazaniya/Ekonometrika.-Parnaya-regressiya-21041.pdf.
- Парная линейная регрессионная модель. – Текст : электронный // window.edu.ru. – 2015. – 24 марта. – URL: http://window.edu.ru/catalog/pdf2txt/687/70467/49467.
- Классическая линейная модель парной регрессии. – Текст : электронный // Учебник+. – URL: https://uchebnik.online/uchebnik-ekonometrika/klassicheskaya-lineynaya-model-parnoy-regressii-34326.html.
- Линейные регрессионные модели в эконометрике. – Текст : электронный // nngasu.ru. – 2016. – URL: https://www.nngasu.ru/components/com_dbooks/docs/ekonometrika_lina.pdf.
- Коэффициент детерминации: интерпретация и вычисления по результатам корреляционного и регрессионного анализа. – Текст : электронный // scienceforum.ru. – 2015. – 5 июня. – URL: https://www.scienceforum.ru/2015/article/2015011707.
- Коэффициент детерминации (R^2/нецентрированный). – Текст : электронный // Форсайт. – URL: https://fsight.ru/wiki/koeffitsient-determinatsii-r2-netsentrirovannyj/.
- Коэффициент детерминации. – Текст : электронный // MachineLearning.ru. – 2016. – 17 декабря. – URL: https://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%B4%D0%B5%D1%82%D0%B5%D1%80%D0%BC%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8.
- Лекция 4. Нелинейная регрессия. – Текст : электронный // sgu.ru. – URL: https://www.sgu.ru/sites/default/files/textdocsfiles/2019-11-20_lecture_4_nonlinear_regression_sgu.pdf.
- Нелинейные модели регрессии: методы линеаризации. – Текст : электронный // e-reading.club. – URL: https://www.e-reading.club/chapter.php/1010377/146/Aivazyan_-_Ekonometrika.html.
- Классическая линейная модель множественной регрессии. – Текст : электронный // Учебник+. – URL: https://uchebnik.online/uchebnik-ekonometrika/klassicheskaya-lineynaya-model-mnozhestvennoy-regressii-34327.html.
- ИСПОЛЬЗОВАНИЕ КОРРЕЛЯЦИОННОГО АНАЛИЗА В ЭКОНОМИЧЕСКИХ ИССЛЕДОВАНИЯХ. – Текст : электронный // Научное обозрение. Педагогические науки. – URL: https://science-pedagogy.ru/ru/article/view?id=486.
- Регрессионный анализ тема 7. – Текст : электронный // psychlib.ru. – URL: http://psychlib.ru/inc/abs.php?dir=spssb&id=1130.