Введение, которое задает вектор исследования курсовой работы
В современную цифровую эпоху Data Mining, или интеллектуальный анализ данных, превратился из узкоспециализированной дисциплины в одну из ключевых технологий, определяющих развитие бизнеса, науки и общества. Это мультидисциплинарная область, находящаяся на стыке статистики, искусственного интеллекта и теории баз данных, которая позволяет обнаруживать в огромных массивах «сырой» информации скрытые, нетривиальные и практически полезные знания.
Сфера применения Data Mining практически безгранична: от прогнозирования продаж и анализа потребительского поведения в бизнесе до расшифровки генома и анализа астрономических данных в науке. Именно эта универсальность и востребованность делают его одной из самых актуальных тем для академического исследования.
Курсовая работа по данной дисциплине — это не просто теоретический реферат, а полноценное исследование, требующее от студента применения полученных знаний для решения конкретной, практически значимой задачи. Это возможность пройти весь путь аналитика: от постановки гипотезы до построения работающей модели и интерпретации ее результатов.
Таким образом, цель образцовой курсовой работы по Data Mining можно сформулировать так: разработать и провести сравнительный анализ нескольких моделей машинного обучения для решения конкретной задачи классификации или прогнозирования на реальном наборе данных.
Для достижения этой цели необходимо решить следующие задачи:
- Изучить теоретические основы интеллектуального анализа данных, уделив особое внимание методам классификации и прогнозирования.
- Подобрать и предварительно обработать набор данных, пригодный для моделирования.
- Реализовать, обучить и настроить несколько алгоритмов на подготовленных данных.
- Провести оценку производительности построенных моделей с использованием адекватных метрик качества.
- Сделать обоснованные выводы о том, какая из моделей является наиболее эффективной для решения поставленной задачи.
Фундамент любой сильной курсовой работы — это глубокое понимание теоретических основ. Прежде чем переходить к практике, необходимо разобраться в ключевых задачах и концепциях Data Mining.
Глава 1. Теоретический фундамент и ключевые задачи Data Mining
Под интеллектуальным анализом данных (Data Mining) понимают не просто сбор и хранение информации, а сложный процесс обнаружения ранее неизвестных, нетривиальных, практически полезных и доступных для интерпретации знаний в больших базах данных. Это процесс поиска скрытых закономерностей, а не выполнения прямых запросов. Если СУБД может ответить на вопрос «Сколько клиентов купили товар X в прошлом месяце?», то Data Mining отвечает на вопрос «Каковы характеристики клиентов, которые с высокой вероятностью купят товар Y в следующем месяце?».
Современный Data Mining решает несколько типовых задач, каждая из которых нацелена на извлечение знаний определенного вида:
- Классификация: Отнесение объекта к одному из заранее известных классов. Пример: определение, является ли письмо спамом или нет.
- Кластеризация: Группировка схожих объектов в кластеры без заранее известных меток. Пример: сегментация клиентов по покупательскому поведению.
- Прогнозирование (Регрессия): Предсказание непрерывного числового значения для объекта. Пример: прогнозирование цены на дом на основе его характеристик.
- Ассоциация: Поиск правил, описывающих закономерности между объектами. Классический пример: «клиенты, покупающие пиво, часто покупают и чипсы».
В рамках курсовой работы чаще всего фокусируются на задачах классификации и прогнозирования из-за их широкой применимости и понятной бизнес-логики. Несмотря на то что эти задачи решают разные проблемы, их часто рассматривают вместе, так как многие методы могут быть адаптированы для обеих целей. Ключевое различие между ними заключается в типе выходной переменной:
- Классификация предсказывает категориальную метку (например, «да»/»нет», «класс А»/»класс Б», «спам»/»не спам»).
- Прогнозирование предсказывает непрерывное значение (например, цена, температура, объем продаж).
Мы определили, что наша цель — классификация и прогнозирование. Теперь давайте детально рассмотрим арсенал методов, которые позволяют решать первую из этих ключевых задач.
Глава 1.1. Инструментарий для классификации, от деревьев решений до нейронных сетей
Выбор правильного алгоритма — ключ к успешному решению задачи классификации. Каждый метод имеет свою внутреннюю логику, сильные и слабые стороны. Рассмотрим наиболее популярные из них.
Деревья решений (CART, C4.5)
Суть метода: Дерево решений представляет собой иерархическую структуру, состоящую из решающих правил вида «Если… то…». Аналогия — работа врача, который ставит диагноз, последовательно отвечая на вопросы о симптомах. Алгоритм автоматически строит эти правила, разбивая данные на все более однородные группы на основе наиболее значимых признаков.
- Сильные стороны: Высокая интерпретируемость (результат можно представить в виде понятных правил), способность работать как с числовыми, так и с категориальными признаками, относительная простота.
- Слабые стороны: Склонность к переобучению (построение слишком сложного дерева, которое хорошо работает только на обучающих данных), нестабильность (небольшие изменения в данных могут привести к совершенно другому дереву).
- Применение: Кредитный скоринг, медицинская диагностика, системы поддержки принятия решений.
Метод опорных векторов (SVM)
Суть метода: SVM строит в пространстве признаков разделяющую гиперплоскость (или линию в 2D-случае), которая наилучшим образом разделяет объекты разных классов. «Наилучшим» считается разделение с максимальным зазором между классами. Для случаев, когда данные нельзя разделить линейно, SVM использует «трюк с ядром» (kernel trick), который переводит данные в пространство более высокой размерности, где разделение становится возможным.
- Сильные стороны: Высокая точность, эффективность в пространствах высокой размерности, устойчивость к переобучению.
- Слабые стороны: Низкая интерпретируемость («черный ящик»), вычислительная сложность на очень больших наборах данных, чувствительность к выбору ядра и его параметров.
- Применение: Распознавание изображений, биоинформатика, классификация текстов.
Наивный байесовский классификатор
Суть метода: Этот метод основан на теореме Байеса и исходит из «наивного» предположения о независимости всех признаков друг от друга. Алгоритм вычисляет вероятность принадлежности объекта к каждому из классов на основе вероятностей, посчитанных по обучающим данным, и выбирает класс с наибольшей итоговой вероятностью.
- Сильные стороны: Простота реализации, высокая скорость работы, хорошие результаты на задачах классификации текстов. Требует сравнительно немного данных для обучения.
- Слабые стороны: Допущение о независимости признаков редко выполняется на практике, что может снижать точность.
- Применение: Фильтрация спама, анализ тональности текста, диагностика заболеваний.
Метод k-ближайших соседей (KNN)
Суть метода: Один из самых интуитивно понятных алгоритмов. Чтобы определить класс нового объекта, KNN находит k его «ближайших соседей» (наиболее похожих объектов) в обучающей выборке и присваивает ему тот класс, который является большинством среди этих соседей. Метод не строит модель в явном виде, а просто запоминает все данные.
- Сильные стороны: Простота для понимания и реализации, не требует предположений о распределении данных.
- Слабые стороны: Вычислительно затратен на этапе предсказания (нужно считать расстояния до всех объектов), чувствителен к выбору метрики расстояния и числу соседей k, плохо работает с данными высокой размерности.
- Применение: Рекомендательные системы, поиск похожих изображений.
Нейронные сети
Суть метода: Нейронные сети, особенно глубокие, представляют собой мощный класс моделей, вдохновленных строением человеческого мозга. Они состоят из слоев взаимосвязанных «нейронов», каждый из которых выполняет простое математическое преобразование. Обучаясь на данных, сеть настраивает связи между нейронами так, чтобы улавливать сложнейшие нелинейные зависимости.
- Сильные стороны: Высочайшая точность на сложных задачах, способность автоматически извлекать признаки из «сырых» данных (например, пикселей картинки).
- Слабые стороны: Требуют огромных объемов данных и вычислительных ресурсов, являются «черным ящиком», склонны к переобучению.
- Применение: Распознавание речи и изображений, машинный перевод, беспилотные автомобили.
Разобравшись с классификацией, перейдем к ее «родственнику» — прогнозированию, которое работает не с категориями, а с числами.
Глава 1.2. Арсенал методов для прогнозирования числовых значений
Когда целью является предсказание конкретного числа — будь то цена акции, температура воздуха или спрос на товар — мы обращаемся к методам регрессии. В основе всех этих методов лежит идея нахождения функциональной зависимости между входными признаками и целевой переменной.
Линейная регрессия
Это самый простой и фундаментальный метод прогнозирования. Он предполагает, что между признаками (X) и целевой переменной (y) существует линейная зависимость, которую можно описать уравнением прямой: y = b₀ + b₁X₁ + … + bₙXₙ. Задача алгоритма — найти такие коэффициенты (b), которые минимизируют ошибку предсказания на обучающих данных.
Несмотря на свою простоту, линейная регрессия часто служит отличной отправной точкой и базовой моделью (baseline), с которой сравниваются более сложные алгоритмы. Ее главное преимущество — максимальная интерпретируемость.
Полиномиальная регрессия
Является усложнением линейной регрессии. Она используется, когда зависимость между переменными очевидно нелинейная. Метод преобразует исходные признаки, добавляя их полиномиальные степени (например, X²), а затем строит на этих новых признаках обычную линейную регрессию. Это позволяет модели описывать криволинейные зависимости.
Временные ряды (ARIMA)
Это специализированный класс моделей, который применяется, когда данные имеют сильную зависимость от времени, а порядок наблюдений имеет решающее значение. Модели, такие как ARIMA (авторегрессионная интегрированная скользящая средняя), учитывают внутреннюю структуру ряда: его тренды, сезонность и автокорреляцию (зависимость текущего значения от предыдущих). Они незаменимы при прогнозировании курсов акций, погодных условий или объемов трафика.
Важно отметить, что многие универсальные алгоритмы, изначально разработанные для классификации, могут с успехом решать и задачи регрессии. К ним относятся, в первую очередь, деревья решений (которые в узлах предсказывают среднее значение вместо класса) и нейронные сети (у которых выходной нейрон просто выдает числовое значение без функции активации, переводящей его в вероятность).
Теоретическая база заложена. Но чтобы теория ожила, нужны правильные инструменты. Следующий шаг — обзор программного обеспечения и библиотек, которые превратят теорию в работающий код.
Глава 2. Практический инструментарий и критерии успеха
Переход от теории к практике требует выбора правильных инструментов и понимания, как объективно измерить успех. Этот раздел вооружает студента необходимыми практическими знаниями для построения и оценки моделей.
Выбор инструментов
Существует множество программных платформ для Data Mining, от визуальных конструкторов вроде KNIME и Weka до мощных языков программирования. Сегодня индустриальным стандартом де-факто является язык Python благодаря его богатой экосистеме библиотек, разработанных специально для анализа данных и машинного обучения.
- Pandas: Мощнейшая библиотека для манипуляций с табличными данными (загрузка, очистка, трансформация).
- NumPy: Фундамент для научных вычислений, обеспечивающий поддержку многомерных массивов и математических функций.
- Scikit-learn: Ключевая библиотека для машинного обучения. Она содержит реализации практически всех классических алгоритмов, а также инструменты для предобработки данных, настройки моделей и оценки их качества.
Для большинства курсовых работ связки Python + Pandas + Scikit-learn более чем достаточно для проведения полноценного исследования.
Метрики оценки моделей
Чтобы понять, какая модель работает лучше, нужны объективные численные критерии — метрики. Их выбор зависит от типа задачи.
Для задач классификации:
- Accuracy (Точность): Доля правильных ответов. Самая простая метрика, но может вводить в заблуждение на несбалансированных данных (когда одного класса намного больше другого).
- Precision (Прецизионность): «Насколько мы можем доверять нашим положительным предсказаниям?». Показывает, какая доля объектов, названных классификатором положительными, действительно является таковыми.
- Recall (Полнота): «Насколько хорошо мы находим объекты нужного класса?». Показывает, какую долю объектов положительного класса мы смогли обнаружить.
- F1-score: Гармоническое среднее между Precision и Recall. Удобная сводная метрика, которая полезна, когда важен баланс между этими двумя показателями.
Эти метрики обычно рассчитываются на основе матрицы ошибок (confusion matrix), которая наглядно показывает, где именно модель ошибается.
Для задач регрессии:
- MAE (Mean Absolute Error): Средняя абсолютная ошибка. Показывает среднее абсолютное отклонение предсказаний от реальных значений.
- MSE (Mean Squared Error): Среднеквадратичная ошибка. Аналогична MAE, но сильнее штрафует за большие ошибки.
- R-квадрат (R²): Коэффициент детерминации. Показывает, какую долю дисперсии целевой переменной объясняет наша модель. Значение, близкое к 1, говорит о хорошей модели.
Распространенные проблемы и методы борьбы
Две главные ловушки при построении моделей — это переобучение и недообучение.
- Переобучение (Overfitting): Модель слишком сложна и буквально «запомнила» обучающие данные, включая случайный шум. Она показывает отличные результаты на обучении, но проваливается на новых, ранее не виданных данных.
- Недообучение (Underfitting): Модель слишком проста и не смогла уловить основные закономерности в данных. Она показывает плохие результаты и на обучении, и на новых данных.
«Золотым стандартом» для надежной оценки модели и борьбы с переобучением является кросс-валидация (Cross-Validation). Суть метода в том, чтобы многократно разбивать обучающие данные на части, поочередно используя одни для обучения, а другие — для контроля. Это дает гораздо более робастную оценку того, как модель будет вести себя на реальных данных.
Теперь, когда мы вооружены теорией, инструментами и метриками, мы готовы приступить к самому интересному — практической реализации проекта.
Глава 2.1. Шаг первый, с которого начинается практическое исследование. Выбор и подготовка данных
Это самый трудоемкий и, возможно, самый важный этап всего исследования. Качество конечной модели на 80% зависит от качества исходных данных. «Мусор на входе — мусор на выходе» — главный закон Data Mining.
Постановка задачи и выбор набора данных
Первый шаг — четко определить, что именно мы хотим предсказать, и найти подходящий набор данных (датасет). Для студенческих работ идеально подходят публичные репозитории, где можно найти тысячи готовых к использованию датасетов для разных задач.
- Kaggle: Крупнейшая платформа для соревнований по машинному обучению с огромным количеством разнообразных наборов данных.
- UCI Machine Learning Repository: Классический репозиторий с множеством «академических» датасетов, которые использовались в тысячах научных статей.
Хороший набор данных должен быть достаточно чистым, полным (содержать достаточно признаков для анализа) и репрезентативным (отражать реальную проблему).
Исследовательский анализ данных (EDA)
Прежде чем строить модели, нужно «познакомиться» с данными. EDA — это процесс изучения датасета с целью понять его структуру, найти аномалии, проверить гипотезы и выявить основные закономерности. Типичные шаги включают расчет основных статистик (среднее, медиана, стандартное отклонение), визуализацию распределений признаков (гистограммы) и анализ корреляций между ними.
Очистка и подготовка данных
Реальные данные почти никогда не бывают идеальными. Их подготовка — это многоэтапный процесс.
- Работа с пропущенными значениями: Одна из самых частых проблем. В зависимости от ситуации пропуски можно либо удалить (если их немного), либо заполнить — например, средним или медианным значением для числовых признаков или модой для категориальных.
- Обработка выбросов: Аномально большие или малые значения могут сильно искажать результаты обучения. Их нужно идентифицировать (например, с помощью диаграмм «ящик с усами») и либо скорректировать, либо удалить.
- Преобразование категориальных признаков: Большинство моделей машинного обучения работают только с числами. Поэтому текстовые признаки (например, «страна», «пол») нужно преобразовать в числовой формат. Для этого используются техники вроде One-Hot Encoding (создание бинарных столбцов для каждой категории) или Label Encoding (присвоение каждой категории уникального числа).
Разделение выборки
Последний, но критически важный шаг подготовки. Чтобы объективно оценить, насколько хорошо модель будет работать на новых данных, мы никогда не тестируем ее на тех же данных, на которых она обучалась. Исходный датасет принято делить как минимум на две части:
- Обучающая выборка (Training set): Большая часть данных (обычно 70-80%), на которой модель «учится» находить закономерности.
- Тестовая выборка (Test set): Меньшая часть (20-30%), которую модель «не видит» в процессе обучения. Она используется для финальной, независимой оценки качества.
Иногда дополнительно выделяют валидационную выборку для настройки параметров модели.
С идеально подготовленными данными в руках мы можем перейти к сердцу практической части — построению и обучению моделей.
Глава 2.2. Шаг второй. Построение и обучение моделей
На этом этапе мы превращаем теоретические концепции алгоритмов в работающий код. Для примера возьмем три популярных и разных по своей природе классификатора, описанных ранее: Дерево решений, Метод опорных векторов (SVM) и k-ближайших соседей (KNN), и покажем процесс их реализации с помощью библиотеки Scikit-learn.
Процесс для каждой модели будет состоять из трех шагов: создание экземпляра модели, ее обучение и настройка.
Шаг 1. Импорт и создание модели
Сначала мы импортируем нужные классы из библиотеки и создаем их экземпляры. На этом этапе можно задать базовые параметры.
from sklearn.tree import DecisionTreeClassifier
from sklearn.svm import SVC
from sklearn.neighbors import KNeighborsClassifier
# Создаем модели с параметрами по умолчанию
tree_model = DecisionTreeClassifier(random_state=42)
svm_model = SVC(kernel='linear', random_state=42)
knn_model = KNeighborsClassifier(n_neighbors=5)
Шаг 2. Обучение модели
Обучение — это процесс «подгонки» модели под данные. В Scikit-learn это делается одной командой — методом `.fit()`, который принимает на вход обучающие признаки (X_train) и целевую переменную (y_train).
# Обучаем каждую модель на одних и тех же данных
tree_model.fit(X_train, y_train)
svm_model.fit(X_train, y_train)
knn_model.fit(X_train, y_train)
После выполнения этого кода каждая модель нашла свои внутренние параметры, которые наилучшим образом описывают зависимости в обучающих данных.
Шаг 3. Настройка гиперпараметров
У каждой модели есть «внешние» параметры, которые не вычисляются в процессе обучения, а задаются пользователем. Они называются гиперпараметрами. Например:
- У Дерева решений — это максимальная глубина дерева (`max_depth`).
- У k-NN — это количество соседей (`n_neighbors`).
- У SVM — это тип ядра (`kernel`) и параметр регуляризации (`C`).
Подбор оптимальных значений этих гиперпараметров кардинально влияет на качество модели. Ручной перебор — долго и неэффективно. Для автоматизации этого процесса используется, например, GridSearchCV — инструмент, который сам перебирает все комбинации заданных вами гиперпараметров и находит лучшую с помощью кросс-валидации.
Шаг 4. Получение предсказаний
После того как модели обучены, мы можем использовать их для предсказания на новых данных, которые они еще не видели, — на тестовой выборке. Это делается с помощью метода `.predict()`.
# Получаем предсказания для тестовой выборки
tree_predictions = tree_model.predict(X_test)
svm_predictions = svm_model.predict(X_test)
knn_predictions = knn_model.predict(X_test)
Теперь у нас есть три набора предсказаний. Модели обучены, предсказания получены. Но цифры сами по себе ничего не значат. Финальный и самый важный этап практической работы — это их глубокий анализ и интерпретация.
Глава 2.3. Шаг третий. Оценка производительности и сравнительный анализ моделей
Цель этого этапа — не просто констатировать факт, а объективно измерить, насколько хорошо каждая модель справилась с задачей, сравнить их между собой и выбрать лучшую. Для этого мы используем метрики, описанные ранее, применяя их к предсказаниям, полученным на тестовой выборке.
Анализ с помощью матрицы ошибок
Первый и самый наглядный инструмент для анализа ошибок классификатора — это матрица ошибок (confusion matrix). Она показывает, сколько объектов каждого класса были предсказаны верно, а сколько — неверно, и с какими именно классами модель их путает. Анализ этой матрицы позволяет понять сильные и слабые стороны модели. Например, мы можем увидеть, что модель хорошо распознает один класс, но постоянно ошибается на другом.
Матрица ошибок — это качественный инструмент. Она отвечает на вопрос «Где модель ошибается?». Для количественного сравнения мы переходим к метрикам.
Расчет и сравнение метрик
Используя истинные метки из `y_test` и предсказания моделей, мы рассчитываем ключевые метрики: Accuracy, Precision, Recall и F1-score. Самый удобный способ для сравнительного анализа — свести все результаты в единую таблицу.
Модель | Accuracy | Precision | Recall | F1-score |
---|---|---|---|---|
Дерево решений | 0.85 | 0.83 | 0.86 | 0.84 |
Метод опорных векторов (SVM) | 0.92 | 0.91 | 0.93 | 0.92 |
k-ближайших соседей (KNN) | 0.89 | 0.88 | 0.90 | 0.89 |
Интерпретация результатов
Глядя на таблицу, мы можем провести сравнительный анализ. Например, в данном случае Метод опорных векторов показал наилучшие результаты по всем ключевым метрикам, в то время как Дерево решений оказалось наименее точным. Важно не просто констатировать это, а попытаться объяснить, почему так произошло. Возможно, данные имели сложную, нелинейную структуру, с которой SVM справился лучше благодаря своему механизму ядер. Также на этом этапе важно проверить, не было ли признаков переобучения — если метрики на обучающей выборке были близки к 100%, а на тестовой они значительно ниже, это явный его признак.
Для большей наглядности результаты можно визуализировать, построив столбчатые диаграммы, сравнивающие модели по каждой метрике. Это сделает выводы более убедительными.
Практическое исследование завершено. Мы прошли путь от сырых данных до обоснованных выводов. Осталось грамотно подвести итоги и оформить результаты в заключении.
Заключение, в котором мы подводим итоги исследования
В заключении необходимо логически завершить работу, показав, что все поставленные задачи были выполнены, а цель — достигнута.
Структура заключения должна быть четкой и лаконичной. Сначала следует кратко напомнить цель работы, которая была сформулирована во введении, например: «Целью данной курсовой работы являлась разработка и сравнительный анализ моделей машинного обучения для решения задачи классификации клиентов банка на предмет одобрения кредита».
Далее необходимо перечислить основные этапы проделанной работы. Без излишних технических деталей, нужно показать логику исследования: «Для достижения поставленной цели была изучена теоретическая база по методам классификации, был выбран и подготовлен набор данных, включающий очистку, обработку пропущенных значений и преобразование признаков. Затем были построены, обучены и настроены три модели: Дерево решений, Метод опорных векторов и k-ближайших соседей».
Центральная часть заключения — это формулировка главного вывода исследования. Здесь нужно четко указать, какая модель оказалась наиболее эффективной и на основании чего сделан такой вывод: «В результате сравнительного анализа, основанного на метриках точности, полноты и F1-score, было установлено, что модель на основе Метода опорных векторов (SVM) показала наилучшую производительность (F1-score = 0.92), что делает ее наиболее предпочтительной для решения поставленной задачи».
В конце полезно обозначить возможные пути для дальнейшего развития исследования. Это демонстрирует глубину понимания темы: «В качестве направлений для дальнейшей работы можно рассмотреть применение более сложных ансамблевых методов, таких как случайный лес или градиентный бустинг, которые потенциально могут дать еще более высокий прирост качества».
Финальная фраза должна констатировать, что работа завершена успешно: «Таким образом, все поставленные задачи были выполнены, а цель курсовой работы — полностью достигнута».
Работа почти готова. Последний штрих — это правильное оформление источников, на которые вы опирались.
Рекомендации по оформлению списка литературы и приложений
Последний, но от этого не менее важный раздел — это оформление вспомогательных частей работы, которые подтверждают ее академическую добросовестность и полноту.
Список литературы
Академическая честность требует, чтобы все источники, на которые вы ссылались в тексте (книги, научные статьи, онлайн-ресурсы), были корректно оформлены в списке литературы. Это не только требование вуза, но и признак хорошего тона в научной работе. Оформление должно соответствовать принятому стандарту, чаще всего ГОСТ.
Пример оформления источников по ГОСТ:
- Книга: Паклин, Н. Б. Бизнес-аналитика: от данных к знаниям / Н. Б. Паклин, В. И. Орешков. — 2-е изд. — СПб. : Питер, 2013. — 704 с.
- Научная статья: Иванов, И. И. Применение нейронных сетей для прогнозирования временных рядов / И. И. Иванов // Вестник науки и образования. — 2021. — № 5 (118). — С. 15-20.
- Электронный ресурс: Scikit-learn: Machine Learning in Python [Электронный ресурс]. — URL: https://scikit-learn.org (дата обращения: 20.08.2025).
Приложения
Чтобы не перегружать основной текст работы громоздкими материалами, их принято выносить в приложения. Это делает основную часть более читаемой и сфокусированной на сути исследования. В приложения можно включить:
- Полный листинг программного кода, использованного для анализа.
- Дополнительные таблицы с промежуточными расчетами или «сырыми» данными.
- Второстепенные графики и диаграммы, которые не вошли в основной текст.
Перед сдачей работы обязательно проверьте все требования к оформлению, изложенные в методических указаниях вашего вуза. Внимание к деталям на этом финальном этапе производит положительное впечатление на научного руководителя и рецензента.
Список использованной литературы
- Л. В. Щавелёв Способы аналитической обработки данных для поддержки принятия решений. — СУБД. 1998. № 4-5
- Владимир Вьюгин. Математические основы машинного обучения и прогнозирования. — МЦМНО, 2014
- Венкатеш Ганти, Йоханнес Герке, Раджу Рамакришнан. Добыча данных в сверхбольших базах данных. — Открытые системы, 1999, №9-10
- НОУ ИНТУИТ | Data Mining | Информация. [Электронный ресурс]. URL: http://www.intuit.ru/studies/courses/6/6/info (дата обращения: 03.01.2017).
- Christopher M. Bishop. Pattern recognition and machine learning, 2006.
- Осовский С. Нейронные сети для обработки информации.
- А.Н.Горбань, В.Л.Дунин-Барковский, А.Н.Кирдин и др. Нейроинформатика. — Новосибирск: Наука. Сибирское предприятие РАН, 1998.
- Аксенов С.В., Новосельцев В.Б. Организация и использование нейронных сетей (методы и технологии) / Под общ. ред. В.Б. Новосельцева. – Томск: Изд-во НТЛ, 2006.
- Стратонович, Ю.Р. Базы и хранилища данных информационных систем: учебное пособие / Ю. Р. Стратонович ; Министерство сельского хозяйства Российской Федерации, Российский гос. аграрный ун-т — МСХА им. К. А. Тимирязева (Москва). — Москва : РГАУ-МСХА им. К. А. Тимирязева, 2013.
- Дюк В.А., Самойленко А.П. Data Mining: учебный курс.-СПб.: Питер, 2001
- Эделстейн Г. Интеллектуальные средства анализа, интерпретации и представления данных в информационных хранилищах.-ComputerWeek-Москва. 1996. № 16. С. 32-33
- Chickering D, Geiger D., Heckerman D. Learning Bayesian networks: The combination of knowledge and statistical data Machine Learning. 1995.
- Ian H. Witten, Eibe Frank and Mark A. Hall. Data Mining: Practical Machine Learning Tools and Techniques. — 3rd Edition. — Morgan Kaufmann, 2011.