Пример готовой курсовой работы по предмету: Программирование
Содержание
ВВЕДЕНИЕ 3
1. Методы сбора информации о посетителях корпоративного сайта. 6
1. Введение в анализ ассоциативных правил 7
1.1. Основные понятия о веб-аналитике 7
1.2. Анализ посещаемости сайта 10
1.3. Обработка больших массивов данных в базах знаний. Ассоциативные правила. 14
1.3.1 Свойство анти-монотонности 16
1.3.2. Обобщенные ассоциативные правила 17
1.3.3. Определение «интересных» правил 18
1.3.4. Численные ассоциативные правила 20
2. ПРАКТИЧЕСКАЯ РЕАЛИЗАЦИЯ АЛГОРИТМА 21
2.1. Apriori при поиске ассоциативных правил 21
2.2. Алгоритм вычисления обобщенных ассоциативных правил 27
2.3 Базовый алгоритм поиска часто встречающихся множеств 28
2.4. Реализация алгоритма 29
ЗАКЛЮЧЕНИЕ 33
ЛИТЕРАТУРА 34
ПРИЛОЖЕНИЕ. КОД АЛГОРИТМА 35
Выдержка из текста
Основным средством хранения и распространения информации является сеть Интернет. Интернет используется людьми разнопланово. Сеть Интернет содержит достаточно большое количество различных сервисов, среди которых представление информации является наиболее распространенным, но не единственным. Все больше внимания уделяется внедрению бизнес-сервисов в разных формах. При этом вопросы посещаемости сайта, информация о пути пользователя на сайте является основой для статистического анализа, который в дальнейшем станет одним из основных источником, определяющем маркетинговую политику.
Посещаемость сайта – основной показатель его конкурентоспособности. Посещаемость чужого сайта – ценная информация для анализа ближайших конкурентов или определения лидеров, на которых строит равняться. Чаще всего, эти данные не всегда доступны.
При рассмотрении бизнес-составляющей информации в сети Интернет возникает необходимость анализа поведения пользователей на корпоративном веб-сайте, во-первых, для обеспечения доступности к нужной пользователям информации и на основе анализа разрабатываются методы эффективной работой сайта и оптимального предоставления услуг.
На основе анализа посещаемости определенных веб-ресурсов:
- улучшается удобство использования сайта;
- увеличить долю клиентов среди посетителей;
- увеличить число заказов;
- оценить эффективность рекламы;
- улучшить качество обслуживания;
- проанализировать работу сайту.
Развитие компьютерных технологий послужило значительному увеличению объема хранимых данных. Это в свою очередь привело к тому, что человеку стало все труднее проанализировать их. Хотя необходимость проведения такого анализа вполне очевидна, ведь в этих «сырых данных» заключены знания, которые могут быть использованы при принятии решений. Поэтому стали развиваться методы, позволяющие проводить автоматический анализ данных.
Анализом данных занимается веб-аналитика, основной задачей которой является измерение, сбор, представление и интерпретация информации о посетителях веб-сайтов с целью оптимизации и улучшения работы сайта.
Рассматривают два вида веб-аналитики: внутреннюю и внешнюю.
Внешняя аналитика исследует поведение сайта в сети Интернет. Внутренняя аналитика занимается вопросами внутренней структуры сайта.
В данной работе мы будем рассматривать внешнюю аналитику сайта, так как внутренняя аналитика сайта, чаще всего является закрытой для внешнего доступа и анализа чужими системами.
Веб-аналитика предполагает наличие специальных методов анализа, в состав которых входят алгоритмы анализа данных.
Широкое распространение получил Data Mining.
Data Mining – это процесс обнаружения в полученных в результате измерений данных ранее неизвестных необычных и практически полезных знаний, которые могут быть обработаны и использованы для принятия решений в различных сферах человеческой деятельности, в том числе и при модернизации, информационной составляющей веб ресурса.
Знания должны описывать новые связи между свойствами, предсказывать значения одних признаков на основе других и т.д. Найденные знания должны быть применимы и на новых данных с некоторой степенью достоверности. Полезность заключается в том, чтобы эти знания могли принести определенную выгоду при их применении.
Алгоритмы, используемые в Data Mining, требуют большого количества вычислений. Раньше это являлось сдерживающим фактором широкого практического применения Data Mining, однако сегодняшний рост производительности современных процессоров снял остроту этой проблемы. Теперь за достаточно ограниченное время можно провести подробный анализ миллионов записей.
Для решения данных задач используются различные методы и алгоритмы Data Mining. Большую популярность получили следующие методы Data Mining: нейронные сети, деревья решений, алгоритмы кластеризации, в том числе и масштабируемые, алгоритмы обнаружения ассоциативных связей между событиями и т.д.
К таким алгоритмам можно отнести алгоритм «Априори».
Цель курсовой работы — Применение поиска ассоциативных правил для анализа посещаемости web-сайтов.
Задачи курсовой работы:
1. Проанализировать методы сбора информации о посетителях веб сайта.
2. Изучить ассоциативные правила в веб-анализе
3. Изучить алгоритм Априори.
4. Разработать программный продукт на базе изученного алгоритма
Список использованной литературы
1. Кошик А. Веб-аналитика. Анализ информации о посетителях веб-сайтов. – М:Диалектика, Вильямс, 2009, 464 с.
2. Бергер А. Microsoft SQL Server 2005 Analysis Services, OLAP и многомерный анализ данных. СПБ: БХВ-Питербург, 2007, 928 с.
3. "Wikipedia about Data Mining"
4. "Data Mining Tutorials"
5. "Thearling intro paper"
6. "Что такое Data mining?"
7. "INTUIT.ru: Учебный курс — Data Mining"
8. "Data Mining — подготовка исходных данных"