Методология и структура дипломной работы по анализу рисков информационных эпидемий

Введение в исследование

Современное общество определяется скоростью и объемом информационных потоков, которые пронизывают все сферы жизни. Однако наряду с очевидной пользой, эта взаимосвязанность порождает и серьезные угрозы. Одной из ключевых угроз стала инфодемия — избыточный поток информации, включающий преднамеренную дезинформацию или просто ошибочные сведения, который распространяется в моменты неопределенности или кризиса. Такие информационные эпидемии способны не только вводить в заблуждение, но и целенаправленно снижать доверие к официальным источникам и научным данным, создавая риски для стабильности как отдельных организаций, так и общества в целом. Центральная идея данной дипломной работы заключается в разработке и обосновании комплексной методологии риск-анализа, позволяющей идентифицировать, оценивать и эффективно противодействовать подобным информационным угрозам. Обозначив актуальность проблемы, необходимо четко определить границы и задачи предстоящего научного поиска.

Как сформулировать цель, задачи и объект вашего исследования

Корректная постановка научного аппарата — это фундамент всей дипломной работы. Важно четко разграничить ключевые понятия, чтобы выстроить логичную и последовательную структуру исследования.

  • Цель — это стратегический, конечный результат вашей работы. Она должна быть одна и формулироваться максимально конкретно. Пример: Разработка методики оценки рисков распространения деструктивной информации в корпоративной информационно-телекоммуникационной системе (ИТКС).
  • Задачи — это тактические шаги для достижения цели. Обычно их 4-5, и каждая из них представляет собой главу или крупный раздел работы. Они декомпозируют общую цель на измеримые этапы: изучить теоретические основы, проанализировать объект исследования, разработать конкретные предложения и апробировать их на модели.
  • Объект исследования — это система или процесс, на который направлено ваше внимание. В нашем случае это информационно-телекоммуникационная система конкретной организации.
  • Предмет исследования — это конкретная сторона или свойство объекта, которое вы изучаете. Здесь это процессы управления рисками, связанными с информационными эпидемиями в рамках выбранной ИТКС.

Такая четкая структура позволяет сфокусировать анализ рисков на конкретных информационных ресурсах и элементах телекоммуникационной инфраструктуры. Теперь, когда у нас есть четкий план (задачи) и цель, можно приступать к теоретическому фундаменту работы — первой главе.

Проектируем первую главу, где теория встречается с практикой

Первая глава дипломной работы — это не реферат по теме, а аналитический обзор, который выстраивает логический фундамент для вашего собственного исследования. Ее задача — продемонстрировать глубокое понимание проблемы и показать, что, несмотря на существующие наработки, остается нерешенная задача, которую и призвана закрыть ваша дипломная работа. Предлагается следующая структура:

  1. Понятие инфодемии и ее угрозы для ИТКС: Здесь вы раскрываете суть проблемы.
  2. Анализ существующих моделей распространения: В этом разделе вы показываете, как наука пытается описать это явление, уделяя внимание классической модели SIR.
  3. Обзор стандартов управления рисками: Вы анализируете существующие инструменты, такие как стандарт ISO/IEC 27005, и показываете их применимость и ограничения.

Ключевой вывод первой главы должен звучать так: хотя существуют отдельные модели для описания эпидемий и стандарты для управления рисками, до сих пор отсутствует единая стандартизированная методология их комплексной оценки применительно к угрозе инфодемий в корпоративной среде. Это и обосновывает научную новизну вашего исследования.

Глава 1. Раздел 1.1. В чем заключается сущность информационных эпидемий

Под информационной эпидемией (инфодемией) понимают избыточное количество информации, включая ложные или вводящие в заблуждение сведения, которое быстро распространяется в обществе, особенно в условиях чрезвычайных ситуаций. В отличие от обычных информационных потоков, инфодемия обладает рядом деструктивных характеристик:

  • Высокая скорость распространения: Используя социальные сети, мессенджеры и другие цифровые каналы, дезинформация может охватить огромную аудиторию за считанные часы.
  • Психологическое воздействие: Часто такая информация спекулирует на эмоциях, вызывая страх, панику и недоверие к проверенным источникам, что делает людей более восприимчивыми к манипуляциям.
  • Использование технических средств: Нередко инфодемии поддерживаются технически, например, через распространение вирусного программного обеспечения, замаскированного под важные сообщения или документы.

Для корпоративной информационно-телекоммуникационной системы (ИТКС) эти характеристики трансформируются в прямые угрозы безопасности. Это может быть как несанкционированный доступ к данным и их последующая утечка, так и полный паралич систем из-за вирусной атаки или сбоев оборудования. В конечном счете, любая успешная информационная атака наносит серьезный репутационный ущерб. Поняв природу угрозы, необходимо изучить инструменты, которые позволяют описать ее поведение математически.

Глава 1. Раздел 1.2. Как математические модели помогают описать хаос

На первый взгляд, распространение слухов или дезинформации кажется хаотичным процессом. Однако математическое моделирование позволяет выявить в этом хаосе закономерности и даже «предсказать» динамику распространения информации. Одним из классических инструментов, заимствованных из эпидемиологии, является модель SIR. Она делит всю популяцию (например, сотрудников компании) на три группы:

  • S (Susceptible) — Восприимчивые: те, кто еще не столкнулся с информацией, но потенциально может ее получить и распространить.
  • I (Infected) — Инфицированные: те, кто уже является носителем и активным распространителем информации.
  • R (Recovered) — Переболевшие/Устойчивые: те, кто уже столкнулся с информацией, но перестал ее распространять (например, понял, что это фейк, или потерял интерес).

Модель описывает, с какой скоростью люди переходят из одной группы в другую. Существуют и ее модификации, например, SIRS, где «переболевшие» со временем могут снова стать «восприимчивыми». Также в исследованиях применяются и альтернативные подходы, такие как модели на клеточных автоматах. Главный тезис заключается в том, что эти модели позволяют количественно оценить скорость и потенциальный охват информационной эпидемии, а это — первый и важнейший шаг для последующей оценки риска. Мало описать эпидемию, нужно уметь управлять связанными с ней рисками. Для этого обратимся к существующим стандартам.

Глава 1. Раздел 1.3. Какие стандарты и подходы уже существуют для управления рисками

В сфере информационной безопасности (ИБ) существует устоявшийся набор практик и стандартов, которые помогают организациям выстраивать систему защиты. «Золотым стандартом» в этой области считается семейство стандартов ISO 2700x. Особое место в нем занимает ISO/IEC 27005 — это прямое руководство по менеджменту рисков информационной безопасности. Оно предлагает универсальный и циклический процесс:

  1. Идентификация активов (что мы защищаем).
  2. Идентификация угроз (что может случиться с активами).
  3. Идентификация уязвимостей (почему угрозы могут реализоваться).
  4. Оценка рисков и их обработка.

Помимо ISO, существуют и другие известные фреймворки и методы анализа рисков, например, OCTAVE, CRAMM или BS 7799-3. Каждый из них предлагает свой подход к структурированию процесса анализа. Однако все эти стандарты и методологии дают лишь общую рамочную процедуру. Они описывают, что нужно делать, но не говорят, как это делать в специфических условиях информационной эпидемии. Они не предлагают готовой математической модели для оценки вероятности или специфических каталогов угроз, связанных с инфодемиями. Именно этот пробел и должна восполнить ваша работа. Теоретическая база заложена. Теперь переходим к ядру работы — практическому анализу рисков на примере конкретной системы.

Проектируем вторую главу, где начинается ваше собственное исследование

Вторая глава — это переход от теории к практике. Если в первой главе вы анализировали чужие работы, то здесь начинается ваше собственное исследование. Цель этой главы — провести комплексное обследование конкретной организации, чтобы выявить ее ключевые информационные активы, а также потенциальные угрозы и уязвимости, связанные с инфодемиями. Это основа для всей последующей оценки рисков. Структура главы должна быть логичной и последовательной:

  • 2.1. Описание объекта исследования: Детальный анализ IT-инфраструктуры компании, через которую может распространяться информация.
  • 2.2. Идентификация информационных активов и построение модели угроз: Определяем, что именно мы защищаем и от чего.
  • 2.3. Выбор и обоснование методики оценки рисков: Выбираем инструмент, с помощью которого будем измерять и приоритизировать риски.

Эта глава демонстрирует вашу способность применять теоретические знания для решения конкретной практической задачи. Первый шаг любого анализа — понять, что именно мы защищаем.

Глава 2. Раздел 2.1. С чего начать анализ, или как описать IT-инфраструктуру

Начать практический анализ следует с детального описания объекта исследования. Важно понимать, что нет необходимости описывать абсолютно всю IT-систему компании. Фокус должен быть на тех элементах информационно-телекоммуникационной инфраструктуры, которые являются критичными для распространения информации и, следовательно, наиболее уязвимы для инфодемий. К таким элементам обычно относятся:

  • Корпоративные коммуникационные каналы: электронная почта, интранет-портал, корпоративные мессенджеры (например, Slack, MS Teams).
  • Внешние каналы: официальные аккаунты компании в социальных сетях, а также неформальные чаты сотрудников во внешних мессенджерах (Telegram, WhatsApp), если они используются для рабочих вопросов.
  • Сетевая топология и каналы связи: важно понимать, как сегментирована сеть, какие есть точки входа и выхода, и как осуществляется доступ пользователей.
  • Категории пользователей: необходимо выделить группы пользователей с разными правами доступа и уровнем цифровой грамотности (например, администраторы, топ-менеджмент, рядовые сотрудники).

Телекоммуникационные системы являются хранилищами огромного количества конфиденциальных данных, поэтому их детальное описание — это первый и обязательный шаг для идентификации информационных активов и обеспечения их безопасности. Описав «поле битвы», нужно определить, что на нем является ценным и что ему угрожает.

Глава 2. Раздел 2.2. Как выявить активы, угрозы и уязвимости

Это центральный этап анализа рисков, на котором вы должны идентифицировать классическую триаду «актив-угроза-уязвимость». Важно мыслить не только техническими категориями.

  • Активы: Это то, что представляет ценность для компании. Не ограничивайтесь очевидным вроде «базы данных клиентов». Ключевыми активами в контексте инфодемии являются репутация компании, доверие сотрудников к руководству, стабильность бизнес-процессов, коммерческая тайна.
  • Угрозы: Это потенциальные события, которые могут нанести ущерб активам. Примеры угроз, связанных с инфодемией: целенаправленный вброс дезинформации о продукции компании, массовое распространение фишингового письма под видом срочного приказа руководства, вирусная атака, замаскированная под важное обновление ПО.
  • Уязвимости: Это слабые места, которые позволяют угрозе реализоваться. Это могут быть как технические (устаревшее антивирусное ПО, отсутствие сегментации сети), так и организационные проблемы (отсутствие регламентов по работе с подозрительной информацией, низкая цифровая грамотность персонала, отсутствие процедур фактчекинга).

Результатом этого раздела должна стать наглядная таблица (реестр) рисков, где каждая строка связывает конкретный актив с угрозой и уязвимостью. Глубокое понимание угроз помогает выбирать наиболее эффективные меры безопасности. Имея на руках список рисков, их необходимо оценить и приоритизировать.

Глава 2. Раздел 2.3. Как выбрать и применить методику оценки рисков

После того как реестр рисков составлен, их необходимо оценить, чтобы понять, какие из них являются наиболее критичными. Существует два основных подхода к оценке:

  • Качественная оценка: Риски оцениваются по шкале с градациями, например, «низкий», «средний», «высокий». Этот метод проще и быстрее.
  • Количественная оценка: Риск оценивается в конкретных цифрах, чаще всего в денежном выражении (например, потенциальный ущерб в рублях). Этот метод точнее, но требует гораздо больше данных.

Для дипломной работы чаще всего подходит качественный или смешанный подход. Можно предложить простую, но эффективную матрицу оценки, где риск (R) вычисляется как произведение двух факторов: R = Вероятность (P) * Ущерб (D).
Вероятность (P) можно оценить экспертно, но лучше — основываясь на параметрах эпидемиологической модели SIR, учитывая количество уязвимых сотрудников и скорость распространения информации.
Ущерб (D) оценивается с точки зрения влияния на ключевые свойства информации: конфиденциальность, целостность и доступность.
Выбрав методику, вы должны четко обосновать свой выбор, а затем применить ее для оценки каждого риска из реестра, составленного в предыдущем разделе. После оценки рисков мы получаем их приоритетный список. Следующий логический шаг — разработка предложений по их обработке.

Проектируем третью главу, где вы предлагаете решение

Третья глава — это кульминация вашей дипломной работы. Здесь вы перестаете быть аналитиком и становитесь проектировщиком, предлагая конкретные и обоснованные решения выявленных проблем. Если вторая глава отвечала на вопрос «В чем проблема?», то третья отвечает на вопрос «Что делать?». Ее структура должна демонстрировать логику от моделирования угрозы к разработке защиты и доказательству ее эффективности:

  1. Моделирование сценария информационной атаки: Наглядная демонстрация опасности на основе модели SIR и данных из второй главы.
  2. Разработка комплекса мер по снижению рисков: Предложение конкретных организационных и технических решений.
  3. Оценка эффективности предложенных мер: Доказательство того, что ваши меры действительно работают и снижают риски.

Эта глава является вашим главным научным и практическим вкладом. Чтобы доказать эффективность мер, нужно сначала наглядно показать опасность угрозы с помощью моделирования.

Глава 3. Раздел 3.1. Как смоделировать информационную атаку

Чтобы убедительно доказать необходимость внедрения защитных мер, нужно сначала наглядно продемонстрировать масштаб угрозы. Для этого идеально подходит математическое моделирование на основе данных, полученных во второй главе. Алгоритм действий следующий:

  1. Выберите высокоприоритетный риск из вашего реестра. Например, «Массовое распространение фишингового письма с вредоносным вложением через корпоративный мессенджер».
  2. Задайте начальные параметры для модели SIR:
    • N: Общее количество сотрудников в компании (например, 500).
    • I (Infected): Начальное число «инфицированных» — 1 (сотрудник, который первым открыл письмо).
    • S (Susceptible): Все остальные сотрудники — 499.
  3. Определите коэффициенты: Задайте (экспертно или на основе аналогов) коэффициент «заражения» (вероятность, что коллега откроет письмо) и коэффициент «выздоровления» (скорость, с которой IT-служба обнаружит угрозу и заблокирует пользователя или удалит письмо).
  4. Постройте графики: Визуализируйте, как будет меняться число восприимчивых, инфицированных и «выздоровевших» сотрудников с течением времени.

Такая модель наглядно покажет, как быстро бездействие приведет к тому, что «эпидемия» охватит всю или большую часть компании. Наглядная демонстрация угрозы — лучший аргумент в пользу необходимости защитных мер.

Глава 3. Раздел 3.2. Как разработать комплекс защитных мер

На основе проведенного анализа и выявленных рисков необходимо предложить комплекс взаимосвязанных мер. Чтобы предложение было структурированным и полным, разделите все меры на три логические группы. Каждая предложенная мера должна быть напрямую связана с одним или несколькими рисками из реестра, составленного во второй главе.

  • Организационные меры: Направлены на людей и процессы.

    Это основа защиты, так как самый частый вектор атаки — человек. Сюда входят: разработка и внедрение регламента информационной гигиены, проведение регулярных тренингов и киберучений для персонала по распознаванию фишинга, введение обязательных процедур фактчекинга для критически важной информации.

  • Программные меры: Касаются используемого софта.

    Ключевыми мерами являются: внедрение DLP-систем для контроля утечек конфиденциальных данных, использование продвинутого антивирусного ПО с функциями эвристического анализа и «песочницы», а также систем мониторинга сетевого трафика для выявления аномалий.

  • Технические меры: Относятся к «железу» и сетевой архитектуре.

    Сюда можно отнести такие меры, как правильная сегментация корпоративной сети (чтобы изолировать очаг «заражения») и использование сертифицированных средств защиты информации, если это требуется законодательством.

Просто предложить меры недостаточно, нужно доказать, что они будут работать.

Глава 3. Раздел 3.3. Как оценить эффективность ваших предложений

Завершающий шаг проектной главы — это доказательство того, что предложенный вами комплекс мер действительно эффективен. Самый наглядный способ сделать это — вернуться к математической модели, построенной в разделе 3.1, и показать, как ваши меры меняют ее параметры.

Продемонстрируйте, как предложенные решения влияют на коэффициенты модели SIR:

  • Организационные меры (например, тренинги для персонала) напрямую снижают коэффициент «заражаемости» (β), так как сотрудники становятся менее восприимчивы к фишингу и дезинформации.
  • Программные и технические меры (например, внедрение DLP-системы или антивируса) увеличивают коэффициент «выздоровления» (γ), поскольку угроза обнаруживается и нейтрализуется гораздо быстрее.

После этого необходимо построить новые графики с измененными коэффициентами. Эти графики должны наглядно демонстрировать, что при внедрении предложенных мер информационная «эпидемия» либо не начинается вовсе, либо затухает на самой ранней стадии, не успев нанести существенного ущерба. Это и будет являться количественным и визуальным доказательством эффективности вашего проектного решения.

Как написать заключение, которое подчеркнет ценность вашей работы

Заключение — это не формальность, а возможность еще раз подчеркнуть сильные стороны вашего исследования и убедить комиссию в его ценности. Не нужно пересказывать всю работу — нужно синтезировать главные выводы. Структура сильного заключения выглядит так:

  1. Подтверждение достижения цели: Начните с фразы, констатирующей, что цель, поставленная во введении, была успешно достигнута.
  2. Резюме по задачам: Кратко, одним-двумя предложениями, перечислите, что было сделано для достижения этой цели (например, «был проведен анализ теоретических основ…», «обследована IT-инфраструктура…», «разработан комплекс мер…»).
  3. Формулировка главного результата: Четко назовите ваш главный вклад. Это может быть «предложенная методика оценки рисков» или «разработанный комплекс организационно-технических мер».
  4. Научная новизна и практическая значимость: Это ключевой пункт. Укажите, что именно сделано впервые. Например: «Научная новизна заключается в том, что впервые была адаптирована эпидемиологическая модель SIR для количественной оценки рисков информационных эпидемий в корпоративной среде…«. Практическая значимость — в том, что предложенные меры могут быть внедрены в реальной организации.
  5. Перспективы исследования: Кратко обозначьте, в каком направлении можно развивать эту тему дальше (например, исследовать применение ИИ для предиктивного анализа инфодемий).

Финальные штрихи, которые обеспечат вам высокую оценку

Качественное исследование может потерять в весе из-за небрежного оформления. Перед сдачей работы обязательно пройдитесь по финальному чек-листу:

  • Список литературы: Убедитесь, что в нем достаточно источников (обычно 30-50 и более), включая свежие научные статьи, монографии и стандарты. Проверьте, что оформление выполнено строго по ГОСТу.
  • Приложения: Не загромождайте основной текст. Все большие таблицы (например, полный реестр рисков), листинги кода для моделирования, громоздкие схемы и диаграммы следует вынести в приложения.
  • Проверка на антиплагиат: Заранее проверьте свою работу в системе, которую использует ваш вуз. Целевой показатель уникальности текста обычно составляет 80-90%.
  • Вычитка и корректура: Внимательно перечитайте весь текст на предмет опечаток, грамматических и стилистических ошибок. Лучше всего дать прочитать работу кому-то еще — свежий взгляд часто замечает то, что упустили вы.

Эти, казалось бы, мелкие детали формируют общее впечатление о вашей работе и демонстрируют вашу академическую добросовестность.

Список использованной литературы

  1. A. Ganesh, L. Massoulie, and D. Towsley, “The effect of network topology on the spread of epidemics,” in Proceedings of the IEEE INFOCOM, March 2008.
  2. Albert-Laszlo Barabasi, Reka Albert, Hawoong Jeong. Scale free characteristics of random networks: the topology of the world-wide web. // Physica A, 281:69–77, 2010.
  3. Bailey N. The Mathematical Theory of Infectious Diseases and Its Applications.—New York: Hafner Press, 1975.
  4. Benjamin M. Bolker David J. D. Earn, Pejman Rohani and Bryan T. Grenfell.A simple model for complex dynamical transitions in epidemics. Science, 287:667–670, 2008.
  5. C. Nachenberg. The Evolving Virus Threat. / Proceedings 23rd NISSC, 2000, Baltimore, Maryland.
  6. C. Wang, J.C. Knight, M.C. Elder. On Viral Propagation and the Effect of Immunization. / Proc. of 16th ACM Annual Computer Applications Conference, New Orleans, LA, 2009.
  7. C. Wong, S. Bielski, J. M. McCune, and C. Wang, “A study of massmailing worms,” in Proceedings of ACM CCS Workshop on Rapid Malcode (WORM’04), October 2009.
  8. C.C. Zou, L. Gao, W. Gong, D. Towsley. Monitoring and Early Warning for Internet Worms. // Proceedings of the 10th ACM Conference on Computer and Communications Security, CCS 2012. – Washingtion DC, USA. – October 27–30, 2012. – ACM PRESS 2003. – ISBN 1–58113–738–9.
  9. C.C. Zou, W. Gong, D. Towsley. Code Red Worm Propagation Modeling and Analysis. // In 9th ACM Symposium on Computer and Communication Security. – Washington DC, USA. – 2009. – P. 138 – 147.
  10. Cliff C. Zou, DonTowsley, Weibo Gong. Email Worm Modeling and Defense. // Department of Electrical & Computer Engineering. – P. 409-414. – 2004.
  11. D. Bernardes. Relevance of SIR Model for Real-world Spreading Phenomena: Experiments on a Large-scale P2P System. / D. Bernardes, M. Latapy, F. Tarissan.2012 – 8c.
  12. D. Moore, C. Shannon, G. M. Voelker, S. Savage. Internet Quarantine: Requirements for Containing Self–Propagating Code. / In IEEE INFOCOM, 2007.
  13. D. Moore, C. Shannon, J. Brown. Code-Red: a case study on the spread and victims of an Internet Worm. / In Proc. ACM/USENIX Internet Measurement Workshop, France, November, 2009.Боглаев Ю.П.
  14. D. Shinellis. Reliable Identification of Bounded –length Viruses is NP –complete. // IEEE Transactions on Information Theory, 49 (1), 2009, pp. 280 – 284.
  15. D. Watts and S. Strogatz, “Collective dynamic of small-world networks”, Nature, vol. 393, 2006.
  16. D.J. Daley and J. Gani. Epidemic Modelling: An Introduction. Cambridge University Press, 2012.
  17. E. Kenah. Network-based analysis of stochastic SIR epidemic models with random and proportionate mixing / E. Kenah. M. Robins, 2010 – 8c.
  18. E.H. Spafford. An Analysis of the Internet Worm. / Proc. European Software Engineering Conference, 2011, Springer – Verlag, pp. 446 – 468.
  19. E.H. Spafford. The Internet worm incident. / Proc. European Software Engineering Conference, 1989, Coventry, United Kingdom.
  20. L. Hatton. The T – experiments: Errors in Scientific Software. / IEEE Computational Science and Engineering, vol. 4 (2), pp. 27 – 38, 2009.
  21. L. Wang, X. Zhao, D. Pei, R. Bush, D. Massey, A. Mankin, S. Wu, L. Zhang. Observation and Analysis of BGP Behavior under Stress. Internet Measurement Workshop, France, 2011.
  22. M. Boguna, R. Pastor-Satorras, and A. Vespignani, “Epidemic spreading
  23. M. Newman, S. Forrest, and J. Balthrop, “Email networks and the spread of computer viruses,” Phys. Rev. E., vol. 66, no. 035101, 2010.
  24. N. Altholz, L. Stevenson. Rootkits for Dummies. John Wiley and Sons Ltd, 2006. ISBN 0-471-91710-9.
  25. N.T. Bailey. The Mathematical Theory of Infectious Diseases and its Applications. Hafner Press, New – York, 1975.
  26. Nicholas Weaver, Vern Paxson, Stuart Staniford, Robert Cunningham. A Taxonomy of Computer Worms. – Washington, DC, USA. – October 27. – 2010
  27. R. Pastor-Satorras and A. Vespignani, “Epidemic spreading in scale-free networks,” Phys. Rev. Letters, vol. 86, 2011.
  28. R.M. Anderson, R.M. May. Infectious diseases of humans: dynamics and control. Oxford University Press, Oxford, 2011.
  29. Reka Albert, Albert-Laszlo Barab.asi. Statistical mechanics of complex networks. // Reviews of Modern Physics, 74:47–97, 2009.
  30. Romualdo Pastor-Satorras, Alessandro Vespignani. Epidemic spreading in finite scale-free networks. // Physical Review E, 65:035108 1 – 035108 5, 2009.
  31. The Workshop on Rapid Malcode (WORM). – Washington DC, USA. – ACM PRESS. – October 27 2010. – ISBN 1–58113–785–0.
  32. V. Misra, W. Gong, D. Towsley. A fluid based analysis of a network of AQM routers supporting TCP flows with an application to RED. / Proc. of ACM/SIGCOMM, pp. 151 – 160, 2011
  33. V. Yegneswaran, P. Barford, J. Ullrich. Internet Intrusions: Global Characteristics and Prevalence. / In ACM SIGMETRICS, June, 2008.
  34. V.H. Berk, R.S. Gray, G. Bakos. Using sensor networks and data fusion for early detection of active worms. / In Proc. of the SPIE AeroSense, 2009.
  35. Y. Moreno, J. Gomez, and A. F. Pacheco, “Epidemic incidence in correlated complex networks,” Phys. Rev. E., vol. 68, 2009.
  36. Y. Moreno, R. P. Satorras, and A. Vespignani, “Epidemic outbreaks in complex heterogeneous networks,” Eur. Phys. J. B, vol. 26, 2010.
  37. Y. Moreno, Romualdo Pastor-Satorras, Alessandro Vespignani. Epidemic outbreaks in complex heterogeneous networks. // The European Physical Journal B, 26:521–529, 2012.
  38. Y. Wang, D. Chakrabarti, C. Wang, and C. Faloutsos, “Epidemic spreading in real networks: An eigenvalue viewpoint,” in Proceedings of 22nd Symposium on Reliable Distributed Computing, October 2010.
  39. Y. Wang. Modeling Worms Propagation on Probability / Y. Wang, S. Wen, Y. Xiang.2011-8c.
  40. Z. Chen, L. Gao, and K. Kwiat, “Modeling the spread of active worms,” in Proceedings of the IEEE INFOCOM, March 2008.
  41. Вахрушев А.В., А.Ю. Федотов Вероятностный анализ моделирования распределения структурных характеристик композиционных наночастиц, сформированных в газовой фазе. Институт прикладной механики УрО РАН, Ижевск, 426067, Россия.
  42. Вентцель Е.С. Теория вероятностей: учебник / Е.С. Вентцель – 11-е изд. – М.: КНОРУС, 2010. – 664 с.
  43. Венцель Е.С. Теория вероятности Издадельство: НАУКА — Главная редакция физикоматематической литературы — 1969 г. — 564 с.
  44. Википедия — свободная энциклопедия – Электрон. дан. – Режим доступа: http //ru.wikipedia.org.
  45. Воробьев О.Ю. Вероятностное множественное моделирование / О.Ю. Воробьев, Э.Н. Валендик – Новосибирск: Наука, 1978. – 131 с.
  46. Воронов, А.А. Применение методологического анализа в исследовании безопасности / А.А. Воронов, И.Я. Львович // Информация и безопасность. – 2011. – Т. 14. – Вып. 3. – С. 469–470.
  47. Гмурман В.Е. Теория вероятностей и математическая статистика. М.: Высш. шк., 2002. – 478 с.
  48. Гнеденко Б.В. Математические вопросы теории надежности / Б.В. Гнеденко, Ю. К.Беляев, И.Н.Коваленко // Итоги науки. Сер. Теор. вероятн. Мат. стат. Теор. кибернет. 1964, ВИНИТИ, М., 1966, — 44с
  49. Городецкий А. Е. Дубаренко В. В. Комбинаторный метод вычисления вероятностей сложных логических функций // ЖВМ и МФ. 1999. №7. С. 1201-1203.
  50. Гранатуров В.М. Экономический риск: сущность, методы измерения, пути снижения. М.: Дело и сервис, 2002.
  51. Давыденко В.А., Ромашкина Г.Ф., Чуканов С.Н. Моделирование социальных сетей. Отчет по гранту «Социолого-математическое моделирование социальных сетей». — Вестник Томского госуниверсита.
  52. Ермилов, Е.В. Риск–анализ распределенных систем на основе параметров рисков их компонентов / Е.В. Ермилов, Е.А. Попов, М.М. Жуков, О.Н. Чопоров // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 123–126.
  53. Информационный новостной портал. – Электрон. дан. – Режим доступа: http //www.lenta.ru.
  54. Кельтон В., А. Лоу Издательство: Питер, 2004 год. Имитационное моделирование. Классика CS. 3-е изд. Обьем — 848 с.
  55. Колмогоров А.Н. Определение центра рассеивания и меры точности по ограниченному числу наблюдений. М: ИАН СССР, 1947.
  56. Котенко, Д.А. Метод оценки риска информационной безопасности на основе сценарного логико-вероятностного моделирования. Санкт-Петербург 2010г.
  57. Куканова Н. Методы и средства анализа рисков и управление ими в ИС // Byte/Россия. 2005. № 12. С. 69—73.
  58. Кулаков В.Г., Карпеев Д.О., Остапенко А.Г. Риск-анализ информационных систем. //Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж. 2008. Вып. 1. С. 485-531.
  59. Куликов, С.С. Исследование характеристик уязвимостей информационно–телекоммуникационных систем / С.С. Куликов, В.И. Белоножкин // Информация и безопасность. – 2013. – Т. 16. – Вып. 2. – С. 257–258.
  60. Куликов, С.С. Метод риск–анализа информационно–телекоммуникационных систем при атаках на их ресурсы / С.С. Куликов, В.И. Белоножкин // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 143–144.
  61. Куликов, С.С. Параметры и характеристики риск–модели для распределения максимальных значений переменных состояния защищенности системы / С.С. Куликов, И.Д. Петров, Ю.Г. Пастернак // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 127–130.
  62. Лагоша Б.А., Шаркович В.Г., Дегтягева Т.Д. Методы и модели совершенствования организационных структур. М.: Наука, 1988. — 189 с.
  63. Ллойд Д. Надежность. Организация и исследование, методы, математический аппарат / Ллойд Д., Липов М. // Space Technology Laboratories, Inc.
  64. Львович И.Я., Фролов В.Н. Имитационное моделирование структуры и параметров технологических систем // Математическое и машинное моделирование: тез. докл. Всес. конф. Воронеж, 1991, с. 61
  65. Машин, С.В. Параметры риска для автоматизированных систем, атакуемых вирусами / С.В. Машин, К.А. Разинкин, А.Ю. Зацепин // Информация и безопасность. – 2011. – Т. 14. – Вып. 3. – С. 467–468.
  66. Машин, С.В. Функции чувствительности риска при вирусных атаках на автоматизированные системы / С.В. Машин, Н.И. Баранников, А.Ю. Зацепин // Информация и безопасность. – 2011. – Т. 14. – Вып. 3. – С. 391–400.
  67. Мишин К.Н. Имитационное моделирование аномальных явлений в компьютерных сетях. Записки научных семинаров Санкт-Петербургского отделения математического института им. В.А. Стеклова РАН. 2007, с. 120-128.
  68. Научная электронная библиотека Elibrary. – Электрон. дан. – Режим доступа http://elibrary.ru.
  69. Остапенко А.Г. К вопросу об оценке ущерба в жизнестойкости атакуемых распределенных информационных систем: Развитие методического обеспечения / А.Г.Остапенко, Н.М. Радько Д.Г. Плотников // Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж. 2012. №4
  70. Остапенко А.Г. Логлогистическое распределение ущерба: расчет риска ИТКС на основе параметров риска её компонентов/ А.Г.Остапенко, Д.Г. Плотников, Д.Б. Борисов, А.С. Заворыкин // Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж. 2012. – № 1. – С. 135-137.
  71. Остапенко А.Г. Модели выживаемости атакуемой распределенной информационной системы: риск-формализация с учетом возможного ущерба/ А.Г. Остапенко, Д.Г.Плотников, // Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж 2012 №4.
  72. Остапенко А.Г. Модели выживаемости распределенной информационной системы./ А.Г. Остапенко, Д.Г.Плотников, // Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж №4
  73. Остапенко А.Г. Функция возможности в оценке рисков, шансов и эффективности систем / А.Г. Остапенко // Информация и безопасность: Регион. науч.-техн. журнал. — Воронеж. 2010. – № 1. — С. 17 – 20.
  74. Остапенко А.Г. Шанс/риск: системный анализ и регулирование: учеб. пособие. Воронеж: ВГТУ – 97 c.
  75. Остапенко А.Г., Карпеев Д.О., Плотников Д.Г. Перспективы развития методологии риск-анализа // Информация и безопасность, Воронежский государственный технический университет (Воронеж). — 2009. — №3. — С. 419-424.
  76. Остапенко Г.А. К вопросу об управлении рисками распределенных информационных систем / Г.А. Остапенко, Д.Г. Плотников, А.Ю. Дуплищева // Информация и безопасность: Регион. науч.-техн. журнал. — Воронеж. 2010. – № 2. – С. 259 – 261.
  77. Остапенко Г.А. Методическое и алгоритмическое обеспечение расчета параметров рисков для компонентов распределенных систем/ Г.А. Остапенко, Д.Г. Плотников, Е.А. Мешкова // Информация и безопасность: Регион. науч.-техн. журнал. — Воронеж. 2010. – № 3. – С. 335 – 350.
  78. Остапенко Г.А. Оценка ущерба атакуемых распределенных информационных систем / Г.А. Остапенко, Д.Г. Плотников, // Информация и безопасность: Регион. науч.-техн. журнал. — Воронеж. 2012. – № 3. – С. 359 – 367.
  79. Остапенко Г.А. Риски распределенных систем: методики и алгоритмы, оценки и управление / Г.А. Остапенко, Д.О. Карпеев, Д.Г. Плотников, Р.В. Батищев, И.В. Гончаров, П.А. Маслихов, Е.А Мешкова, Н.М. Морозова, С.В. Рязанов, Е.В. Субботина, В.А. Транин // Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж. 2010. – № 4. – С. 485-531.
  80. Остапенко О.А. Риски систем: оценка и управление: учеб. пособие / О.А. Остапенко, Д.О. Карпеев, В.Н. Асеев; под ред. Ю.Н. Лаврухина. – Воронеж: ГОУВПО «ВГТУ», 2006. — 247 с.
  81. Остапенко, А.Г. Логлогистическое распределение ущерба: расчёт риска ИТКС на основе параметров риска её компонентов / А.Г. Остапенко, Д.Г. Плотников, О.А. Остапенко, П.А. Маслихов // Информация и безопасность. – 2012. – Т. 15. – Вып. 3. – С. 425–428.
  82. Остапенко, А.Г. Перспективы развития методологии риск–анализа систем / А.Г. Остапенко, Д.О. Карпеев, Д.Г. Плотников // Информация и безопасность. – 2009. – Т. 12. – Вып. 3. – С. 419–424.
  83. Остапенко, А.Г. Предупреждение и минимизация последствий компьютерных атак на элементы критической информационной инфраструктуры и автоматизированные информационные системы критически важных объектов: риск–анализ и оценка эффективности защиты / А.Г. Остапенко, Е.В. Ермилов, А.Н. Шершень, Е.С. Соколова, И.В. Шевченко // Информация и безопасность. – 2013. – Т. 16. – Вып. 2. – С. 167–178.
  84. Остапенко, А.Г. Риски ущербности, шансы полезности и жизнестойкость компонент автоматизированных систем в условиях воздействия на них информационных угроз / А.Г. Остапенко, Е.В. Ермилов, А.О. Калашников // Информация и безопасность. – 2013. – Т. 16. – Вып. 2. – С. 215–218.
  85. Остапенко, Г.А. К вопросу об оценке ущерба и жизнестойкости атакуемых распределенных информационных систем: развитие методического обеспечения / Г.А. Остапенко, Д.Г. Плотников, Н.Ю. Щербакова, В.С. Зарубин // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 141–142.
  86. Остапенко, Г.А. Концептуальный подход к расчету и регулированию рисков нарушения актуальности информации в элементах критической информационной структуры / Г.А. Остапенко, А.Н. Шершень, А.О. Калашников // Информация и безопасность. – 2013. – Т. 16. – Вып. 2. – С. 239–242.
  87. Остапенко, Г.А. Методика риск–анализа систем, атаки на которые предусматривают внедрение вредоносного программного обеспечения: экспоненциальные модели / Г.А. Остапенко, Н.М. Радько, Д.Г. Плотников, А.А. Голозубов, А.Н. Шершень // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 99–102.
  88. Остапенко, Г.А. Методическое и алгоритмическое обеспечение расчета параметров рисков для компонентов распределенных систем / Г.А. Остапенко, Д.Г. Плотников, Е.А. Мешкова // Информация и безопасность. – 2010. – Т. 13. – Вып. 3. – С. 335–350.
  89. Остапенко, Г.А. Методическое и алгоритмическое обеспечение расчета распределенных систем на основе параметров рисков их компонент / Г.А. Остапенко, Д.О. Карпеев // Информация и безопасность. – 2010. – Т. 13. – Вып. 3. – С. 373–380.
  90. Остапенко, Г.А. Модели выживаемости атакуемой распределенной информационной системы: риск–формализация с учетом возможного ущерба / Г.А. Остапенко, Д.Г. Плотников, Н.Ю. Щербакова, Н.И. Баранников // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 63–68.
  91. Остапенко, Г.А. Программная реализация алгоритмов риск–анализа распределенных систем / Г.А. Остапенко, С.С. Куликов, Д.Г. Плотников, Ю.С. Науменко // Информация и безопасность. – 2011. – Т. 14. – Вып. 1. – С. 53–60.
  92. Остапенко, Г.А. Распределенные системы: методологии оценки эффективности в условиях атак / Г.А. Остапенко, Д.Г. Плотников, Р.В. Батищев, И.В. Гончаров // Информация и безопасность. – 2010. – Т. 13. – Вып. 3. – С. 359–366.
  93. Остапенко, Г.А. Риски распределенных систем: методики и алгоритмы оценки и управления / Г.А. Остапенко, Д.О. Карпеев, Д.Г. Плотников, Р.В. Батищев, И.В. Гончаров, П.А. Маслихов, Е.А. Мешкова, Н.М. Морозова, С.А. Рязанов, Е.В. Субботина, В.А. Транин // Информация и безопасность. – 2010. – Т. 13. – Вып. 4. – С. 485–530.
  94. Острейковский В.А. Математическое моделирование техногенного риска / В.А. Острейковский, А.О. Генюш, Е.Н. Шевченко; Сургут. гос. ун-т ХМАО-Югры. – Сургут: ИЦ СурГУ, 2010. – 83 с.
  95. Паринова, Л.В. К вопросу об оценке рисков атакуемых распределенных информационных систем: развитие математического обеспечения / Л.В. Паринова, Н.М. Радько, А.Г. Остапенко, В.Л. Каркоцкий, Д.Г. Плотников // Информация и безопасность. – 2012. – Т. 15. – Вып. 4. – С. 585–586.
  96. Попов, Е.А. Риск–анализ атакуемых информационно–телекоммуникационных систем с использованием нерегулярного распределения / Е.А. Попов, Н.Ю. Щербакова, Н.М. Тихомиров, А.Н. Шершень // Информация и безопасность. – 2013. – Т. 16. – Вып. 1. – С. 39–46.
  97. Поспелов Д.А. Логико-лингвистические модели в системах управления. – М.: Энергоиздат, 1981. – 232 с.
  98. Пятибратов и др. Вычислительные системы, сети и телекоммуникации. – ФИС, 1998. -262 с.
  99. Радько Н.М., Скобелев И.О. Риск-модели информационно-телекоммуникационных систем при реализации угроз удаленного и непосредственного доступа.—М: Радио Софт, 2010—232с: 76 илл., 7 табл., библиогр. 109 назв. ISBN 978-5-93274-019-4
  100. Рябинин И.А. Логико-вероятностные методы исследования надежности структурно-сложных систем. / И.А. Рябинин — М.: Радио и связь, 1981 — 264с.
  101. Субботина Е.В., Транин В.А. Риски распределенных систем: методики и алгоритмы, оценки и управление. //Информация и безопасность: Регион. науч.-техн. журнал. – Воронеж. 2010. Вып. 4. С. 485-531.
  102. Хаусманн Л. Знать, что происходит в сети. // LAN: журнал сетевых решений, 2006, №10, СС. 104-106.
  103. Хохлов Н.В. Управление риском. Учеб. пособие для вызов. – М.: Юнити-Дана, 1999. -239 с.
  104. Шоломицкий А.Г. Теория риска. Выбор при неопределенности и моделирование риска: учеб. пособие для вузов. – М.: Изд. дом ГУ ВШЭ, 2005. – 400 с.

Похожие записи