Вопрос или проблема
Я ищу основные и фундаментальные академические статьи по атакам или защите от атак. Алгоритм атаки или защиты должен быть легким для понимания, а код должен быть доступен на Python. Где я могу найти такие статьи?
Я могу порекомендовать этот бесплатный курс на YouTube. Он должен быть относительно простым для понимания. В лекциях имеются ссылки на соответствующие публикации по данной теме и слайды, объясняющие их в краткой форме. Последнее видео — это лабораторная работа с примерами кода, но я рекомендую сначала посмотреть лекции. Также вот ссылка на репозиторий GitHub курса, который постоянно обновляется https://github.com/unica-mlsec/mlsec.
Надеюсь, это поможет!
Ответ или решение
В последние годы тема противодействия и атаки на нейросетевые модели получила широкое распространение, и в этой области было опубликовано множество значимых научных работ. Если вы ищете основополагающие исследования в области адверсариальных атак или защиты с сопутствующим кодом на Python, я приведу несколько таких рекомендаций, которые не только легче понять, но и снабжены кодовыми примерами.
Фундаментальные научные работы по адверсариальным атакам
-
"Explaining and Harnessing Adversarial Examples" авторства Иена Гудфеллоу и соавторов. Это одна из первых работ, посвящённых феномену адверсариальных примеров. В ней рассматриваются методы атаки на модели глубокого обучения и предложены базовые защиты. Код: GitHub репозиторий AdverTorch.
-
"Adversarial Machine Learning at Scale" от Н. Папернота и коллег исследует, как адверсариальные атаки могут быть масштабированы до больших систем. Это исследование особенно полезно для понимания, как атаки могут применяться в реальных приложениях. Код: часто находится в зависимости от библиотеки Cleverhans на GitHub.
-
"Towards Deep Learning Models Resistant to Adversarial Attacks", исследование, сосредоточенное на создании моделей, которые более устойчивы к атакам. Анализируется методика тренировки с применением адверсариальных примеров. Код: Репозиторий со стратегиями усиленной тренировки.
-
"Intriguing properties of neural networks" автора Кристиана Шмидта, озвучивает первоначальную идею о том, что нейронные сети восприимчивы к малым, специально сформированным шумам. Здесь код специфически не приводится, но многие сообщества получили вдохновение от данного исследования.
Дополнительные образовательные материалы
Ваш интерес к материалам с кодом и учебными курсами можно дополнительно удовлетворить с помощью рекомендованного вами бесплатного курса на YouTube. Каналы, которые излагают материал с использованием лекций и лабораторных примеров, становятся ценным инструментом для изучения. В данном случае, GitHub-репозиторий курса содержит множество актуальных кодов и примеров для самостоятельного изучения (GitHub репозиторий).
Заключение
Изучение адверсариальных атак и защиты требует понимания как теоретических основ, так и практических реализаций. Использование упомянутых основополагающих статей даст вам прочную основу для погружения в тему. Кроме того, просмотр лекций и работа с кодами из открытых репозиториев станет неоценимым опытом для вашей профессиональной деятельности.