ANT3005

MLSecOps

Длительность обучения: 5 дней

Записаться на курс

Описание
курса

Материал данного курса позволит слушателям изучить теорию и практику современных угроз, атак, методов защиты и аудита систем искусственного интеллекта и машинного обучения. Слушатели научатся моделировать угрозы, реализовывать и обнаруживать атаки (adversarial, poisoning, supply chain, privacy leakage), а также применять инструменты для построения защищённых ML-pipeline’ов, мониторинга и аудита моделей машинного обучения. Внимание уделяется лабораторным работам на OSS-фреймворках.

Аудитория курса

Специалисты в области кибербезопасности, желающие освоить специфику защиты ML/ИИ систем, а также разработчики и архитекторы ИИ-решений, разрабатывающие ML-pipeline'ы с учетом требованией безопасности.

Предварительные требования

Необходимо обладать знаниями Python и практическим опытом работы с ML/AI-фреймворками (scikit-learn, PyTorch, TensorFlow, Jupyter).

Как устроено
обучение

Онлайн-курс

Онлайн-курс предполагает групповые занятия с инструктором через систему видеоконференцсвязи, кроме того, домашние задания и экзамен. Слушателям предоставляются учебные пособия и дополнительные материалы

Для корпоративных клиентов

Обучение для корпоративных клиенов включает в себя онлайн-курсы и курсы самообучения, а также дополнительные сервисы,необходимые корпоративным клиентам: организация планов обучения для подразделений клиента, проведение оценки эффективности обучения и т.д.

преподаватель
курса

программа
курса

• Риски и специфика AI-систем: отличия от классических ИС.
• Классификация угроз (adversarial ML, data poisoning, model stealing, privacy leaks и др.).
• Типовые злоумышленники, мотивация и сценарии атак.
• Модели угроз для ML/AI pipeline.
• Краткий разбор инцидентов (case studies).
• Требования регуляторов (NIST, ISO/IEC 27001, 27017, IEEE) для AI.
• Adversarial: теория, методы генерации (FGSM, PGD, Carlini-Wagner и др.).
• Категории атак (white-box/black-box, targeted/untargeted).
• Атакуемые объекты: классификация, сегментация, OCR, звук, NLP.
• Механизмы защиты: adversarial training, input preprocessing, усиленные архитектуры.
• Методы оценки устойчивости моделей (robustness metrics).
• Data poisoning: типы атак (label flipping, backdoor, clean-label).
• Механизмы атаки и стадии внедрения.
• Опасности цепочек поставки: подмена моделей, репозиториев, библиотек.
• Примеры атак через PyPI, Huggingface.
• Механизмы защиты: отслеживание контента, верификация исходников, “песочницы”.
• Актуальные стандарты и best practices (MLSecOps, DevSecOps).
• Утечки через обученные модели: membership inference, model inversion.
• Риски: reconstruction attacks, extraction attacks.
• Меры защиты: differential privacy, federated learning, homomorphic encryption.
• Обнаружение атак: практические методы фиксации утечек.
• Требования рещуляторов: GDPR, перспективы ЕАЭС/РФ, NIST AI RMF.
• Комплексная архитектура безопасности ML/AI-систем.
• Построение безопасного pipeline’а (CI/CD, MLOps, Model Registry, Monitoring).
• Аудит качества защиты и мониторинг моделей.
• Реагирование на инциденты для AI/ML.
• Примеры корпоративной архитектуры безопасности (Google TFX, Kubeflow, Microsoft).
• Краткий разбор сценариев аудитов.

Варианты
покупки курса

индивидуальное

Стоимость курса — 109 200,00 ₽

Групповые онлайн-занятия

Бессрочный доступ ко всем материалам

Живые вебинары с преподавателем

Домашние задания

Экзаменация с выдачей сертификата

Для уточнения даты проведения курса, пожалуйста, заполните форму.

Оставить заявку

*Нажимая на кнопку, вы соглашаетесь с публичной офертой и политикой конфиденциальности

корпоративное

Стоимость курса от 109 200,00 ₽

Для получения данных о конечной стоимости и уточнения даты проведения курса, пожалуйста, заполните форму.

Оставить заявку

*Нажимая на кнопку, вы соглашаетесь с публичной офертой и политикой конфиденциальности