План на курса

Въведение в моделиране на заплахи срещу ИС
  • Какво прави ИС системи уязвими?
  • Атакуваема област на ИС vs традиционни системи
  • Ключови векторни атаки: данни, модел, изход и интерфейсни слоеве

Враждовски атаки върху ИС модели

  • Разбиране на враждовски пример и техники за засегване
  • Бели кутии vs черни кутии атаки
  • Методи FGSM, PGD и DeepFool
  • Визуализация и създаване на враждовски примерки

Обръщане на модели и утечка на лични данни

  • Извличане на тренировочни данни от изход на модела
  • Атаки за извличане на членство
  • Рискове за личните данни в класификационни и генериращи модели

Отравяне на данни и инжектиране на задни врати

  • Как отравените данни влияят на поведението на модела
  • Тригери базирани задни врати и Троянски атаки
  • Стратегии за откриване и изчистване

Робустност и техници за защита

  • Враждовско обучение и разширение на данни
  • Маскиране на градиенти и предобработка на входни данни
  • Гладкост на модели и техники за регуларизация

Защита на ИС с охрана на личните данни

  • Въведение в диференциална конфиденциалност
  • Инжектиране на шум и бюджети за конфиденциалност
  • Федеративно обучение и сигурно агрегиране

AI Security в практиката

  • Оценка и развертане на модели с осъзнаване на заплахи
  • Използване на ART (Adversarial Robustness Toolbox) в приложени условия
  • Случаи от индустрията: реални уязвимости и намаляване на рисковете

Резюме и следващи стъпки

Изисквания

  • Разбиране на работните процеси на машинно обучение и обучение на модели
  • Опит с Python и общоприети ML рамки като PyTorch или TensorFlow
  • Знание на основните концепции за сигурност или модел на заплахи е полезно

Целева група

  • Инженери на машинно обучение
  • Аналитици на киберсигурност
  • Изследователи на ИИ и екипи за валидация на модели
 14 Часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории