План на курса

Въведение в моделите на угрози за AI

  • Какво прави системите за AI уязвими?
  • Повърхността на атака при AI модели спрямо традиционните системи
  • Ключови вектори за атака: данни, модел, изход и интерфейсни слоеве

Враждебни атаки на AI модели

  • Разбиране на враждебните примери и методите за промяна
  • Белите кутии против черни кутии атаки
  • FGSM, PGD и DeepFool методи
  • Визуализация и създаване на враждебни примери

Инверзии на модели и разкриване на лични данни

  • Инференцията на обучащите данни от изхода на модела
  • Атаки за инференция на членство
  • Рискове за приватността при класификационни и генеративни модели

Отровяващи данни и инжекции на бъгдоори

  • Как отровните данни влияят на поведението на модела
  • Атаки с тригер и троянски коне
  • Стратегии за разпознаване и очистка

Робастност и защитни методи

  • Враждебно обучение и увеличаване на данните
  • Маскиране на градиентите и препроцесиране на входа
  • Смекчаване на модела и методи за регуляризация

Защитни методи за приватността при AI

  • Въведение в диференциалната приватност
  • Инжекция на шум и бюджети за приватност
  • Федерирано обучение и сигурна агрегация

Практическа киберсигурност за AI

  • Оценка на модели с предвидени угрози и тяхното разгъваряне
  • Използване на ART (Adversarial Robustness Toolbox) в приложни случаи
  • Истории от индустрията: реални нарушения и методи за намаляване

Резюме и следващи стъпки

Изисквания

  • Разбиране на работните процеси и обучението на модели при машинното учене
  • Опит с Python и общи ML рамки като PyTorch или TensorFlow
  • Запознаване с основни концепции за сигурност или модели на угрози е полезно

Целева аудитория

  • Инженери по машинното учене
  • Аналитици за киберсигурност
  • ИСКУИ търсачи и екипи за валидация на модели
 14 Часове

Брой участници


Цена за участник

Отзиви от потребители (1)

Предстоящи Курсове

Свързани Kатегории