План на курса

Въведение в AI Red Teaming

  • Разбиране на ландшафта на AI заплахи
  • Роли на червените екипи в AI сигурност
  • Етични и правни разгледи

Враждебни Machine Learning

  • Видове атаки: уклонение, отравяне, извличане, извличане на заключения
  • Генерация на враждебни примерци (например, FGSM, PGD)
  • Насочени против не насочени атаки и метрики за успех

Тестване на устойчивостта на моделите

  • Оценка на устойчивостта при нарушения
  • Разглеждане на слепи точки и режими на срив на моделите
  • Стресотестване на модели за класификация, визуализация и NLP

Red Teaming на AI Пиплайни

  • Повърхност за атака на AI пиплайни: данни, модел, развой
  • Използване на неподходящи модели API и краища
  • Обратна инженерия на поведението и изходите на моделите

Симулации и Инструменти

  • Използване на Adversarial Robustness Toolbox (ART)
  • Red teaming с инструменти като TextAttack и IBM ART
  • Инструменти за изолиране, наблюдение и наблюдаемост

Стратегии и защита на AI Red Team Collaboration

  • Разработване на упражнения и цели за червени екипи
  • Комунициране на находките към сините екипи
  • Интеграция на червени екипи в управлението на рискове на AI

Резюме и следващи стъпки

Изисквания

  • Разбиране в архитектурата на машинно обучение и дълбоко обучение
  • Опит с Python и фреймворки за ML (например, TensorFlow, PyTorch)
  • Знание на концепциите за киберсигурност или техники за офанзивна сигурност

Целева аудитория

  • Специалисти по сигурност
  • Екипи по офанзивна сигурност
  • Професионалисти по осигуряване на AI и червени екипи
 14 часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории