План на курса

Въведение в Red Teaming на Искусствения Интелект

  • Разбиране на ландшафта на заплахи към Искусствения Интелект
  • Ролите на Red Team в сигурността на Искусствения Интелект
  • Етични и правни разсъждения

Adversarial Machine Learning

  • Видове атаки: укриване, отравяне, извличане, извличане на заключения
  • Създаване на противнически примери (напр., FGSM, PGD)
  • Целовидни vs. необезпокояващи атаки и метрики за успех

Тестиране на Устойчивостта на Моделите

  • Оценяване на устойчивостта при нарушения
  • Изследване на слепи точки и режими на срив на моделите
  • Стресов тест на класификационни, визуални и NLP модели

Red Teaming на Пайплайните на Искусствения Интелект

  • Атакуваща повърхност на пайплайните на Искусствения Интелект: данни, модел, развертяване
  • Експлоатация на несигурни API и крайни точки на модели
  • Обратна инженерия на поведението и изходите на моделите

Симулции и Инструменти

  • Използване на Adversarial Robustness Toolbox (ART)
  • Red teaming с инструменти като TextAttack и IBM ART
  • Инструменти за изолация, мониторинг и наблюдение

Стратегия и Защита на Red Team за Искусствения Интелект Collaboration

  • Развитие на упражнения и цели на Red Team
  • Комунициране на находките с Blue Teams
  • Интегриране на Red teaming в управлението на рискове на Искусствения Интелект

Резюме и Следващи стъпки

Изисквания

Предварителни знания:

  • Разбиране на архитектури на машинно обучение и дълбоко обучение
  • Опит с Python и рамки за машинно обучение (например, TensorFlow, PyTorch)
  • Знание на концепции на киберсигурност или техники на офанзивна сигурност

Целева аудитория

  • Специалисти по сигурност
  • Екипи по офанзивна сигурност
  • Професионалисти по осигуряване на AI и червени екипи
 14 Часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории