Благодарим ви, че изпратихте вашето запитване! Един от членовете на нашия екип ще се свърже с вас скоро.
Благодарим ви, че направихте своята резервация! Един от членовете на нашия екип ще се свърже с вас скоро.
План на курса
Въведение в AI Red Teaming
- Разбиране на ландшафта на AI заплахи
- Роли на червените екипи в AI сигурност
- Етични и правни разгледи
Враждебни Machine Learning
- Видове атаки: уклонение, отравяне, извличане, извличане на заключения
- Генерация на враждебни примерци (например, FGSM, PGD)
- Насочени против не насочени атаки и метрики за успех
Тестване на устойчивостта на моделите
- Оценка на устойчивостта при нарушения
- Разглеждане на слепи точки и режими на срив на моделите
- Стресотестване на модели за класификация, визуализация и NLP
Red Teaming на AI Пиплайни
- Повърхност за атака на AI пиплайни: данни, модел, развой
- Използване на неподходящи модели API и краища
- Обратна инженерия на поведението и изходите на моделите
Симулации и Инструменти
- Използване на Adversarial Robustness Toolbox (ART)
- Red teaming с инструменти като TextAttack и IBM ART
- Инструменти за изолиране, наблюдение и наблюдаемост
Стратегии и защита на AI Red Team Collaboration
- Разработване на упражнения и цели за червени екипи
- Комунициране на находките към сините екипи
- Интеграция на червени екипи в управлението на рискове на AI
Резюме и следващи стъпки
Изисквания
- Разбиране в архитектурата на машинно обучение и дълбоко обучение
- Опит с Python и фреймворки за ML (например, TensorFlow, PyTorch)
- Знание на концепциите за киберсигурност или техники за офанзивна сигурност
Целева аудитория
- Специалисти по сигурност
- Екипи по офанзивна сигурност
- Професионалисти по осигуряване на AI и червени екипи
14 часа