Благодарим ви, че изпратихте вашето запитване! Един от членовете на нашия екип ще се свърже с вас скоро.
Благодарим ви, че направихте своята резервация! Един от членовете на нашия екип ще се свърже с вас скоро.
План на курса
Въведение в моделиране на заплахи срещу ИС
- Какво прави ИС системи уязвими?
- Атакуваема област на ИС vs традиционни системи
- Ключови векторни атаки: данни, модел, изход и интерфейсни слоеве
Враждовски атаки върху ИС модели
- Разбиране на враждовски пример и техники за засегване
- Бели кутии vs черни кутии атаки
- Методи FGSM, PGD и DeepFool
- Визуализация и създаване на враждовски примерки
Обръщане на модели и утечка на лични данни
- Извличане на тренировочни данни от изход на модела
- Атаки за извличане на членство
- Рискове за личните данни в класификационни и генериращи модели
Отравяне на данни и инжектиране на задни врати
- Как отравените данни влияят на поведението на модела
- Тригери базирани задни врати и Троянски атаки
- Стратегии за откриване и изчистване
Робустност и техници за защита
- Враждовско обучение и разширение на данни
- Маскиране на градиенти и предобработка на входни данни
- Гладкост на модели и техники за регуларизация
Защита на ИС с охрана на личните данни
- Въведение в диференциална конфиденциалност
- Инжектиране на шум и бюджети за конфиденциалност
- Федеративно обучение и сигурно агрегиране
AI Security в практиката
- Оценка и развертане на модели с осъзнаване на заплахи
- Използване на ART (Adversarial Robustness Toolbox) в приложени условия
- Случаи от индустрията: реални уязвимости и намаляване на рисковете
Резюме и следващи стъпки
Изисквания
- Разбиране на работните процеси на машинно обучение и обучение на модели
- Опит с Python и общоприети ML рамки като PyTorch или TensorFlow
- Знание на основните концепции за сигурност или модел на заплахи е полезно
Целева група
- Инженери на машинно обучение
- Аналитици на киберсигурност
- Изследователи на ИИ и екипи за валидация на модели
14 Часа