Благодарим ви, че изпратихте вашето запитване! Един от членовете на нашия екип ще се свърже с вас скоро.
Благодарим ви, че направихте своята резервация! Един от членовете на нашия екип ще се свърже с вас скоро.
План на курса
Въведение в моделиране на уязвимости на ИС
- Кои фактори правят ИС уязвими?
- Сравнение на атакуваемата площ на ИС и традиционните системи
- Ключови вектори на атаки: данни, модели, изходи и интерфейси
Атаки върху ИС модели чрез злонамерени данни
- Разбиране на злонамерени примерни данни и техники за нарушаване
- Бяло-капче и черно-капче атаки
- Методи FGSM, PGD и DeepFool
- Визуализация и създаване на злонамерени примерни данни
Инверсия на модели и утечка на лични данни
- Извличане на обучаващи данни от изходи на модели
- Атаки за установяване на членство
- Рискове за личната сигурност в класификационни и генеративни модели
Отравяне на данни и инжектиране на задни врати
- Как отравените данни влияят на поведението на модели
- Тригерирани задни врати и Троянски атаки
- Стратегии за откриване и очистване
Робустност и техники за защита
- Злонамерено обучение и разширение на данни
- Маскиране на градиенти и предварителна обработка на входа
- Гладкост на модели и техники за регулиране
Защита на ИС с гарантирана лична сигурност
- Въведение в диференциалната сигурност
- Инжектиране на шум и бюджети за сигурност
- Федеративно обучение и сигурно агрегиране
AI Security в практиката
- Оценка и развой на модели с учет на заплахи
- Използване на ART (Adversarial Robustness Toolbox) в приложени ситуации
- Случаи от индустрията: реални прекършения и превенции
Резюме и следващи стъпки
Изисквания
- Разбиране в процеси на машинно обучение и обучение на модели
- Опит с Python и общоприети ML фреймворкове като PyTorch или TensorFlow
- Знакомство с базовите концепции за сигурност или моделиране на заплахи е полезно
Целева група
- Инженери на машинно обучение
- Аналитици на киберсигурност
- Изследователи на AI и екипи за валидация на модели
14 Часа