Курс за обучение по Securing AI Models: Threats, Attacks, and Defenses
Защитата на моделите на Искусствен Интелект е дисциплина, която се занимава с защита на системи за машинно обучение срещу специфични за моделите заплахи, като злонамерени входни данни, отравяне на данни, обръщане на атаки и проникване в приватността.
Този курс с инструктор (онлайн или на място) е предназначен за професионалисти в областта на машинното обучение и киберсигурността с среден ниво, които искат да разберат и да намалят възникващите заплахи срещу модели на Искусствен Интелект, използвайки както концептуални рамки, така и практически защиты като устойчиво обучение и диференциална приватност.
До края на този курс участниците ще бъдат в състояние да:
- Идентифицират и класифицират специфични за Искусствен Интелект заплахи, като злонамерени атаки, обръщане и отравяне.
- Използват инструменти като Adversarial Robustness Toolbox (ART), за да симулират атаки и тестват модели.
- Прилагат практични защиты, включително злонамерено обучение, инжектиране на шум и техники за запазване на приватността.
- Проектират стратегии за оценка на модели в производствени среди, които са осъзнати за заплахи.
Формат на курса
- Интерактивни лекции и дискусии.
- Много упражнения и практика.
- Практично изпълнение в среда за живо тестиране.
Опции за персонализация на курса
- За да поискате персонализиран обучени на този курс, моля, свържете се с нас, за да уредим.
План на курса
Въведение в моделиране на уязвимости на ИС
- Кои фактори правят ИС уязвими?
- Сравнение на атакуваемата площ на ИС и традиционните системи
- Ключови вектори на атаки: данни, модели, изходи и интерфейси
Атаки върху ИС модели чрез злонамерени данни
- Разбиране на злонамерени примерни данни и техники за нарушаване
- Бяло-капче и черно-капче атаки
- Методи FGSM, PGD и DeepFool
- Визуализация и създаване на злонамерени примерни данни
Инверсия на модели и утечка на лични данни
- Извличане на обучаващи данни от изходи на модели
- Атаки за установяване на членство
- Рискове за личната сигурност в класификационни и генеративни модели
Отравяне на данни и инжектиране на задни врати
- Как отравените данни влияят на поведението на модели
- Тригерирани задни врати и Троянски атаки
- Стратегии за откриване и очистване
Робустност и техники за защита
- Злонамерено обучение и разширение на данни
- Маскиране на градиенти и предварителна обработка на входа
- Гладкост на модели и техники за регулиране
Защита на ИС с гарантирана лична сигурност
- Въведение в диференциалната сигурност
- Инжектиране на шум и бюджети за сигурност
- Федеративно обучение и сигурно агрегиране
AI Security в практиката
- Оценка и развой на модели с учет на заплахи
- Използване на ART (Adversarial Robustness Toolbox) в приложени ситуации
- Случаи от индустрията: реални прекършения и превенции
Резюме и следващи стъпки
Изисквания
- Разбиране в процеси на машинно обучение и обучение на модели
- Опит с Python и общоприети ML фреймворкове като PyTorch или TensorFlow
- Знакомство с базовите концепции за сигурност или моделиране на заплахи е полезно
Целева група
- Инженери на машинно обучение
- Аналитици на киберсигурност
- Изследователи на AI и екипи за валидация на модели
Отворените курсове за обучение изискват 5+ участника.
Курс за обучение по Securing AI Models: Threats, Attacks, and Defenses - Резервация
Курс за обучение по Securing AI Models: Threats, Attacks, and Defenses - Запитване
Securing AI Models: Threats, Attacks, and Defenses - Консултантско запитване
Консултантско запитване
Предстоящи Курсове
Свързани Kурсове
Управление, съответствие и сигурност на изкуствен интелигент за ръководители на предприятия
14 часаТова обучение с инструкторско ръководство, провеждащо се онлайн или на място, е предназначено за ръководители на предприятия с среден ниво, които искат да разберат как да управляват и да осигурят изкуствен интелигентни системи отговорно и в съответствие с излизащи глобални рамки като Закона за ИИ на ЕС, GDPR, ISO/IEC 42001 и Изпълнителната заповед за ИИ на Съединените щати.
До края на това обучение участниците ще могат да:
- Разберат правните, етичните и регулаторните рискове при използването на ИИ в различни отдели.
- Тълкуваят и прилагат основните рамки за управление на ИИ (Закона за ИИ на ЕС, NIST AI RMF, ISO/IEC 42001).
- Създават политики за сигурност, аудит и надзор за развертяването на ИИ в предприятието.
- Разработват ръководства за закупуване и използване на третични и вътрешни ИИ системи.
Искусствен Интелигент Risk Management и Сигурност в Обществения Сектор
7 часаArtificial Intelligence (AI) представя нови измерения на операционния риск, предизвикателства в управлението и възможности за киберсигурност за правителствени агенции и министерства.
Този курс с инструктор, проведен в живо (онлайн или на място), е предназначен за IT и рискови професионалисти в публичния сектор с ограничен предишен опит в AI, които искат да разберат как да оценяват, следят и сигурнят системите с AI в правителствен или регулаторен контекст.
Към края на този курс участниците ще могат да:
- Интерпретират ключови рискови концепции, свързани със системи с AI, включително предвзетост, непредсказуемост и отклонение на модели.
- Прилагат специфични за AI рамки за управление и аудит, като NIST AI RMF и ISO/IEC 42001.
- Разпознават киберсигурностни заплахи, насочени към модели на AI и данни.
- Установяват междовъзпроизводствени планове за управление на риска и съгласуване на политиките за развой на AI.
Формат на курса
- Интерактивни лекции и дискусии на случаи от публичния сектор.
- Упражнения на рамки за управление на AI и картиране на политики.
- Сценариозно моделиране на заплахи и оценка на риска.
Опции за персонализация на курса
- За запрашване на персонализиран тренинг за този курс, моля, свържете се с нас, за да уредим.
Въведение в доверение, риск и Security Management (AI TRiSM)
21 часаТова инструкторско, живо обучение (онлайн или на място) е насочено към IT професионалисти с начално и средно ниво, които желаят да разберат и да внедрят AI TRiSM в своите организации.
До края на това обучение участниците ще могат да:
- Разберат ключовите концепции и важността на управлението на доверие, риск и сигурност в AI.
- Идентифицират и намалят рисковете, свързани със системи за AI.
- Внедрят най-добрите практики за сигурност в AI.
- Разберат регулаторното съответствие и етичните разсъждения за AI.
- Разработят стратегии за ефективно управление и управление на AI.
Building Secure and Responsible LLM Applications
14 часаТози курс с инструктор, проводим живо (онлайн или на място) е насочен към средно ниво до напреднали AI разработчици, архитекти и продуктови мениджъри, които искат да идентифицират и намалят рисковете, свързани с приложения с подкрепа от LLM, включително инжектиране на подсказки, изтичане на данни и непрофилиран изход, докато включват контролни мерки за сигурност като валидация на вход, човешки надзор и ограничения за изход.
Към края на този курс участниците ще могат да:
- Разберат основните уязвимости на системите, базирани на LLM.
- Прилагат принципи за сигурен дизайн към архитектурата на приложения с LLM.
- Използват инструменти като Guardrails AI и LangChain за валидация, филтриране и сигурност.
- Интегрират техники като изолация, атакуващи екипи и човешки надзор в производствени канали.
Киберсигурност в AI системи
14 часаТова обучение, водено от инструктор, в България (онлайн или на място) е насочено към професионалисти на средно ниво в областта на ИС и киберсигурност, които искат да разберат и да се справят със уязвимостите в сигурността, специфични за модели и системи на ИС, особено в високо регулираните отрасли като финанси, управление на данни и консалтинг.
До края на това обучение участниците ще могат да:
- Разберат видовете злонамерени атаки, насочени към системи на ИС, и методи за защита срещу тях.
- Приложат техники за затвърдяване на моделите за сигурност на машинните обучаващи линии.
- Обеспечат сигурността и целостта на данните в моделите на машинното обучение.
- Навигация през изискванията за съответствие на регулациите, свързани със сигурността на ИС.
Въведение в AI Security и Risk Management
14 часаТова обучение с инструктор, провеждано на живо (онлайн или на място), е предназначено за начинаещи IT специалисти по сигурност, риск и съответствие, които искат да разберат основните концепции за сигурност на AI, вектор на заплахи и глобални рамки като NIST AI RMF и ISO/IEC 42001.
След завършване на това обучение участниците ще могат да:
- Разберат уникалните рискове за сигурност, въведени от AI системи.
- Идентифицират вектор на заплахи като вражески атаки, отрова на данни и инверсия на модели.
- Прилагат основни модели за управление като NIST AI Risk Management Framework.
- Подредят използването на AI с излизащи стандарти, ръководства за съответствие и етични принципи.
OWASP Генеративна ИИ Безопасност
14 часаНа база на най-новите препоръки от проекта OWASP GenAI Security, участниците ще научат как да разпознават, оценяват и премахват угрози, специфични за ИИ, чрез практически упражнения и реални сценарии.
Защита на личните данни Machine Learning
14 часаТовата обучение с инструктор, провеждащо се онлайн или на място, е предназначено за професионалисти на напреднал нив, които искат да внедряват и оценяват техники като федеративно обучение, сигурно изчисление с участието на повече от една страна, хомоморфно шифриране и диференциална приватност в реални машинен-обучаващи пиплайни.
До края на това обучение участниците ще могат да:
- Разбират и сравняват ключовите техники за защита на приватността в ML.
- Внедряват системи за федеративно обучение, използвайки отворени платформи.
- Прилагат диференциална приватност за сигурно споделяне на данни и обучение на модели.
- Използват техники за шифриране и сигурно изчисление за защита на входа и изхода на моделите.
Red Teaming AI Systems: Offensive Security for ML Models
14 часаТози курс с инструктор, който се провежда на живо (онлайн или на място), е насочен към специалисти на средно ниво в областта на сигурността и специалисти по машинно обучение, които искат да симулират атаки върху системи за изкуствен интелигент, да откриват уязвимости и да усилват устойчивостта на разпръснатите модели за изкуствен интелигент.
До края на този курс участниците ще бъдат способни да:
- Симулират реални заплахи за модели на машинно обучение.
- Създават противопоставящи се примери, за да тестват устойчивостта на моделите.
- Оценяват атакуващата повърхност на API и пътища за изкуствен интелигент.
- Разработват стратегии за червените екипи в среди за разпръскване на изкуствен интелигент.
Защита на Edge AI и вградена интелигенция
14 часаТова обучение под ръководството на инструктор (онлайн или на място) е насочено към инженери и специалисти по сигурност със среден ниво, които желаят да защитят AI модели, разположени на границата, от угрози като ломове, разкриване на данни, враждебни входни данни и физически атаки.
Към края на това обучение участниците ще могат да:
- Определят и оценят риските за сигурност в разположенията на Edge AI.
- Применяват методи за устойчивост към ломове и шифровано извършване на операции.
- Укрепват модели, разположени на границата, и осигуряват данните в канали.
- Разработват стратегии за митигация на угрози, специфични за вградени и ограничени системи.
Безопасност и поверителност в приложенията на TinyML
21 часаTinyML е подход за разграждане на моделите за машинно учене на устройства с малка мощност и ограничен ресурс, които работят на края на мрежата.
Това обучение под ръководството на инструктор (онлайн или очно) е предназначено за професионалисти с висок ниво, които искат да защитят TinyML пайпрайни и да имплементират техники за запазване на поверителността в приложенията на края на мрежата.
В края на курса участниците ще могат да:
- Идентифицират уникалните за уредените устройства рискове за безопасността при извършването на TinyML.
- Применят механизми за запазване на поверителността в разграждането на AI на края на мрежата.
- Укрепват TinyML модели и вградени системи срещу враждебни уловки.
- Прилагат най-добри практики за сигурно управление на данни в околната среда с ограничения ресурс.
Формат на курса
- Интересни лекции, подкрепени от дискусии под ръководството на експерти.
- Практични упражнения с акцент върху реални сценарии за заплахи.
- Работа с вградени системи и инструменти на TinyML за постигане на сигурност.
Опции за персонализация на курса
- Организации могат да поискаят адаптирана версия на това обучение, за да се подреди според техните конкретни нужди за сигурност и съответствие.
Безопасна и защитена агентска ИИ: управление, удостоверяване на личността и червените отряди
21 часаТози курс покрива управлението, удостоверяването на личността и адверзарното тестване за агентски ИИ системи, с фокус върху шаблоните за разглеждане на предприятията и практическите техники на червените отряди.
Това обучение под ръководството на инструктор (онлайн или на място) е насочено към практици с високо ниво, които искат да проектират, защитават и оценяват агентски ИИ системи в производствена среда.
По завершения на това обучение, участниците ще могат:
- Дефинират модели и политики за управление при безопасни разглеждания на агентски ИИ.
- Проектират нечовешки потоци за удостоверяване на личността за агенти с минимален достъп.
- Провеждат контроли за достъп, аудитни следи и наблюдаемост, специализирани за автономни агенти.
- Планират и извършват упражнения на червените отряди, за да откриват злоупотреби, пътеки за ескалирация и рискове за изтегляне на данни.
- Ослабват общи угрози към агентски системи чрез политики, инженерни контроли и мониторинг.
Формат на курса
- Интерактивни лекции и упражнения по моделиране на угрози.
- Практически лаборатории: удостоверяване на личност, принуждаване на политика и симулация на противник.
- Упражнения на червените и сините отряди и оценка към края на курса.
Опции за персонализация на курса
- За да поискате персонализирано обучение за този курс, моля свържете се с нас, за да договорим.