Курс за обучение по Красно осаляване на ИИ системи: Офансивна сигурност за ML модели
Красното осаляване на ИИ системите е специализирана област на офансивната сигурност, която се фокусира върху идентифицирането на слабости в моделите за машинно учене и пайплайните за разполагане чрез антигонителни тестове и стрес симулации.
Това обучение, водено от инструктор (онлайн или на място), е насочено към напреднали професионалисти в областта на сигурността и специалисти по ML, които желаят да симулират атаки върху ИИ системите, да откриват уязвимости и да подобрят робастността на разполаганите ИИ модели.
По края на това обучение участниците ще могат:
- Да симулират реални угрози за моделите на машинното учене.
- Да генерират антигонителни примери, за да тестват робастността на модела.
- Да оценят атакуемата повърхност на API-то и пайплайните на ИИ.
- Да проектират стратегии за красно осаляване в околната среда за разполагане на ИИ.
Формат на курса
- Интерактивна лекция и дискусия.
- Много упражнения и практика.
- Практическо изпълнение в живо-лабораторна среда.
Опции за персонализация на курса
- За да поискате персонализирано обучение за този курс, моля свържете се с нас.
План на курса
Въведение в красното осаляване на ИИ
- Разбиране на угрозите за ИИ
- Ролите на червените екипи в сигурността на ИИ
- Етични и правни разсъждения
Антагонистично машинно учене
- Видове атаки: елиминация, отравяне, изваждане, инференция
- Генериране на антигонителни примери (например, FGSM, PGD)
- Целеви vs. нецелеви атаки и критерии за успех
Тестване на робастността на модела
- Оценка на робастността при наводнения
- Изучаване на слепите зони и режимите на съ/Dk на модела
- Стрес тестване на модели за класификация, визуализация и NLP
Красно осаляване на пайплайните на ИИ
- Атакуемата повърхност на пайплайните на ИИ: данни, модел, разполагане
- Експлоатиране на незащитените API и точки за доставяне на модели
- Обратно инженерство на поведението и изходите на модела
Симулация и обезпечаване на инструменти
- Използване на Adversarial Robustness Toolbox (ART)
- Красно осаляване с инструменти като TextAttack и IBM ART
- Инструменти за песък-боксинг, мониторинг и наблюдаемост
Стратегия на червените екипи по ИИ и сътрудничество с защитата
- Разработка на упражнения и цели за червени екипи
- Комуникиране на откритията към сините екипи
- Интегриране на красното осаляване в управлението на риск от ИИ
Резюме и следващи стъпки
Изисквания
- Разбиране на архитектурите за машинно и дълбоко учене
- Опит с Python и ML фреймворки (например, TensorFlow, PyTorch)
- Запознаност с концепциите на кибер сигурността или офансивните техники за сигурност
Целева група
- Изследователи по сигурност
- Офансивни екипи за сигурност
- Професионалисти в областта на гарантирането и красното осаляване на ИИ
Отворените курсове за обучение изискват 5+ участника.
Курс за обучение по Красно осаляване на ИИ системи: Офансивна сигурност за ML модели - Резервация
Курс за обучение по Красно осаляване на ИИ системи: Офансивна сигурност за ML модели - Запитване
Красно осаляване на ИИ системи: Офансивна сигурност за ML модели - Консултантско запитване
Консултантско запитване
Предстоящи Курсове
Свързани Kурсове
ISACA Advanced in AI Security Management (AAISM)
21 часаAAISM е напредна рамка за оценяване, управление и контрол на сигурносните рискове в системите с изкуствен интелект.
Това обучение под ръководството на преподавател (онлайн или на място) е насочено към професионалисти на напредно ниво, които искат да внедрят эффективни мерки за контрол и управление в околната среда с изкуствен интелект на предприятието.
По завършване на тази програма, участниците ще бъдат подготвени да:
- Оценяват рисковете за сигурността в AI, използвайки признати индустриални методологии.
- Въвеждат модели за управление за отговорна реализация на AI.
- Подръждали политиките за сигурност в AI с целите и регулаторните изисквания на организацията.
- Повишават устойчивостта и отчетливостта при операции, основанни на AI.
Формат на курса
- Подкрепени лекции с експертно анализиране.
- Практични семинари и дейности, базирани на оценки.
- Приложени упражнения с реални сценарии за управление на AI.
Опции за персонализация на курса
- За адаптирано обучение, съобразено с вашата стратегия за AI, моля свържете се с нас, за да персонализираме курса.
Управление ИИ, съответствие на законите и сигурност за лидерите в предприятията
14 часаТози училищен курс под чуждост в България (в мрежата или на място) е насочен към средноуровневите лидерски кадри, които искат да разберат как да управяват и осигуряват ИИ системите отговорно и в съответствие с извършващите глобални рамки като EU AI Act, GDPR, ISO/IEC 42001 и Указ на САЩ за ИИ.
По края на този курс участниците ще могат да:
- Разберат правните, етически и регулаторни рискове при използването на ИИ в различните отдели.
- Тълкуват и прилагат основните рамки за управление на ИИ (EU AI Act, NIST AI RMF, ISO/IEC 42001).
- Установяват политики за сигурност, аудит и наблюдение при разгъварянето на ИИ системи в предприемачката среда.
- Разработват правила за закупуване и използване на третостранни и интерно изграждани ИИ системи.
Управление на риска и сигурността в областта на изкуствения интелект в обществен сектор
7 часаИзкуственият интелект (AI) внася нови размери на оперативния риск, предизвикателства за управлението и експозиция към сигурността на информационните системи за държавните агенции и министерства.
Това обучение под ръководството на преподавател ( онлайн или на място) е насочено към специалисти по IT и управление на риска в обществения сектор, които имат ограничено предходно опит в областта на AI и искат да разберат как да оценяват, мониторират и секуритизирам AI системите в държавен или регулаторен контекст.
По края на обучението участниците ще могат да:
- Разбират ключови концепции за риска, свързани с AI системите, включително предвземане, непредвидимост и дрейф на моделите.
- Прилагат специфични за AI управлението и ревизионните рамки като NIST AI RMF и ISO/IEC 42001.
- Разпознават киберсигурносни угрози, насочени към модели на AI и данни.
- Създават планове за управление на риска и политика за съгласуваност при внедряването на AI в различни подразделения.
Формат на курса
- Интерактивна лекция и дискусия за употреби в обществения сектор.
- Упражнения по управлението на AI и мапинг на политиките.
- Сценарни модели за угрози и оценка на риска.
Опции за персонализация на курса
- За да поискате персонализирано обучение за този курс, моля свържете се с нас.
Въведение в доверение, риск и Security Management (AI TRiSM)
21 часаТова инструкторско, живо обучение (онлайн или на място) е насочено към IT професионалисти с начално и средно ниво, които желаят да разберат и да внедрят AI TRiSM в своите организации.
До края на това обучение участниците ще могат да:
- Разберат ключовите концепции и важността на управлението на доверие, риск и сигурност в AI.
- Идентифицират и намалят рисковете, свързани със системи за AI.
- Внедрят най-добрите практики за сигурност в AI.
- Разберат регулаторното съответствие и етичните разсъждения за AI.
- Разработят стратегии за ефективно управление и управление на AI.
Building Secure and Responsible LLM Applications
14 часаТози курс с инструктор, проводим живо (онлайн или на място) е насочен към средно ниво до напреднали AI разработчици, архитекти и продуктови мениджъри, които искат да идентифицират и намалят рисковете, свързани с приложения с подкрепа от LLM, включително инжектиране на подсказки, изтичане на данни и непрофилиран изход, докато включват контролни мерки за сигурност като валидация на вход, човешки надзор и ограничения за изход.
Към края на този курс участниците ще могат да:
- Разберат основните уязвимости на системите, базирани на LLM.
- Прилагат принципи за сигурен дизайн към архитектурата на приложения с LLM.
- Използват инструменти като Guardrails AI и LangChain за валидация, филтриране и сигурност.
- Интегрират техники като изолация, атакуващи екипи и човешки надзор в производствени канали.
Киберсигурност в AI системи
14 часаТова обучение, водено от инструктор, в България (онлайн или на място) е насочено към професионалисти на средно ниво в областта на ИС и киберсигурност, които искат да разберат и да се справят със уязвимостите в сигурността, специфични за модели и системи на ИС, особено в високо регулираните отрасли като финанси, управление на данни и консалтинг.
До края на това обучение участниците ще могат да:
- Разберат видовете злонамерени атаки, насочени към системи на ИС, и методи за защита срещу тях.
- Приложат техники за затвърдяване на моделите за сигурност на машинните обучаващи линии.
- Обеспечат сигурността и целостта на данните в моделите на машинното обучение.
- Навигация през изискванията за съответствие на регулациите, свързани със сигурността на ИС.
Въведение в сигурността на ИИ и управлението на рисковете
14 часаТова обучение под ръководството на инструктор (онлайн или на място) е предназначено за началници в областта на сигурността на ИТ, управлението на рисковете и съответствието, които желаят да разберат основните концепции за сигурност на ИИ, вектори на заплахи и глобални рамки като NIST AI RMF и ISO/IEC 42001.
По края на обучението участниците ще могат да:
- Разберат уникалните сигурносни рискове, въведени от системи с ИИ.
- Разпознават вектори на заплахи като противодействие атаки, извращяване на данни и инверсия на модели.
- Прилагат основни модели за управление както NIST AI Risk Management Framework.
- Ориентират използването на ИИ съгласно възникващи стандарти, указания за съответствие и етични принципи.
OWASP Генеративна ИИ Безопасност
14 часаНа база на най-новите препоръки от проекта OWASP GenAI Security, участниците ще научат как да разпознават, оценяват и премахват угрози, специфични за ИИ, чрез практически упражнения и реални сценарии.
Машинно учене със запазване на поверителността
14 часаТова обучение под ръководството на инструктор (онлайн или на място) е насочено към професионалисти с висок ниво, които искат да имплементират и оценят техники като федерално учене, сигурни многопартейски изчисления, хомоморфна шифровка и диференциална поверителност в реални машинни обучаващи потоки.
По завършване на това обучение участниците ще могат да:
- Разбират и сравняват ключовите техники за запазване на поверителността в ML.
- Имплементират системи за федерално учене с използване на отворен код.
- Применяват диференциална поверителност за безопасно споделяне и обучаване на данни.
- Извършват шифровка и сигурни изчисления, за да защитят входите и изходите на моделите.
Защита на Edge AI и вградена интелигенция
14 часаТова обучение под ръководството на инструктор (онлайн или на място) е насочено към инженери и специалисти по сигурност със среден ниво, които желаят да защитят AI модели, разположени на границата, от угрози като ломове, разкриване на данни, враждебни входни данни и физически атаки.
Към края на това обучение участниците ще могат да:
- Определят и оценят риските за сигурност в разположенията на Edge AI.
- Применяват методи за устойчивост към ломове и шифровано извършване на операции.
- Укрепват модели, разположени на границата, и осигуряват данните в канали.
- Разработват стратегии за митигация на угрози, специфични за вградени и ограничени системи.
Защита на AI модели: Угрози, атаки и защита
14 часаТова обучение с учител (онлайн или лично) е насочено към професионалисти в областта на машинното учене и киберсигурност, които желаят да разберат и намалят новите угрози срещу AI модели, използвайки как концептуални рамки, така и практически защитни методи като робастно обучение и диференциална приватност.
По завършване на това обучение участниците ще могат да:
- Идентифицират и класифицират угрози специфични за AI модели като враждебни атаки, инверзии и отровяващи данни.
- Използват инструменти като Adversarial Robustness Toolbox (ART) за симулиране на атаки и тестуване на модели.
- Применяват практически защитни методи, включително робастно обучение, инжекция на шум и приватността.
- Проектират стратегии за оценка на модели с предвидени угрози в производствена среда.
Безопасност и поверителност в приложенията на TinyML
21 часаTinyML е подход за разграждане на моделите за машинно учене на устройства с малка мощност и ограничен ресурс, които работят на края на мрежата.
Това обучение под ръководството на инструктор (онлайн или очно) е предназначено за професионалисти с висок ниво, които искат да защитят TinyML пайпрайни и да имплементират техники за запазване на поверителността в приложенията на края на мрежата.
В края на курса участниците ще могат да:
- Идентифицират уникалните за уредените устройства рискове за безопасността при извършването на TinyML.
- Применят механизми за запазване на поверителността в разграждането на AI на края на мрежата.
- Укрепват TinyML модели и вградени системи срещу враждебни уловки.
- Прилагат най-добри практики за сигурно управление на данни в околната среда с ограничения ресурс.
Формат на курса
- Интересни лекции, подкрепени от дискусии под ръководството на експерти.
- Практични упражнения с акцент върху реални сценарии за заплахи.
- Работа с вградени системи и инструменти на TinyML за постигане на сигурност.
Опции за персонализация на курса
- Организации могат да поискаят адаптирана версия на това обучение, за да се подреди според техните конкретни нужди за сигурност и съответствие.
Безопасна и защитена агентска ИИ: управление, удостоверяване на личността и червените отряди
21 часаТози курс покрива управлението, удостоверяването на личността и адверзарното тестване за агентски ИИ системи, с фокус върху шаблоните за разглеждане на предприятията и практическите техники на червените отряди.
Това обучение под ръководството на инструктор (онлайн или на място) е насочено към практици с високо ниво, които искат да проектират, защитават и оценяват агентски ИИ системи в производствена среда.
По завершения на това обучение, участниците ще могат:
- Дефинират модели и политики за управление при безопасни разглеждания на агентски ИИ.
- Проектират нечовешки потоци за удостоверяване на личността за агенти с минимален достъп.
- Провеждат контроли за достъп, аудитни следи и наблюдаемост, специализирани за автономни агенти.
- Планират и извършват упражнения на червените отряди, за да откриват злоупотреби, пътеки за ескалирация и рискове за изтегляне на данни.
- Ослабват общи угрози към агентски системи чрез политики, инженерни контроли и мониторинг.
Формат на курса
- Интерактивни лекции и упражнения по моделиране на угрози.
- Практически лаборатории: удостоверяване на личност, принуждаване на политика и симулация на противник.
- Упражнения на червените и сините отряди и оценка към края на курса.
Опции за персонализация на курса
- За да поискате персонализирано обучение за този курс, моля свържете се с нас, за да договорим.