План на курса

Разумяване на специфичните за ИИ рискове в държавни условия
  • Какъв е разликата между рисковете за ИИ и традиционните ИТ и данни рискове
  • Категории на рискове за ИИ: технически, операционни, репутационни и етични
  • Държавна отговорност и възприемане на рискове в управлението
Фреймворци за ИИ
  • NIST AI RMF фреймворк
  • ISO/IEC 42001:2023 — Стандарт за системи за ИИ
  • Други секторни и международни насочителни линии (напр. OECD, UNESCO)
Задълбочени загрозвания за системите за ИИ
  • Опозиционни входни данни, отрова на данни и инверсия на модели
  • Разкриване на чувствителни данни за обучение
  • Рискове от веригата на доставката и трети страни модели
Управление, аудит и контрол
  • Човек в цикъла и механизми за отговорност
  • Аудируем ИИ: документация, версия и интерпретируемост
  • Вътрешни контроли, ролеви надзорни функции и точки за съответствие
Оценка на рискове и планове за минимизиране
  • Създаване на регистри на рискове за използването на ИИ
  • Сътрудничество с екипи за закупуване, юридически и дизайн на услуги
  • Провеждане на оценки преди и след развертяването
Отговорност при инциденти и устойчивост в държавния сектор
  • Отговор на инциденти и нарушения, свързани с ИИ
  • Комуникация с заинтересовани страни и обществеността
  • Вграждане на практики за рискове за ИИ в киберсигурностни сценарии
Резюме и следващи стъпки

Изисквания

  • Опит в ИТ операции, управление на рискове, киберсигурност или съответствие в държавни институции
  • Знание на практиките за сигурност на организацията и доставката на цифрови услуги
  • Няма необходим предходен технически опит в системи с изкуствен интелигент

Целева аудитория

  • Goвърните ИТ екипи, включени в цифрови услуги и интеграция на системи
  • Специалисти по киберсигурност и управление на рискове в публични институции
  • Персонал за аудит, съответствие и управление в държавния сектор
 7 Часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории