План на курса

Основи на Безопасен и Справедлив Искусствен Интелигент - Ключови концепции: безопасност, предразсъдък, справедливост, прозрачност - Видове предразсъдъци: данни, представяне, алгоритмични - Обзор на регулаторни рамки (Закон за ИА на ЕС, GDPR, и др.) Предразсъдък в Файн-Тунираните Модели - Както фийн-тунирането може да въведе или увеличава предразсъдъците - Примерни случаи и реални неудачи - Идентифициране на предразсъдъци в данните и предсказанията на моделите Техники за Снижение на Предразсъдъците - Стратегии на ниво данни (балансиране, увеличаване) - Стратегии за време на обучение (регуларизация, противоположно дебиазиране) - Стратегии за постобработка (филтриране на изходи, калибриране) Безопасност и Устойчивост на Моделите - Откриване на небезопасни или вредни изходи - Обработка на противоположни входни данни - Ред-тим-инг и стрес-тестиране на фийн-тунираните модели Аудиране и Мониторинг на Системи за Искусствен Интелигент - Метрики за оценка на предразсъдъците и справедливостта (например, демографска паритет) - Инструменти за обяснение и рамки за прозрачност - Обединени практики за мониторинг и управление Инструменти и Практика - Използване на отворени библиотеки (например, Fairlearn, Transformers, CheckList) - Практика: Откриване и намаляване на предразсъдъците в фийн-туниран модел - Генерация на безопасни изходи чрез дизайн на подсказки и ограничения Корпоративни Use Case и Подготвеност за Съответствие - Най-добри практики за интегриране на безопасност в работите с големи языкови модели - Documentation и карти на моделите за съответствие - Подготовка за аудити и външни прегледи Резюме и Следващи Стъпки

Изисквания

  • Разбиране на модели за машинно обучение и процеси за обучение
  • Опит в работа с подгонка и големи модели за езика
  • Знание на Python и концепции за обработка на естествен език

Целева аудитория

  • Екипи за съответствие на AI
  • Инженери за машинно обучение
 14 Часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории