План на курса

Основи на Безопасен и Справедлив Искусствен Интелигент- Ключови концепции: безопасност, предразсъдък, справедливост, прозрачност- Видове предразсъдъци: данни, представяне, алгоритмични- Обзор на регулаторни рамки (Закон за ИА на ЕС, GDPR, и др.)Предразсъдък в Файн-Тунираните Модели- Както фийн-тунирането може да въведе или увеличава предразсъдъците- Примерни случаи и реални неудачи- Идентифициране на предразсъдъци в данните и предсказанията на моделитеТехники за Снижение на Предразсъдъците- Стратегии на ниво данни (балансиране, увеличаване)- Стратегии за време на обучение (регуларизация, противоположно дебиазиране)- Стратегии за постобработка (филтриране на изходи, калибриране)Безопасност и Устойчивост на Моделите- Откриване на небезопасни или вредни изходи- Обработка на противоположни входни данни- Ред-тим-инг и стрес-тестиране на фийн-тунираните моделиАудиране и Мониторинг на Системи за Искусствен Интелигент- Метрики за оценка на предразсъдъците и справедливостта (например, демографска паритет)- Инструменти за обяснение и рамки за прозрачност- Обединени практики за мониторинг и управлениеИнструменти и Практика- Използване на отворени библиотеки (например, Fairlearn, Transformers, CheckList)- Практика: Откриване и намаляване на предразсъдъците в фийн-туниран модел- Генерация на безопасни изходи чрез дизайн на подсказки и ограниченияКорпоративни Use Case и Подготвеност за Съответствие- Най-добри практики за интегриране на безопасност в работите с големи языкови модели- Documentation и карти на моделите за съответствие- Подготовка за аудити и външни прегледиРезюме и Следващи Стъпки

Изисквания

  • Разбиране на модели за машинно обучение и процеси за обучение
  • Опит в работа с подгонка и големи модели за езика
  • Знание на Python и концепции за обработка на естествен език

Целева аудитория

  • Екипи за съответствие на AI
  • Инженери за машинно обучение
 14 Часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории