План на курса

Въведение в Укрепващото Обучение (RL)

  • Обзор на укрепващото обучение и неговите приложения
  • Разликите между надзорно, ненадзорно и укрепващо обучение
  • Основни концепции: агент, среда, награди и политика

Марковски Процеси на Вземане на Решения (MDPs)

  • Разбиране на състояния, действия, награди и преходи на състояния
  • Функции на стойност и уравнение на Белман
  • Динамично програмиране за решаване на MDPs

Основни RL Алгоритми

  • Таблични методи: Q-Learning и SARSA
  • Политико-базирани методи: алгоритъм REINFORCE
  • Frameworks Actor-Critic и техните приложения

Дълбоко Укрепващо Обучение

  • Въведение в Deep Q-Networks (DQN)
  • Повторно преживяване на опит и целови мрежи
  • Политически градиенти и напреднали методи за дълбоко RL

RL Frameworks и Инструменти

  • Въведение в OpenAI Gym и други RL среди
  • Използване на PyTorch или TensorFlow за разработка на RL модели
  • Обучение, тестване и тестване на RL агенти

Проблеми в RL

  • Балансиране на изследване и експлоатация по време на обучение
  • Справяне със спарси награди и проблеми с присъединяване на кредити
  • Мащабируемост и изчислителни предизвикателства в RL

Практически Дейности

  • Реализация на алгоритмите Q-Learning и SARSA от нула
  • Обучение на агент, базиран на DQN, да играе проста игра в OpenAI Gym
  • Настройване на RL модели за подобрена производителност в персонализирани среди

Резюме и Следващи Стъпки

Изисквания

  • Дълбоко разбиране на принципите и алгоритмите на машинно обучение
  • Умеене в програмиране с Python
  • Знакомство с невронни мрежи и фреймуърки за дълбочинен обучаване

Целева аудитория

  • Инженери по машинно обучение
  • Специалисти по изкуствен интелигент
 14 часа

Брой участници


Цена за участник

Отзиви от потребители (1)

Предстоящи Курсове

Свързани Kатегории