План на курса

Начало на Добрава за Fine-Tuning на DeepSeek LLM

  • Обзор на моделите DeepSeek, например DeepSeek-R1 и DeepSeek-V3
  • Разбиране на нуждата от fine-tuning на LLMs
  • Сравнение на fine-tuning срещу prompt engineering

Подготовка на Датсета за Fine-Tuning

  • Подбор на специфични за област данни
  • Техники за предварителна обработка и очистване на данните
  • Токенизация и форматиране на датсета за DeepSeek LLM

Настройка на Окружението за Fine-Tuning

  • Настройка на ускорение с GPU и TPU
  • Настройка на Hugging Face Transformers с DeepSeek LLM
  • Разбиране на хиперпараметрите за fine-tuning

Fine-Tuning на DeepSeek LLM

  • Реализация на супервизиран fine-tuning
  • Използване на LoRA (Low-Rank Adaptation) и PEFT (Parameter-Efficient Fine-Tuning)
  • Изпълнение на разпределен fine-tuning за големи данни

Оценка и Оптимизация на Fine-Tuned Модели

  • Оценяване на производителността на моделите с метрики за оценка
  • Справяне с преобучаване и недообучаване
  • Оптимизация на скоростта на извличане и ефективност на модела

Разработка на Fine-Tuned Модели на DeepSeek

  • Пакетиране на модели за развой на API
  • Интеграция на fine-tuned модели в приложения
  • Мащабиране на развой с облачни и периферни изчисления

Реални Приложения и Примери

  • Fine-tuned LLMs за финанси, здравеопазване и клиентска поддръжка
  • Примери за приложения в индустрията
  • Етични разбирания при AI модели специфични за област

Резюме и Следващи Стъпки

Изисквания

  • Опит с фреймуорки за машинно обучение и дълбоко обучение
  • Завършеност с трансформери и големи езикови модели (LLM)
  • Разбиране на предобработката на данни и техники за обучение на модели

Целева аудитория

  • Иследователи в областта на изкуствен интелект, които изследват настройката на LLM
  • Инженери по машинно обучение, които разработват собствени AI модели
  • Надградени разработчици, които имплементират решения, базирани на изкуствен интелект
 21 часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории