План на курса

1. Разбиране на класификацията чрез най-близки съседи

  • Алгоритъмът kNN
  • Изчисляване на разстояние
  • Избор на подходящо k
  • Подготовка на данни за използване с kNN
  • Защо алгоритъмът kNN е ленив?

2. Разбиране на наивен Байес

  • Основни концепции на байесовските методи
  • Вероятност
  • Съвместна вероятност
  • Условна вероятност с теоремата на Байес
  • Алгоритъмът на наивен Байес
  • Класификация с наивен Байес
  • Естественят естматор на Лаплас
  • Използване на числени характеристики с наивен Байес

3. Разбиране на решетъчни дървета

  • Разделяне и завладяване
  • Алгоритъмът на решетъчно дърво C5.0
  • Избор на най-доброто разделение
  • Подрязване на решетъчно дърво

4. Разбиране на правилата за класификация

  • Разделяне и завладяване
  • Алгоритъмът One Rule
  • Алгоритъмът RIPPER
  • Правила от решетъчни дървета

5. Разбиране на регресия

  • Елементарна линейна регресия
  • Обикновена оценка на най-малките квадрати
  • Корелации
  • Множествена линейна регресия

6. Разбиране на дървета за регресия и модели за дървета

  • Добавяне на регресия към дървета

7. Разбиране на нейронни мрежи

  • От биологични към изкуствени нейрони
  • Функции за активация
  • Топология на мрежата
  • Брой слоеве
  • Насочване на информацията
  • Брой на възлите в всеки слой
  • Обучение на нейронни мрежи с обратно разпространение

8. Разбиране на машини за поддържащи вектори

  • Класификация с хиперравнини
  • Намерене на максималната граница
  • Случайът на линейно разделяеми данни
  • Случайът на нелинейно разделяеми данни
  • Използване на ядра за нелинейни пространства

9. Разбиране на асоциативни правила

  • Алгоритъмът Apriori за обучение с асоциативни правила
  • Измерване на интереса към правилата – подкрепа и увереност
  • Създаване на множество правила с принципа на Apriori

10. Разбиране на кластеризация

  • Кластеризацията като задача на машинно обучение
  • Алгоритъмът k-means за кластеризация
  • Използване на разстоянието за присвояване и обновяване на кластери
  • Избор на подходящ брой кластери

11. Измерване на производителност за класификация

  • Работа с предсказания данни за класификация
  • По-дълбоко в матриците на заблуждения
  • Използване на матриците на заблуждения за измерване на производителност
  • Освен точност – други мерки за производителност
  • Статистиката на капа
  • Чувствителност и специфичност
  • Точност и пълнота
  • Измерването на F
  • Визуализация на търговски компромиси
  • Кривите ROC
  • Оценка на бъдеща производителност
  • Методът на задържане
  • Кръстосана проверка
  • Бутстрап образци

12. Подстройка на модели за акции за по-добра производителност

  • Използване на caret за автоматично подстройване на параметри
  • Създаване на прост подстроен модел
  • Персонализиране на процеса на подстройка
  • Улучшаване на производителността на модела с метаобучение
  • Разбиране на ансамбли
  • Багаж
  • Бустинг
  • Случайни горища
  • Обучение на случайни горища
  • Оценка на производителността на случайни горища

13. Дълбоко Обучение

  • Три Класа Дълбоко Обучение
  • Дълбоки Автоенкодъри
  • Предварително обучени Дълбоки Нейронни Мрежи
  • Дълбоки Стъкове Мрежи

14. Обсуждане на специфични области на приложение

 21 часа

Брой участници


Цена за участник

Отзиви от потребители (1)

Предстоящи Курсове

Свързани Kатегории