План на курса

Введение

Този раздел предоставя общо введение в кога да се използва 'машинно обучение', какво трябва да се вземат предвид и какво означава всичко това, включително предимствата и недостатците. Типове данни (структурирани/неструктурирани/статични/поточни), валидност на данните/обем, анализ базиран на данни срещу анализ базиран на потребителите, статистически модели срещу модели на машинно обучение/проблеми при неконтролирано обучение, компромис между предразсъдък и разсейване, итерация/оценка, подходи за кръстосано валидиране, контролирано/неконтролирано/усилено обучение.

ГЛАВНИ ТЕМИ

1. Разбиране на Naive Bayes

  • Основни концепции на байесовски методи
  • Вероятност
  • Съвместна вероятност
  • Условна вероятност с теорема на Bayes
  • Алгоритъмът Naive Bayes
  • Класифициране с Naive Bayes
  • Естественият естествик
  • Използване на числени характеристики с Naive Bayes

2. Разбиране на решетъчни дървета

  • Разделяй и владей
  • Алгоритъмът C5.0 за решетъчно дърво
  • Избор на най-доброто разделение
  • Подрязване на решетъчното дърво

3. Разбиране на невромрежи

  • От биологични до изкуствени нейрони
  • Функции на активация
  • Топология на мрежите
  • Брой слоеве
  • Направление на прехвърляне на информация
  • Брой възли в всеки слой
  • Обучаване на невромрежи с обратна пренасочваемост
  • Дълбоко обучение

4. Разбиране на поддържащи векторни машини

  • Класифициране с хиперравнини
  • Намерение на най-голямата маржа
  • Случай на линейно разделими данни
  • Случай на нелинейно разделими данни
  • Използване на ядра за нелинейни пространства

5. Разбиране на кластеризация

  • Кластеризация като задача на машинно обучение
  • Алгоритъмът k-means за кластеризация
  • Използване на разстояние за присвояване и актуализация на кластери
  • Избор на подходящ брой кластери

6. Измерване на производителност за класифициране

  • Работа с предсказателни данни за класифициране
  • По-дълбок поглед към матрици за объркване
  • Използване на матрици за объркване за измерване на производителност
  • Отвъд точността – други измервания за производителност
  • Статистиката Kappa
  • Чувствителност и специфичност
  • Точност и напомняне
  • Измерението F
  • Визуализация на компромисни производителности
  • Кръви ROC
  • Оценка на бъдеща производителност
  • Методът за оставяне на страна
  • Кръстосано валидиране
  • Отборно извличане

7. Настройка на модели за стоки за по-добра производителност

  • Използване на caret за автоматизирана настройка на параметри
  • Създаване на прост настройван модел
  • Персонализиране на процеса на настройка
  • Улучшаване на производителността на модела с метаобучение
  • Разбиране на ансамбли
  • Bagging
  • Boosting
  • Случайни гори
  • Обучаване на случайни гори
  • Оценка на производителността на случайни гори

МАЛКИ ТЕМИ

8. Разбиране на класифициране с най-близките съседи

  • Алгоритъмът kNN
  • Изчисляване на разстояние
  • Избор на подходящо k
  • Подготовка на данни за използване с kNN
  • Защо алгоритъмът kNN е ленив?

9. Разбиране на правила за класифициране

  • Разделяй и владей
  • Алгоритъмът One Rule
  • Алгоритъмът RIPPER
  • Правила от решетъчни дървета

10. Разбиране на регресия

  • Едноставна линейна регресия
  • Оценка с ординарните най-малки квадрати
  • Корелации
  • Множествена линейна регресия

11. Разбиране на регресионни дървета и моделни дървета

  • Добавяне на регресия към дървета

12. Разбиране на правила за асоциация

  • Алгоритъмът Apriori за обучение на правила за асоциация
  • Измерване на интерес към правила – подкрепа и увереност
  • Създаване на множество правила с принципът Apriori

Допълнително

  • Spark/PySpark/MLlib и многоръки бандити

Изисквания

Python Знания

 21 часа

Брой участници


Цена за участник

Отзиви от потребители (7)

Предстоящи Курсове

Свързани Kатегории