План на курса

Въведение

Този раздел предоставя общо въведение за това кога да се използва „машинно обучение“, какво трябва да се има предвид и какво означава всичко това, включително предимствата и недостатъците. Типове данни (структурирани/неструктурирани/статични/поточно), валидност/обем на данните, анализи, управлявани от данни срещу управлявани от потребители, статистически модели срещу модели на машинно обучение/предизвикателства на неконтролирано обучение, компромис с отклонения, итерация/оценка, подходи за кръстосано валидиране , контролиран/без надзор/подсилване.

ОСНОВНИ ТЕМИ

1. Разбиране на наивния Бейс

    Основни понятия на байесовите методи Вероятност Съвместна вероятност Условна вероятност с теорема на Байес Наивният алгоритъм на Байес Наивната класификация на Бейс Оценката на Лаплас Използване на числови характеристики с наивен Бейс

2. Разбиране на дърветата на решенията

    Разделяй и владей Алгоритъмът на дървото на решенията C5.0 Избор на най-доброто разделение Подрязване на дървото на решенията

3. Разбиране на невронните мрежи

    От биологични до изкуствени неврони Функции за активиране Топология на мрежата Броят на слоевете Посоката на движение на информацията Броят на възлите във всеки слой Обучение на невронни мрежи с обратно разпространение Deep Learning

4. Разбиране на опорните векторни машини

    Класификация с хиперравнини Намиране на максимална граница Случаят на линейно разделими данни Случаят на нелинейно разделими данни Използване на ядра за нелинейни пространства

5. Разбиране на групирането

    Клъстеризирането като задача за машинно обучение Алгоритъмът на k-средствата за клъстериране Използване на разстояние за присвояване и актуализиране на клъстери Избор на подходящия брой клъстери

6. Измерване на ефективността за класификация

    Работа с данни за прогнозиране на класификацията По-внимателен поглед върху матриците на объркване Използване на матрици на объркване за измерване на производителността Отвъд точността – други мерки за производителност Капа статистиката Чувствителност и специфичност Прецизност и припомняне F-мярката Визуализиране на компромисите на производителността ROC криви Оценка на бъдещата производителност Методът на задържане Cross- валидиране Bootstrap вземане на проби

7. Настройка на стандартните модели за по-добра производителност

    Използване на каретка за автоматизирана настройка на параметри Създаване на прост настроен модел Персонализиране на процеса на настройка Подобряване на производителността на модела с мета-обучение Разбиране на ансамбли Bagging Boosting Случайни гори Обучение на произволни гори Оценяване на производителността на произволни гори

ВЪЗЛОЖИТЕЛНИ ТЕМИ

8. Разбиране на класификацията с помощта на най-близките съседи

    Алгоритъмът kNN Изчисляване на разстояние Избор на подходящ k Подготовка на данни за използване с kNN Защо алгоритъмът kNN е мързелив?

9. Разбиране на правилата за класификация

    Разделете и завладейте Алгоритъмът за едно правило Алгоритъмът RIPPER Правила от дърветата на решенията

10. Разбиране на регресията

    Проста линейна регресия Обикновена оценка на най-малките квадрати Корелации Множествена линейна регресия

11. Разбиране на регресионните дървета и моделните дървета

    Добавяне на регресия към дървета

12. Разбиране на правилата за асоцииране

    Алгоритъмът Apriori за изучаване на правило за асоцииране Измерване на интереса към правилото – подкрепа и увереност Изграждане на набор от правила с принципа Apriori

Екстри

    Spark/PySpark/MLlib и Многоръки бандити
 21 Hours

Брой участници



Цена за участник

Oтзиви от потребители (5)

Свързани Kурсове

Advanced Stable Diffusion: Deep Learning for Text-to-Image Generation

21 Hours

Свързани Kатегории