План на курса

1. Разбиране на класификацията с помощта на най-близките съседи

    Алгоритъмът kNN Изчисляване на разстояние Избор на подходящ k Подготовка на данни за използване с kNN Защо алгоритъмът kNN е мързелив?

2. Разбиране на наивния Бейс

    Основни понятия на байесовите методи Вероятност Съвместна вероятност Условна вероятност с теорема на Байс Наивният алгоритъм на Бейс Наивната класификация на Бейс Оценката на Лаплас Използване на числови характеристики с наивен Бейс

3. Разбиране на дърветата на решенията

    Разделяй и владей Алгоритъмът на дървото на решенията C5.0 Избор на най-доброто разделение Подрязване на дървото на решенията

4. Разбиране на правилата за класификация

    Разделете и завладейте Алгоритъмът за едно правило Алгоритъмът RIPPER Правила от дърветата на решенията

5. Разбиране на регресията

    Проста линейна регресия Обикновена оценка на най-малките квадрати Корелации Множествена линейна регресия

6. Разбиране на регресионните дървета и моделните дървета

    Добавяне на регресия към дървета

7. Разбиране на невронните мрежи

    От биологични до изкуствени неврони Функции за активиране Мрежова топология Броят на слоевете Посоката на движение на информацията Броят на възлите във всеки слой Обучение на невронни мрежи с обратно разпространение

8. Разбиране на опорните векторни машини

    Класификация с хиперравнини Намиране на максимална граница Случаят на линейно разделими данни Случаят на нелинейно разделими данни Използване на ядра за нелинейни пространства

9. Разбиране на правилата за асоцииране

    Алгоритъмът Apriori за изучаване на правило за асоцииране Измерване на интереса към правилото – подкрепа и увереност Изграждане на набор от правила с принципа Apriori

10. Разбиране на групирането

    Клъстеризирането като задача за машинно обучение Алгоритъмът на k-средствата за клъстериране Използване на разстояние за присвояване и актуализиране на клъстери Избор на подходящия брой клъстери

11. Измерване на ефективността за класификация

    Работа с данни за прогнозиране на класификацията По-внимателен поглед върху матриците на объркване Използване на матрици на объркване за измерване на производителността Отвъд точността – други мерки за производителност Капа статистиката Чувствителност и специфичност Прецизност и припомняне F-мярката Визуализиране на компромисите на производителността ROC криви Оценка на бъдещата производителност Методът на задържане Cross- валидиране Bootstrap вземане на проби

12. Настройка на стандартните модели за по-добра производителност

    Използване на каретка за автоматизирана настройка на параметри Създаване на прост настроен модел Персонализиране на процеса на настройка Подобряване на производителността на модела с мета-обучение Разбиране на ансамбли Bagging Boosting Случайни гори Обучение на произволни гори Оценяване на производителността на произволни гори

13. Deep Learning

    Три класа задълбочени автоенкодери с дълбоко обучение Предварително обучени дълбоки Neural Networks мрежи за дълбоко подреждане

14. Обсъждане на специфични области на приложение

 21 Hours

Брой участници



Цена за участник

Oтзиви от потребители (1)

Свързани Kурсове

Advanced Stable Diffusion: Deep Learning for Text-to-Image Generation

21 Hours

Свързани Kатегории