План на курса

Въведение Този раздел предоставя общо въведение за това кога да се използва „машинно обучение“, какво трябва да се има предвид и какво означава всичко това, включително предимствата и недостатъците. Разглежда се типове данни (структурирани/неструктурирани/статични/поточно), валидност/обем на данните, анализи, управлявани от данни срещу управлявани от потребители, статистически модели срещу модели на машинно обучение, предизвикателства на неконтролирано обучение, компромис с отклонения, итерация/оценка, подходи за кръстосано валидиране, контролиран/без надзор/подсилване. Основни Теми 1. Разбиране на наивния Бейс Основни концепции на байесовските методи Вероятност Съвместна вероятност Условна вероятност с теоремата на Бейс Алгоритъмът на наивен Бейс Класификация с наивен Бейс Оценителен на Лаплас Използване на числови характеристики с наивен Бейс 2. Разбиране на дърветата на решенията Разделяне и побеждаване Алгоритъмът за дървета на решения C5.0 Избор на най-доброто разделяне Подреждане на дървото на решенията 3. Разбиране на невронните мрежи От биологични до изкуствени неурони Функции на активация Топология на мрежата Брой на слоевете Направление на преминаване на информацията Брой на възли в всеки слой Обучение на невронни мрежи с обратна пропиняване Deep Learning 4. Разбиране на опорните векторни машини Класификация с хиперплоскости Намиране на максималната граница Случай на линейно разделими данни Случай на нелинейно разделими данни Използване на ядра за нелинейни пространства 5. Разбиране на групирането Групирането като задача на машинно обучение Алгоритъмът k-средни за групиране Използване на разстоянието за присвояване и обновяване на групи Избор на подходящия брой групи 6. Измерване на ефективността за класификация Работа с предсказателни данни за класификация По-дълбоко разглеждане на матриците за замесване Използване на матриците за замесване за измерване на производителността Отвъд точността – други измерватели за производителност Статистиката капа Сензитивност и специфичност Точност и пъленото отзиване Измервателят F Визуализиране на компромисни производителности Кривите ROC Оценяване на бъдещата производителност Методът на задържане Кръстосано валидиране Bootstrap Образец 7. Настройка на стандартните модели за по-добра производителност Използване на caret за автоматично настройване на параметрите Създаване на прост настроен модел Персонализиране на процеса на настройване Улучшаване на производителността на модела с метаобучение Разбиране на ансамбли Bagging Boosting Случайни гори Обучение на случайни гори Оценяване на производителността на случайни гори Възложителни Теми 8. Разбиране на класификацията с помощта на най-близките съседи Алгоритъмът kNN Изчисление на разстоянието Избор на подходящо k Подготовка на данни за използване с kNN Защо алгоритъмът kNN е ленив? 9. Разбиране на правилата за класификация Разделяне и побеждаване Алгоритъмът One Rule Алгоритъмът RIPPER Правила от дървета на решения 10. Разбиране на регресията Проста линейна регресия Оценяване с най-малки квадрати Корелации Многолинейна регресия 11. Разбиране на регресионните дървета и моделните дървета Добавяне на регресия към дървета 12. Разбиране на правилата за асоциация Алгоритъмът Apriori за обучение на правилата за асоциация Измерване на интерес към правилата – подкрепа и увереност Създаване на множество правила с принципа на Apriori Екстри Spark/PySpark/MLlib и мултиарменди бандити

Изисквания

Python Знания

 21 Часа

Брой участници


Цена за участник

Oтзиви от потребители (7)

Предстоящи Курсове

Свързани Kатегории