Благодарим ви, че изпратихте вашето запитване! Един от членовете на нашия екип ще се свърже с вас скоро.        
        
        
            Благодарим ви, че направихте своята резервация! Един от членовете на нашия екип ще се свърже с вас скоро.        
    План на курса
1. Разбиране на класификацията чрез най-близки съседи
- Алгоритъмът kNN
- Изчисляване на разстояние
- Избор на подходящо k
- Подготовка на данни за използване с kNN
- Защо алгоритъмът kNN е ленив?
2. Разбиране на наивен Байес
- Основни концепции на байесовските методи
- Вероятност
- Съвместна вероятност
- Условна вероятност с теоремата на Байес
- Алгоритъмът на наивен Байес
- Класификация с наивен Байес
- Естественят естматор на Лаплас
- Използване на числени характеристики с наивен Байес
3. Разбиране на решетъчни дървета
- Разделяне и завладяване
- Алгоритъмът на решетъчно дърво C5.0
- Избор на най-доброто разделение
- Подрязване на решетъчно дърво
4. Разбиране на правилата за класификация
- Разделяне и завладяване
- Алгоритъмът One Rule
- Алгоритъмът RIPPER
- Правила от решетъчни дървета
5. Разбиране на регресия
- Елементарна линейна регресия
- Обикновена оценка на най-малките квадрати
- Корелации
- Множествена линейна регресия
6. Разбиране на дървета за регресия и модели за дървета
- Добавяне на регресия към дървета
7. Разбиране на нейронни мрежи
- От биологични към изкуствени нейрони
- Функции за активация
- Топология на мрежата
- Брой слоеве
- Насочване на информацията
- Брой на възлите в всеки слой
- Обучение на нейронни мрежи с обратно разпространение
8. Разбиране на машини за поддържащи вектори
- Класификация с хиперравнини
- Намерене на максималната граница
- Случайът на линейно разделяеми данни
- Случайът на нелинейно разделяеми данни
- Използване на ядра за нелинейни пространства
9. Разбиране на асоциативни правила
- Алгоритъмът Apriori за обучение с асоциативни правила
- Измерване на интереса към правилата – подкрепа и увереност
- Създаване на множество правила с принципа на Apriori
10. Разбиране на кластеризация
- Кластеризацията като задача на машинно обучение
- Алгоритъмът k-means за кластеризация
- Използване на разстоянието за присвояване и обновяване на кластери
- Избор на подходящ брой кластери
11. Измерване на производителност за класификация
- Работа с предсказания данни за класификация
- По-дълбоко в матриците на заблуждения
- Използване на матриците на заблуждения за измерване на производителност
- Освен точност – други мерки за производителност
- Статистиката на капа
- Чувствителност и специфичност
- Точност и пълнота
- Измерването на F
- Визуализация на търговски компромиси
- Кривите ROC
- Оценка на бъдеща производителност
- Методът на задържане
- Кръстосана проверка
- Бутстрап образци
12. Подстройка на модели за акции за по-добра производителност
- Използване на caret за автоматично подстройване на параметри
- Създаване на прост подстроен модел
- Персонализиране на процеса на подстройка
- Улучшаване на производителността на модела с метаобучение
- Разбиране на ансамбли
- Багаж
- Бустинг
- Случайни горища
- Обучение на случайни горища
- Оценка на производителността на случайни горища
13. Дълбоко Обучение
- Три Класа Дълбоко Обучение
- Дълбоки Автоенкодъри
- Предварително обучени Дълбоки Нейронни Мрежи
- Дълбоки Стъкове Мрежи
14. Обсуждане на специфични области на приложение
             21 часа
        
        
Отзиви от потребители (1)
Very flexible.
Frank Ueltzhoffer
Курс - Artificial Neural Networks, Machine Learning and Deep Thinking
Машинен превод
 
                    