План на курса

ДЕН 1 - ИЗКУСТВЕНИ НЕВРОННИ МРЕЖИ

Въведение и структура на ANN.

    Bioлогически неврони и изкуствени неврони. Модел на ANN. Функции за активиране, използвани в ANN. Типични класове мрежови архитектури.

Mathematical Основи и механизми за обучение.

    Повторно посещение на векторна и матрична алгебра. Концепции за пространство на състоянието. Концепции за оптимизация. Обучение за коригиране на грешки. Учене, базирано на паметта. Хебистко обучение. Състезателно обучение.

Еднослойни перцептрони.

    Структура и обучение на перцептрони. Класификатор на модели - въведение и класификатори на Бейс. Перцептрон като класификатор на модели. Перцептронна конвергенция. Ограничения на перцептроните.

Предварителна ANN.

    Структури на многослойни мрежи с предварителна връзка. Алгоритъм за обратно разпространение. Обратно разпространение - обучение и конвергенция. Функционална апроксимация с обратно разпространение. Практически и дизайнерски въпроси на обучението с обратно разпространение.

Радиални базисни функционални мрежи.

    Разделимост на шаблона и интерполация. Теория за регулиране. Регулиране и RBF мрежи. RBF мрежово проектиране и обучение. Апроксимационни свойства на RBF.

Конкурентно обучение и самоорганизираща се ANN.

    Общи процедури за групиране. Обучаващо векторно квантуване (LVQ). Алгоритми и архитектури за конкурентно обучение. Самоорганизиращи се карти с функции. Свойства на картите на характеристиките.

Размит Neural Networks.

    Невро-размити системи. Предистория на размитите множества и логиката. Дизайн на размити стъбла. Проектиране на размити ANN.

Приложения

    Ще бъдат обсъдени няколко примера за приложения на невронни мрежи, техните предимства и проблеми.

ДЕН -2 МАШИННО ОБУЧЕНИЕ

    PAC Learning Framework Гаранции за краен набор от хипотези – последователен случай Гаранции за краен набор от хипотези – непоследователен случай Общи положения Детерминистично cv. Стохастични сценарии Шум от грешка на Бейс Грешки при оценка и приближение Избор на модел
Сложност на Radmeacher и VC – измерениеКомпромис на отклонение – дисперсия
  • Регулиране
  • Прекомерно прилягане
  • Валидиране
  • Поддържащи векторни машини
  • Кригинг (регресия на процеса на Гаус)
  • PCA и PCA на ядрото
  • Карти за самоорганизация (SOM)
  • Индуцирано от ядрото векторно пространство Mercer Kernels и показатели за сходство, индуцирани от ядрото
  • Reinforcement Learning
  • ДЕН 3 - ДЪЛБОКО ОБУЧАВАНЕ
  • Това ще се преподава във връзка с темите, обхванати в Ден 1 и Ден 2
  • Logistic and Softmax Regression Sparse Autoencoders Vectorization, PCA и Whitening Самоучител Обучение Deep Networks Линейни декодери Convolution и Pooling Sparse Coding Анализ на независими компоненти Каноничен корелационен анализ Демонстрации и приложения
  • Изисквания

    Добро разбиране на математиката.

    Goот разбиране на основни статистики.

    Основните умения по програмиране не са задължителни, но се препоръчват.

      21 Hours

    Брой участници



    Цена за участник

    Oтзиви от потребители (2)

    Свързани Kурсове

    Advanced Stable Diffusion: Deep Learning for Text-to-Image Generation

      21 Hours

    Свързани Kатегории