Курс за обучение по Python, Spark, and Hadoop for Big Data
Python е мащабируем, гъвкав и широко използван език за програмиране за наука за данни и машинно обучение. Spark е машина за обработка на данни, използвана при заявки, анализиране и трансформиране на големи данни, докато Hadoop е рамка на софтуерна библиотека за широкомащабно съхранение и обработка на данни.
Това водено от инструктор обучение на живо (онлайн или на място) е насочено към разработчици, които желаят да използват и интегрират Spark, Hadoop и Python за обработка, анализиране и трансформиране на големи и сложни масиви от данни.
До края на това обучение участниците ще могат:
- Настройте необходимата среда, за да започнете да обработвате големи данни със Spark, Hadoop и Python.
- Разберете характеристиките, основните компоненти и архитектурата на Spark и Hadoop.
- Научете как да интегрирате Spark, Hadoop и Python за обработка на големи данни.
- Разгледайте инструментите в екосистемата на Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume).
- Изградете системи за препоръки за съвместно филтриране, подобни на Netflix, YouTube, Amazon, Spotify и Google.
- Използвайте Apache Mahout за мащабиране на алгоритми за машинно обучение.
Формат на курса
- Интерактивна лекция и дискусия.
- Много упражнения и практика.
- Практическо внедряване в лабораторна среда на живо.
Опции за персонализиране на курса
- За да поискате персонализирано обучение за този курс, моля свържете се с нас, за да уговорим.
План на курса
Въведение
- Преглед на характеристиките и архитектурата на Spark и Hadoop.
- Разбиране на големи данни
- Python основи на програмирането
Приготвяме се да започнем
- Настройка на Python, Spark и Hadoop
- Разбиране на структурите от данни в Python
- Разбиране на PySpark API
- Разбиране на HDFS и MapReduce
Интегриране на Spark и Hadoop с Python
- Внедряване на Spark RDD в Python
- Обработка на данни с помощта на MapReduce
- Създаване на разпределени набори от данни в HDFS
Machine Learning с Spark MLlib
Обработка Big Data с Spark Streaming
Работа с Recommender Systems
Работа с Kafka, Sqoop, Kafka и Flume
Apache Mahout със Spark и Hadoop
Отстраняване на неизправности
Обобщение и следващи стъпки
Изисквания
- Опит със Spark и Hadoop
- Python опит в програмирането
Публика
- Учени по данни
- Разработчици
Отворените курсове за обучение изискват 5+ участници.
Курс за обучение по Python, Spark, and Hadoop for Big Data - Booking
Курс за обучение по Python, Spark, and Hadoop for Big Data - Enquiry
Python, Spark, and Hadoop for Big Data - Консултантско запитване
Консултантско запитване
Oтзиви от потребители (3)
The fact that we were able to take with us most of the information/course/presentation/exercises done, so that we can look over them and perhaps redo what we didint understand first time or improve what we already did.
Raul Mihail Rat - Accenture Industrial SS
Курс - Python, Spark, and Hadoop for Big Data
I liked that it managed to lay the foundations of the topic and go to some quite advanced exercises. Also provided easy ways to write/test the code.
Ionut Goga - Accenture Industrial SS
Курс - Python, Spark, and Hadoop for Big Data
The live examples
Ahmet Bolat - Accenture Industrial SS
Курс - Python, Spark, and Hadoop for Big Data
Предстоящи Курсове
Свързани Kурсове
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 ЧасаТози курс е предназначен за разработчици и специалисти по данни, които искат да разберат и внедрят изкуствения интелект в своите приложения. Специален фокус е върху анализа на данни, разпределения изкуствен интелект и обработката на естествен език.
Big Data Analytics with Google Colab and Apache Spark
14 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към специалисти по данни и инженери на средно ниво, които желаят да използват Google Colab и Apache Spark за обработка и анализ на големи данни.
До края на това обучение участниците ще могат:
- Настройте среда с големи данни с помощта на Google Colab и Spark.
- Обработвайте и анализирайте ефективно големи набори от данни с Apache Spark.
- Визуализирайте големи данни в среда за сътрудничество.
- Интегрирайте Apache Spark с облачни инструменти.
Big Data Analytics in Health
21 ЧасаАнализът на големи данни включва процеса на изследване на големи количества разнообразни набори от данни, за да се разкрият корелации, скрити модели и други полезни прозрения.
Здравната индустрия разполага с огромно количество сложни разнородни медицински и клинични данни. Прилагането на анализ на големи данни върху здравни данни представлява огромен потенциал за извличане на прозрения за подобряване на предоставянето на здравни грижи. Огромността на тези набори от данни обаче поставя големи предизвикателства в анализите и практическите приложения в клинична среда.
В това водено от инструктор обучение на живо (дистанционно) участниците ще се научат как да извършват анализ на големи данни в здравеопазването, докато преминават през поредица от практически лабораторни упражнения на живо.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте инструменти за анализ на големи данни като Hadoop MapReduce и Spark Разбирайте характеристиките на медицинските данни Прилагайте техники за големи данни за работа с медицински данни Изучавайте системи и алгоритми за големи данни в контекста на здравни приложения
Публика
- Разработчици Учени по данни
Формат на курса
- Част лекция, част дискусия, упражнения и тежка практическа практика.
Забележка
- За да поискате персонализирано обучение за този курс, моля свържете се с нас, за да уговорим.
Introduction to Graph Computing
28 ЧасаВ това водено от инструктор обучение на живо в България участниците ще научат за технологичните предложения и подходите за внедряване за обработка на графични данни. Целта е да се идентифицират обекти от реалния свят, техните характеристики и взаимоотношения, след това да се моделират тези взаимоотношения и да се обработят като данни с помощта на Graph Computing (известен също като Graph Analytics) подход. Започваме с широк преглед и се ограничаваме до конкретни инструменти, докато преминаваме през поредица от казуси, практически упражнения и внедрявания на живо.
До края на това обучение участниците ще могат:
- Разберете как данните от графиката се поддържат и преминават.
- Изберете най-добрата рамка за дадена задача (от бази данни с графики до рамки за пакетна обработка.)
- Приложете Hadoop, Spark, GraphX и Pregel за извършване на графични изчисления в много машини паралелно.
- Вижте реални проблеми с големи данни от гледна точка на графики, процеси и обхождания.
Hadoop and Spark for Administrators
35 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към системни администратори, които желаят да научат как да настройват, разгръщат и управляват Hadoop клъстери в своята организация.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Hadoop.
- Разберете четирите основни компонента в екосистемата Hadoop: HDFS, MapReduce, YARN и Hadoop Common.
- Използвайте Hadoop Distributed File System (HDFS), за да мащабирате клъстер до стотици или хиляди възли.
- Настройте HDFS да работи като машина за съхранение за локални внедрявания на Spark.
- Настройте Spark за достъп до алтернативни решения за съхранение като Amazon S3 и NoSQL системи за бази данни като Redis, Elasticsearch, Couchbase, Aerospike и др.
- Извършване на административни задачи като осигуряване, управление, наблюдение и защита на Apache Hadoop клъстер.
Hortonworks Data Platform (HDP) for Administrators
21 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) представя Hortonworks Data Platform (HDP) и превежда участниците през внедряването на решението Spark + Hadoop.
До края на това обучение участниците ще могат:
- Използвайте Hortonworks за надеждно изпълнение на Hadoop в голям мащаб.
- Обединете възможностите за сигурност, управление и операции на Hadoop с гъвкавите аналитични работни процеси на Spark.
- Използвайте Hortonworks, за да проучите, валидирате, сертифицирате и поддържате всеки от компонентите в проект на Spark.
- Обработвайте различни видове данни, включително структурирани, неструктурирани, в движение и в покой.
Data Analysis with Hive/HiveQL
7 ЧасаТози курс обхваща как да използвате езика Hive SQL (AKA: Hive HQL, SQL на Hive, HiveQL) за хора, които извличат данни от Hive
Impala for Business Intelligence
21 ЧасаCloudera Impala е машина за заявки за масивна паралелна обработка (MPP) SQL с отворен код за Apache Hadoop клъстери.
Impala позволява на потребителите да изпращат заявки с ниска латентност SQL към данни, съхранявани в Hadoop Distributed File System и Apache Hbase, без да се изисква движение или трансформация на данни.
Публика
Този курс е насочен към анализатори и специалисти по данни, извършващи анализ на данни, съхранявани в Hadoop чрез Business Intelligence или SQL инструменти.
След този курс делегатите ще могат
- Извлечете значима информация от Hadoop клъстери с Impala.
- Напишете специфични програми за улесняване на Business интелигентността на Impala SQL диалекта.
- Отстраняване на неизправности Impala.
A Practical Introduction to Stream Processing
21 ЧасаВ това водено от инструктор обучение на живо в България (на място или дистанционно), участниците ще се научат как да настройват и интегрират различни Stream Processing рамки със съществуващи системи за съхранение на големи данни и свързани софтуерни приложения и микроуслуги.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте различни Stream Processing рамки, като Spark Streaming и Kafka Streaming.
- Разберете и изберете най-подходящата рамка за работата.
- Обработване на данни непрекъснато, едновременно и по начин запис по запис.
- Интегрирайте Stream Processing решения със съществуващи бази данни, хранилища за данни, езера от данни и др.
- Интегрирайте най-подходящата библиотека за обработка на потоци с корпоративни приложения и микроуслуги.
SMACK Stack for Data Science
14 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към специалисти по данни, които желаят да използват стека SMACK за изграждане на платформи за обработка на данни за решения за големи данни.
До края на това обучение участниците ще могат:
- Внедрете архитектура на тръбопровод за данни за обработка на големи данни.
- Разработете клъстерна инфраструктура с Apache Mesos и Docker.
- Анализирайте данните с Spark и Scala.
- Управлявайте неструктурирани данни с Apache Cassandra.
Apache Spark Fundamentals
21 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към инженери, които желаят да настроят и внедрят Apache Spark система за обработка на много големи количества данни.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Spark.
- Бързо обработвайте и анализирайте много големи набори от данни.
- Разберете разликата между Apache Spark и Hadoop MapReduce и кога да използвате кое.
- Интегрирайте Apache Spark с други инструменти за машинно обучение.
Administration of Apache Spark
35 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към начинаещи до системни администратори на средно ниво, които желаят да разположат, поддържат и оптимизират клъстери на Spark.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Spark в различни среди.
- Управлявайте ресурсите на клъстера и наблюдавайте приложенията на Spark.
- Оптимизирайте производителността на клъстерите Spark.
- Приложете мерки за сигурност и осигурете висока наличност.
- Отстраняване на грешки и отстраняване на често срещани проблеми със Spark.
Python and Spark for Big Data (PySpark)
21 ЧасаВ това водено от инструктор обучение на живо в България участниците ще се научат как да използват Python и Spark заедно, за да анализират големи данни, докато работят върху практически упражнения.
До края на това обучение участниците ще могат:
- Научете как да използвате Spark с Python за анализ на Big Data.
- Работете върху упражнения, които имитират случаи от реалния свят.
- Използвайте различни инструменти и техники за анализ на големи данни, използвайки PySpark.
Apache Spark MLlib
35 ЧасаMLlib е библиотеката за машинно обучение (ML) на Spark. Целта му е да направи практическото машинно обучение мащабируемо и лесно. Състои се от общи алгоритми и помощни програми за обучение, включително класификация, регресия, клъстериране, съвместно филтриране, намаляване на размерността, както и примитиви за оптимизация от по-ниско ниво и приложни програмни интерфейси за конвейер от по-високо ниво.
Разделя се на два пакета:
- spark.mllib съдържа оригиналния API, изграден върху RDD. spark.ml предоставя API от по-високо ниво, изграден върху DataFrames за конструиране на ML тръбопроводи.
Публика
Този курс е насочен към инженери и разработчици, които искат да използват вградена машинна библиотека за Apache Spark