Курс за обучение по Hadoop Administration
Курсът е посветен на ИТ специалисти, които търсят решение за съхранение и обработка на големи масиви от данни в разпределена системна среда
Цел на курса:
Получаване на знания относно Hadoop администриране на клъстер
План на курса
Въведение в Cloud Computing и Big Data решения
Еволюция на Apache Hadoop: HDFS, MapReduce, YARN
Инсталиране и конфигуриране на Hadoop в псевдо-разпределен режим
Изпълнение на задания на MapReduce на Hadoop клъстер
Hadoop планиране, инсталиране и конфигуриране на клъстери
Hadoop екосистема: Pig, Hive, Sqoop, HBase
- Big Data бъдеще: Impala, Cassandra
Изисквания
- основни Linux административни умения
- основни умения по програмиране
Отворените курсове за обучение изискват 5+ участници.
Курс за обучение по Hadoop Administration - Booking
Курс за обучение по Hadoop Administration - Enquiry
Hadoop Administration - Консултантско запитване
Консултантско запитване
Oтзиви от потребители (5)
The live examples
Ahmet Bolat - Accenture Industrial SS
Курс - Python, Spark, and Hadoop for Big Data
During the exercises, James explained me every step whereever I was getting stuck in more detail. I was completely new to NIFI. He explained the actual purpose of NIFI, even the basics such as open source. He covered every concept of Nifi starting from Beginner Level to Developer Level.
Firdous Hashim Ali - MOD A BLOCK
Курс - Apache NiFi for Administrators
Trainer's preparation & organization, and quality of materials provided on github.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Курс - Impala for Business Intelligence
That I had it in the first place.
Peter Scales - CACI Ltd
Курс - Apache NiFi for Developers
practical things of doing, also theory was served good by Ajay
Dominik Mazur - Capgemini Polska Sp. z o.o.
Курс - Hadoop Administration on MapR
Предстоящи Курсове
Свързани Kурсове
Administrator Training for Apache Hadoop
35 ЧасаПублика:
Курсът е предназначен за ИТ специалисти, които търсят решение за съхранение и обработка на големи масиви от данни в разпределена системна среда
Goал:
Задълбочени познания по Hadoop администриране на клъстери.
Big Data Analytics in Health
21 ЧасаАнализът на големи данни включва процеса на изследване на големи количества разнообразни набори от данни, за да се разкрият корелации, скрити модели и други полезни прозрения.
Здравната индустрия разполага с огромно количество сложни разнородни медицински и клинични данни. Прилагането на анализ на големи данни върху здравни данни представлява огромен потенциал за извличане на прозрения за подобряване на предоставянето на здравни грижи. Огромността на тези набори от данни обаче поставя големи предизвикателства в анализите и практическите приложения в клинична среда.
В това водено от инструктор обучение на живо (дистанционно) участниците ще се научат как да извършват анализ на големи данни в здравеопазването, докато преминават през поредица от практически лабораторни упражнения на живо.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте инструменти за анализ на големи данни като Hadoop MapReduce и Spark Разбирайте характеристиките на медицинските данни Прилагайте техники за големи данни за работа с медицински данни Изучавайте системи и алгоритми за големи данни в контекста на здравни приложения
Публика
- Разработчици Учени по данни
Формат на курса
- Част лекция, част дискусия, упражнения и тежка практическа практика.
Забележка
- За да поискате персонализирано обучение за този курс, моля свържете се с нас, за да уговорим.
Hadoop For Administrators
21 ЧасаApache Hadoop е най-популярната рамка за обработка Big Data на клъстери от сървъри. В този три (по избор четири) дневен курс участниците ще научат за ползите за бизнеса и случаите на използване на Hadoop и неговата екосистема, как да планират внедряването и растежа на клъстера, как да инсталират, поддържат, наблюдават, отстраняват неизправности и оптимизират [2 ]. Те също така ще практикуват групово зареждане на данни в клъстер, ще се запознаят с различни Hadoop дистрибуции и ще практикуват инсталиране и управление на Hadoop инструменти за екосистеми. Курсът завършва с обсъждане на защитата на клъстера с Kerberos.
„...Материалите бяха много добре подготвени и подробно обхванати. Лабораторията беше много полезна и добре организирана“
— Андрю Нгуен, главен инженер по интегриране на DW, Microsoft Онлайн Advertising
Публика
Hadoop администратори
формат
Лекции и практически упражнения, приблизителен баланс 60% лекции, 40% лабораторни упражнения.
Hadoop for Developers (4 days)
28 ЧасаApache Hadoop е най-популярната рамка за обработка Big Data на клъстери от сървъри. Този курс ще запознае програмиста с различни компоненти (HDFS, MapReduce, Pig, Hive и HBase) Hadoop екосистема.
Advanced Hadoop for Developers
21 ЧасаApache Hadoop е една от най-популярните рамки за обработка Big Data на клъстери от сървъри. Този курс се занимава с управление на данни в HDFS, Advanced Pig Hive и HBase. Тези усъвършенствани техники за програмиране ще бъдат от полза за опитни Hadoop разработчици.
Аудитория : разработчици
Продължителност: три дни
Формат: лекции (50%) и практически упражнения (50%).
Hadoop Administration on MapR
28 ЧасаПублика:
Този курс има за цел да демистифицира технологията за големи данни/hadoop и да покаже, че не е трудна за разбиране.
Hadoop and Spark for Administrators
35 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към системни администратори, които желаят да научат как да настройват, разгръщат и управляват Hadoop клъстери в своята организация.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Hadoop.
- Разберете четирите основни компонента в екосистемата Hadoop: HDFS, MapReduce, YARN и Hadoop Common.
- Използвайте Hadoop Distributed File System (HDFS), за да мащабирате клъстер до стотици или хиляди възли.
- Настройте HDFS да работи като машина за съхранение за локални внедрявания на Spark.
- Настройте Spark за достъп до алтернативни решения за съхранение като Amazon S3 и NoSQL системи за бази данни като Redis, Elasticsearch, Couchbase, Aerospike и др.
- Извършване на административни задачи като осигуряване, управление, наблюдение и защита на Apache Hadoop клъстер.
HBase for Developers
21 ЧасаТози курс представя HBase – NoSQL магазин на върха на Hadoop. Курсът е предназначен за разработчици, които ще използват HBase за разработване на приложения, и администратори, които ще управляват HBase клъстери.
Ще преведем програмист през архитектурата на HBase и моделирането на данни и разработването на приложения в HBase. Той също така ще обсъди използването на MapReduce с HBase и някои административни теми, свързани с оптимизирането на производителността. Курсът е много практически с много лабораторни упражнения.
Продължителност: 3 дни
Аудитория: разработчици и администратори
Hortonworks Data Platform (HDP) for Administrators
21 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) представя Hortonworks Data Platform (HDP) и превежда участниците през внедряването на решението Spark + Hadoop.
До края на това обучение участниците ще могат:
- Използвайте Hortonworks за надеждно изпълнение на Hadoop в голям мащаб.
- Обединете възможностите за сигурност, управление и операции на Hadoop с гъвкавите аналитични работни процеси на Spark.
- Използвайте Hortonworks, за да проучите, валидирате, сертифицирате и поддържате всеки от компонентите в проект на Spark.
- Обработвайте различни видове данни, включително структурирани, неструктурирани, в движение и в покой.
Data Analysis with Hive/HiveQL
7 ЧасаТози курс обхваща как да използвате езика Hive SQL (AKA: Hive HQL, SQL на Hive, HiveQL) за хора, които извличат данни от Hive
Impala for Business Intelligence
21 ЧасаCloudera Impala е машина за заявки за масивна паралелна обработка (MPP) SQL с отворен код за Apache Hadoop клъстери.
Impala позволява на потребителите да изпращат заявки с ниска латентност SQL към данни, съхранявани в Hadoop Distributed File System и Apache Hbase, без да се изисква движение или трансформация на данни.
Публика
Този курс е насочен към анализатори и специалисти по данни, извършващи анализ на данни, съхранявани в Hadoop чрез Business Intelligence или SQL инструменти.
След този курс делегатите ще могат
- Извлечете значима информация от Hadoop клъстери с Impala.
- Напишете специфични програми за улесняване на Business интелигентността на Impala SQL диалекта.
- Отстраняване на неизправности Impala.
Apache NiFi for Administrators
21 ЧасаВ това водено от инструктор обучение на живо в България (на място или дистанционно), участниците ще се научат как да внедряват и управляват Apache NiFi в лабораторна среда на живо.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apachi NiFi.
- Извличайте, трансформирайте и управлявайте данни от различни, разпределени източници на данни, включително бази данни и големи езера от данни.
- Автоматизирайте потоците от данни.
- Активиране на поточно анализиране.
- Приложете различни подходи за поглъщане на данни.
- Трансформирайте Big Data и в бизнес прозрения.
Apache NiFi for Developers
7 ЧасаВ това водено от инструктор обучение на живо в България, участниците ще научат основите на базираното на поток програмиране, докато разработват редица демонстрационни разширения, компоненти и процесори, използвайки Apache NiFi.
До края на това обучение участниците ще могат:
- Разберете концепциите за архитектурата и потока от данни на NiFi.
- Разработвайте разширения с помощта на NiFi и API на трети страни.
- Персонализирано разработване на собствен процесор Apache Nifi.
- Поглъщайте и обработвайте данни в реално време от различни и необичайни файлови формати и източници на данни.
Python, Spark, and Hadoop for Big Data
21 ЧасаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към разработчици, които желаят да използват и интегрират Spark, Hadoop и Python за обработка, анализиране и трансформиране на големи и сложни масиви от данни.
До края на това обучение участниците ще могат:
- Настройте необходимата среда, за да започнете да обработвате големи данни със Spark, Hadoop и Python.
- Разберете характеристиките, основните компоненти и архитектурата на Spark и Hadoop.
- Научете как да интегрирате Spark, Hadoop и Python за обработка на големи данни.
- Разгледайте инструментите в екосистемата на Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume).
- Изградете системи за препоръки за съвместно филтриране, подобни на Netflix, YouTube, Amazon, Spotify и Google.
- Използвайте Apache Mahout за мащабиране на алгоритми за машинно обучение.