Курс за обучение по Talend Big Data Integration
Talend Open Studio for Big Data е отворен източник за инструмент за обработка на големи данни (ETL). Включва разработничко surrounding, с който да взаимодействате с голямите данни и да стартирате задачи, без да писате код.
Този училищен курс под ръководството на инструктор (онлайн или на място) е насочен към технически специалисти, които искат да приложат Talend Open Studio for Big Data за улесняване процеса на четене и обработка на големи данни.
Към края на този курс участниците ще могат да:
- Инсталират и конфигурират Talend Open Studio for Big Data.
- Връзки с системи за големи данни, като Cloudera, HortonWorks, MapR, Amazon EMR и Apache.
- Разбиране и настройка на компонентите и конекторите за големи данни в Open Studio.
- Конфигурират параметрите за автоматично генериране на MapReduce код.
- Използват интерфейса с дъската и пускането на Hadoop задачи в Open Studio.
- Прототипират канали за големи данни.
- Автоматизират проектите за интеграция на големи данни.
Формат на курса
- Интерактивна лекция и дискусия.
- Много упражнения и практика.
- Ръчен пуск в live-лабораторно surrounding.
Опции за персонализация на курса
- За да поискате персонализиран курс, моля свържете се с нас, за да организираме.
План на курса
Въведение
Общ преглед на функционалностите и архитектурата на "Open Studio for Big Data"
Настройка на Open Studio for Big Data
Навигация в потребителския интерфейс
Разбиране на компонентите и конекторите за големи данни
Свързване с кластър Hadoop
Четене и записване на данни
Обработка на данни с Hive и MapReduce
Анализ на резултатите
Подобряване на качеството на големите данни
Създаване на канал за големи данни
Управление на потребители, групи, роли и проекти
Приложение на Open Studio в продукцията
Мониторинг на Open Studio
Разкриване на проблеми
Резюме и заключение
Изисквания
- Разбиране на релационните бази данни
- Разбиране на хранилищата за данни
- Разбиране на концепциите ETL (Извличане, Преобразуване, Зареждане)
Публика
- Профессионални лица в бизнеса за разбираемостта на данните
- Профессионални бази данни
- Разработчици на SQL
- Разработчици ETL
- Архитекти на решенията
- Архитекти на данните
- Профессионални лица, свързани с хранилищата за данни
- Системни администратори и интеграционисти
Отворените курсове за обучение изискват 5+ участника.
Курс за обучение по Talend Big Data Integration - Резервация
Курс за обучение по Talend Big Data Integration - Запитване
Talend Big Data Integration - Консултантско запитване
Консултантско запитване
Отзиви от потребители (5)
The VM ми хареса много The Teacher беше много компетентен относно темата, както и за други теми, беше много мил и приветлив Михна ми хареса съоръжението в Дубай.
Safar Alqahtani - Elm Information Security
Курс - Big Data Analytics in Health
Машинен превод
Достъпен практическо обучение, треньорът е компетентен
Chris Tan
Курс - A Practical Introduction to Stream Processing
Машинен превод
очень интерактивен...
Richard Langford
Курс - SMACK Stack for Data Science
Машинен превод
Започнете да се запознавате с Spark Streaming, Databricks и AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Курс - Apache Spark in the Cloud
Машинен превод
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Курс - Spark for Developers
Машинен превод
Предстоящи Курсове
Свързани Kурсове
Анализ на големи данни с Google Colab и Apache Spark
14 часаТози курс с инструкторско ръководство, провеждан в онлайн или на място, е предназначен за данни научни специалисти и инженери на средно ниво, които искат да използват Google Colab и Apache Spark за обработка и анализ на големи данни.
До края на този курс участниците ще бъдат способни да:
- Настроят среда за големи данни с Google Colab и Spark.
- Обработват и анализират големи набори данни ефективно с Apache Spark.
- Визуализират големи данни в съвместна среда.
- Интегрират Apache Spark с инструменти базирани на облак.
Български анализ на големи данни в здравеопазването
21 часаАнализът на големи данни включва процеса по разглеждане на голями обеми различни набори от данни с цел откриване на корелации, скрити модели и друга полезна информация.
Индустрията на здравеопазването има масивни обеми сложни иерархични медицински и клинични данни. Применяването на анализ на големи данни върху медизинските данни има голям потенциал за извличане на инсайтове, които могат да улучшат доставянето на медицински услуги. Въпреки това, обемите на тези набори от данни представят големи предизвикателства за анализ и практически приложения в клинична среда.
В този курс под водене на инструктор (удалено), участниците ще научат как да извършват анализ на големи данни в здравеопазването, докато преминават през серия от практически упражнения.
Към края на това обучение участниците ще могат да:
- Инсталират и конфигурират инструменти за анализ на големи данни като Hadoop MapReduce и Spark
- Разбираща се природата на медицинските данни
- Прилагат методи за работа с големи данни за обработване на медицински данни
- Изучават системите и алгоритмите за анализ на големи данни в контекста на здравните приложения
Целева група
- Разработчици
- Аналисти на данни
Формат на курса
- Частично лекция, частично дискусия, упражнения и много практически занятия.
Бележка
- За да поискате персонализирано обучение за този курс, моля се свържете с нас, за да го организираме.
Hadoop администрация
21 часаКурсът е посветен на специалисти по информационни технологии, които търсят решение за съхранение и обработка на големи набори данни в разпределена среда.
Цел на курса:
Придобиване на знания относно управлението на кластери Hadoop
Hadoop и Spark за администратори
35 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към системни администратори, които желаят да научат как да настройват, разгръщат и управляват Hadoop клъстери в своята организация.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Hadoop.
- Разберете четирите основни компонента в екосистемата Hadoop: HDFS, MapReduce, YARN и Hadoop Common.
- Използвайте Hadoop Distributed File System (HDFS), за да мащабирате клъстер до стотици или хиляди възли.
- Настройте HDFS да работи като машина за съхранение за локални внедрявания на Spark.
- Настройте Spark за достъп до алтернативни решения за съхранение като Amazon S3 и NoSQL системи за бази данни като Redis, Elasticsearch, Couchbase, Aerospike и др.
- Извършване на административни задачи като осигуряване, управление, наблюдение и защита на Apache Hadoop клъстер.
Практическо въведение в потокова обработка
21 часаВ този обучаван под ръководството на инструктор в България (на място или на разстояние), участниците ще научат как да настроят и интегрират различни фреймворки за потокова обработка с вече съществуващи системи за съхранение на големи данни, софтуерни приложения и микросервизи.
Край обучението участниците ще могат да:
- Инсталират и настрояват различни фреймворки за потокова обработка, като Spark Streaming и Kafka Streaming.
- Разбиращ какъв е най-подходящият фреймворк за конкретната задача.
- Обработват данни непрекъснато, едновременно и по единичен запис.
- Интегрират решенията за потокова обработка с вече съществуващи бази данни, складове на данни, озера на данни и т.н.
- Интегрират най-подходящата библиотека за потокова обработка със съществуващи предприемачески приложения и микросервизи.
SMACK Stack за Науки за Данни
14 часаТова обучение с инструктор, провеждано на живо (онлайн или на място), е предназначено за специалисти по данни, които искат да използват стека SMACK за създаване на платформи за обработка на данни за решения за големи данни.
До края на това обучение участниците ще могат да:
- Реализират архитектура на данни за обработка на големи данни.
- Развиват кластерна инфраструктура с Apache Mesos и Docker.
- Анализират данни с Spark и Scala.
- Управляват неуредени данни с Apache Cassandra.
Основи на Apache Spark
21 часаТова обучение, водено от инструктор (в реално време или на място), е насочено към инженери, които искат да конфигурират и внедрят системата Apache Spark за обработка на много големи данни.
По завершването на това обучение участниците ще могат:
- Инсталират и конфигурират Apache Spark.
- Бързо обработват и анализират много големи данни.
- Разберат разликата между Apache Spark и Hadoop MapReduce, както и кога да използват всяка от тях.
- Интегрират Apache Spark с други инструменти за машинно учене.
Управление на Apache Spark
35 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към начинаещи до системни администратори на средно ниво, които желаят да разположат, поддържат и оптимизират клъстери на Spark.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Spark в различни среди.
- Управлявайте ресурсите на клъстера и наблюдавайте приложенията на Spark.
- Оптимизирайте производителността на клъстерите Spark.
- Приложете мерки за сигурност и осигурете висока наличност.
- Отстраняване на грешки и отстраняване на често срещани проблеми със Spark.
Апаче Спарк в Облака
21 часаКривата на обучение на Apache Spark бавно се увеличава в началото, необходими са много усилия, за да се получи първата възвръщаемост. Този курс има за цел да премине през първата трудна част. След преминаването на този курс участниците ще разберат основите на Apache Spark, ще разграничат ясно RDD от DataFrame, ще научат Python и Scala API, ще разберат изпълнителите и задачите и т.н. Следвайки най-добрите практики, този курс силно се фокусира върху внедряването в облак, Databricks и AWS. Студентите също ще разберат разликите между AWS EMR и AWS Glue, една от най-новите услуги на Spark на AWS.
ПУБЛИКА:
Инженер по данни, DevOps, Учен по данни
Spark за разработчици
21 часаОБЕКТИВЕН:
Този курс ще представи Apache Spark. Студентите ще научат как Spark се вписва в екосистемата на Big Data и как да използват Spark за анализ на данни. Курсът обхваща обвивка на Spark за интерактивен анализ на данни, вътрешни елементи на Spark, API на Spark, Spark SQL, поточно предаване на Spark и машинно обучение и graphX.
ПУБЛИКА :
Разработчици / анализатори на данни
Мащабиране на данни пиплайни с Spark NLP
14 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към учени и разработчици на данни, които желаят да използват Spark NLP, изграден върху Apache Spark, за разработване, внедряване и мащабиране на обработка на текст на естествен език модели и тръбопроводи.
До края на това обучение участниците ще могат:
- Настройте необходимата среда за разработка, за да започнете изграждането на NLP тръбопроводи с Spark NLP.
- Разберете характеристиките, архитектурата и ползите от използването на Spark NLP.
- Използвайте предварително обучените модели, налични в Spark NLP, за да реализирате обработка на текст.
- Научете как да създавате, обучавате и мащабирате Spark NLP модели за проекти от производствен клас.
- Прилагайте класификация, изводи и анализ на настроенията върху случаи на употреба в реалния свят (клинични данни, прозрения за поведението на клиентите и т.н.).
Python and Spark за големи данни (PySpark)
21 часаВ това водено от инструктор обучение на живо в България участниците ще се научат как да използват Python и Spark заедно, за да анализират големи данни, докато работят върху практически упражнения.
До края на това обучение участниците ще могат:
- Научете как да използвате Spark с Python за анализ на Big Data.
- Работете върху упражнения, които имитират случаи от реалния свят.
- Използвайте различни инструменти и техники за анализ на големи данни, използвайки PySpark.
Python, Spark, and Hadoop за Биг Дата
21 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към разработчици, които желаят да използват и интегрират Spark, Hadoop и Python за обработка, анализиране и трансформиране на големи и сложни масиви от данни.
До края на това обучение участниците ще могат:
- Настройте необходимата среда, за да започнете да обработвате големи данни със Spark, Hadoop и Python.
- Разберете характеристиките, основните компоненти и архитектурата на Spark и Hadoop.
- Научете как да интегрирате Spark, Hadoop и Python за обработка на големи данни.
- Разгледайте инструментите в екосистемата на Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume).
- Изградете системи за препоръки за съвместно филтриране, подобни на Netflix, YouTube, Amazon, Spotify и Google.
- Използвайте Apache Mahout за мащабиране на алгоритми за машинно обучение.
Apache Spark SQL
7 часаSpark SQL е модулът на Apache Spark за работа с структурирани и неструктурирани данни. Spark SQL предоставя информация за структурата на данните, както и за извършваното изчисление. Тази информация може да бъде използвана за оптимизация. Две общи сценария за употреба на Spark SQL са:
- изпълнение на SQL заявки.
- четене на данни от съществуваща инсталация на Hive.
В този воден от инструктор обучаващ курс (на място или онлайн), участниците ще научат как да анализират различни типове набори от данни, използвайки Spark SQL.
По завършването на този курс, участниците ще могат:
- Да инсталират и конфигурират Spark SQL.
- Да анализират данни с използване на Spark SQL.
- Да извършват заявки към набори от данни в различни формати.
- Да визуализират данните и резултатите от заявките.
Формат на курса
- Интерактивно предаване с дискусия.
- Много упражнения и практика.
- Приложение в реална лабораторна среда.
Опции за персонализиране на курса
- За да поискате персонализирано обучение за този курс, моля, свържете се с нас, за да организираме.
Stratio: Модули Rocket и Intelligence с PySpark
14 часаStratio е платформа, насочена към данни, която интегрира големи данни, ИИ и управление в едно решение. Нейните модули Rocket и Intelligence подпомагат бързото разглеждане на данни, трансформацията и напредналата аналитика в предприемачски среди.
Това обучение под ръководството на инструктор (онлайн или на място) е насочено към средно ниво специалисти по данни, които искат да използват модулите Rocket и Intelligence в Stratio ефективно с PySpark, като фокусират върху циклични структури, потребителски дефинирани функции (UDFs) и напреднала логика на данни.
По края на обучението участниците ще могат да:
- Навигирам и работя в платформата Stratio, използвайки модулите Rocket и Intelligence.
- Применявам PySpark за ингестинг, трансформация и анализ на данни.
- Използвам цикли и условна логика за контрол на рабочите процеси с данни и задачите по извличане на характеристики (feature engineering).
- Създавам и управлявам потребителски дефинирани функции (UDFs) за повторно използване на операции с данни в PySpark.
Формат на курса
- Интерактивно предаване и дискусия.
- Много упражнения и практика.
- Работа в реална лабораторна среда.
Опции за персонализация на курса
- За да заявите персонализирано обучение за този курс, моля свържете се с нас за организиране.