Курс за обучение по Български анализ на големи данни в здравеопазването
Анализът на големи данни включва процеса по разглеждане на голями обеми различни набори от данни с цел откриване на корелации, скрити модели и друга полезна информация.
Индустрията на здравеопазването има масивни обеми сложни иерархични медицински и клинични данни. Применяването на анализ на големи данни върху медизинските данни има голям потенциал за извличане на инсайтове, които могат да улучшат доставянето на медицински услуги. Въпреки това, обемите на тези набори от данни представят големи предизвикателства за анализ и практически приложения в клинична среда.
В този курс под водене на инструктор (удалено), участниците ще научат как да извършват анализ на големи данни в здравеопазването, докато преминават през серия от практически упражнения.
Към края на това обучение участниците ще могат да:
- Инсталират и конфигурират инструменти за анализ на големи данни като Hadoop MapReduce и Spark
- Разбираща се природата на медицинските данни
- Прилагат методи за работа с големи данни за обработване на медицински данни
- Изучават системите и алгоритмите за анализ на големи данни в контекста на здравните приложения
Целева група
- Разработчици
- Аналисти на данни
Формат на курса
- Частично лекция, частично дискусия, упражнения и много практически занятия.
Бележка
- За да поискате персонализирано обучение за този курс, моля се свържете с нас, за да го организираме.
План на курса
Въведение в анализ на големи данни в здравеопазването
Общ преглед на технологии за анализ на големи данни
- Apache Hadoop MapReduce
- Apache Spark
Инсталиране и конфигуриране на Apache Hadoop MapReduce
Инсталиране и конфигуриране на Apache Spark
Ползване на предиктивно моделиране за здравните данни
Ползване на Apache Hadoop MapReduce за здравни данни
Изпълнение на фенотипиране и групиране на здравните данни
- Метрики за оценка на класификацията
- Методи на енсамбли за класификация
Ползване на Apache Spark за здравни данни
Работа с медицинска онтология
Анализ на графи върху здравните данни
Редуциране на размерността на здравните данни
Работа с метрики за подобствие на пациентите
Отстраняване на грешки
Самостойно резюме и заключения
Изисквания
- Разбиране на концепции за машинно обучение и извличане на данни
- Напреднали умения в програмирането (Python, Java, Scala)
- Умения по работа с данни и процесите ETL
Отворените курсове за обучение изискват 5+ участника.
Курс за обучение по Български анализ на големи данни в здравеопазването - Резервация
Курс за обучение по Български анализ на големи данни в здравеопазването - Запитване
Български анализ на големи данни в здравеопазването - Консултантско запитване
Консултантско запитване
Отзиви от потребители (1)
Виртуалната машина ми се спечели много добре. Преподавателят беше изключено компетентен както по темата, така и по другите теми, той беше много приятен и дружелюбен. Мне хареса обектът в Дубай.
Safar Alqahtani - Elm Information Security
Курс - Big Data Analytics in Health
Машинен превод
Предстоящи Курсове
Свързани Kурсове
Обучение на администратор за Apache Hadoop
35 часаАудитория:
Курсът е предназначен за ИТ специалисти, търсещи решение за съхранение и обработка на големи данни в среда на разпределена система.
Goал:
Дълбоки знания в управление на Hadoop кластери.
Анализ на големи данни с Google Colab и Apache Spark
14 часаТози курс с инструкторско ръководство, провеждан в онлайн или на място, е предназначен за данни научни специалисти и инженери на средно ниво, които искат да използват Google Colab и Apache Spark за обработка и анализ на големи данни.
До края на този курс участниците ще бъдат способни да:
- Настроят среда за големи данни с Google Colab и Spark.
- Обработват и анализират големи набори данни ефективно с Apache Spark.
- Визуализират големи данни в съвместна среда.
- Интегрират Apache Spark с инструменти базирани на облак.
Администриране на Hadoop на MapR
28 часаЦелева аудитория:
Този курс е предназначен да разкрие тайновете на технологиите за големи данни/Hadoop и да покаже, че те не са трудни за разбиране.
Hadoop и Spark за администратори
35 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към системни администратори, които желаят да научат как да настройват, разгръщат и управляват Hadoop клъстери в своята организация.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Hadoop.
- Разберете четирите основни компонента в екосистемата Hadoop: HDFS, MapReduce, YARN и Hadoop Common.
- Използвайте Hadoop Distributed File System (HDFS), за да мащабирате клъстер до стотици или хиляди възли.
- Настройте HDFS да работи като машина за съхранение за локални внедрявания на Spark.
- Настройте Spark за достъп до алтернативни решения за съхранение като Amazon S3 и NoSQL системи за бази данни като Redis, Elasticsearch, Couchbase, Aerospike и др.
- Извършване на административни задачи като осигуряване, управление, наблюдение и защита на Apache Hadoop клъстер.
Практическо въведение в потокова обработка
21 часаВ този обучаван под ръководството на инструктор в България (на място или на разстояние), участниците ще научат как да настроят и интегрират различни фреймворки за потокова обработка с вече съществуващи системи за съхранение на големи данни, софтуерни приложения и микросервизи.
Край обучението участниците ще могат да:
- Инсталират и настрояват различни фреймворки за потокова обработка, като Spark Streaming и Kafka Streaming.
- Разбиращ какъв е най-подходящият фреймворк за конкретната задача.
- Обработват данни непрекъснато, едновременно и по единичен запис.
- Интегрират решенията за потокова обработка с вече съществуващи бази данни, складове на данни, озера на данни и т.н.
- Интегрират най-подходящата библиотека за потокова обработка със съществуващи предприемачески приложения и микросервизи.
SMACK Stack за Науки за Данни
14 часаТова обучение с инструктор, провеждано на живо (онлайн или на място), е предназначено за специалисти по данни, които искат да използват стека SMACK за създаване на платформи за обработка на данни за решения за големи данни.
До края на това обучение участниците ще могат да:
- Реализират архитектура на данни за обработка на големи данни.
- Развиват кластерна инфраструктура с Apache Mesos и Docker.
- Анализират данни с Spark и Scala.
- Управляват неуредени данни с Apache Cassandra.
Основи на Apache Spark
21 часаТова обучение, водено от инструктор (в реално време или на място), е насочено към инженери, които искат да конфигурират и внедрят системата Apache Spark за обработка на много големи данни.
По завершването на това обучение участниците ще могат:
- Инсталират и конфигурират Apache Spark.
- Бързо обработват и анализират много големи данни.
- Разберат разликата между Apache Spark и Hadoop MapReduce, както и кога да използват всяка от тях.
- Интегрират Apache Spark с други инструменти за машинно учене.
Управление на Apache Spark
35 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към начинаещи до системни администратори на средно ниво, които желаят да разположат, поддържат и оптимизират клъстери на Spark.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Spark в различни среди.
- Управлявайте ресурсите на клъстера и наблюдавайте приложенията на Spark.
- Оптимизирайте производителността на клъстерите Spark.
- Приложете мерки за сигурност и осигурете висока наличност.
- Отстраняване на грешки и отстраняване на често срещани проблеми със Spark.
Апаче Спарк в Облака
21 часаКривата на обучение на Apache Spark бавно се увеличава в началото, необходими са много усилия, за да се получи първата възвръщаемост. Този курс има за цел да премине през първата трудна част. След преминаването на този курс участниците ще разберат основите на Apache Spark, ще разграничат ясно RDD от DataFrame, ще научат Python и Scala API, ще разберат изпълнителите и задачите и т.н. Следвайки най-добрите практики, този курс силно се фокусира върху внедряването в облак, Databricks и AWS. Студентите също ще разберат разликите между AWS EMR и AWS Glue, една от най-новите услуги на Spark на AWS.
ПУБЛИКА:
Инженер по данни, DevOps, Учен по данни
Spark за разработчици
21 часаОБЕКТИВЕН:
Този курс ще представи Apache Spark. Студентите ще научат как Spark се вписва в екосистемата на Big Data и как да използват Spark за анализ на данни. Курсът обхваща обвивка на Spark за интерактивен анализ на данни, вътрешни елементи на Spark, API на Spark, Spark SQL, поточно предаване на Spark и машинно обучение и graphX.
ПУБЛИКА :
Разработчици / анализатори на данни
Мащабиране на данни пиплайни с Spark NLP
14 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към учени и разработчици на данни, които желаят да използват Spark NLP, изграден върху Apache Spark, за разработване, внедряване и мащабиране на обработка на текст на естествен език модели и тръбопроводи.
До края на това обучение участниците ще могат:
- Настройте необходимата среда за разработка, за да започнете изграждането на NLP тръбопроводи с Spark NLP.
- Разберете характеристиките, архитектурата и ползите от използването на Spark NLP.
- Използвайте предварително обучените модели, налични в Spark NLP, за да реализирате обработка на текст.
- Научете как да създавате, обучавате и мащабирате Spark NLP модели за проекти от производствен клас.
- Прилагайте класификация, изводи и анализ на настроенията върху случаи на употреба в реалния свят (клинични данни, прозрения за поведението на клиентите и т.н.).
Python and Spark за големи данни (PySpark)
21 часаВ това водено от инструктор обучение на живо в България участниците ще се научат как да използват Python и Spark заедно, за да анализират големи данни, докато работят върху практически упражнения.
До края на това обучение участниците ще могат:
- Научете как да използвате Spark с Python за анализ на Big Data.
- Работете върху упражнения, които имитират случаи от реалния свят.
- Използвайте различни инструменти и техники за анализ на големи данни, използвайки PySpark.
Python, Spark, and Hadoop за Биг Дата
21 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към разработчици, които желаят да използват и интегрират Spark, Hadoop и Python за обработка, анализиране и трансформиране на големи и сложни масиви от данни.
До края на това обучение участниците ще могат:
- Настройте необходимата среда, за да започнете да обработвате големи данни със Spark, Hadoop и Python.
- Разберете характеристиките, основните компоненти и архитектурата на Spark и Hadoop.
- Научете как да интегрирате Spark, Hadoop и Python за обработка на големи данни.
- Разгледайте инструментите в екосистемата на Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume).
- Изградете системи за препоръки за съвместно филтриране, подобни на Netflix, YouTube, Amazon, Spotify и Google.
- Използвайте Apache Mahout за мащабиране на алгоритми за машинно обучение.
Apache Spark SQL
7 часаSpark SQL е модулът на Apache Spark за работа с структурирани и неструктурирани данни. Spark SQL предоставя информация за структурата на данните, както и за извършваното изчисление. Тази информация може да бъде използвана за оптимизация. Две общи сценария за употреба на Spark SQL са:
- изпълнение на SQL заявки.
- четене на данни от съществуваща инсталация на Hive.
В този воден от инструктор обучаващ курс (на място или онлайн), участниците ще научат как да анализират различни типове набори от данни, използвайки Spark SQL.
По завършването на този курс, участниците ще могат:
- Да инсталират и конфигурират Spark SQL.
- Да анализират данни с използване на Spark SQL.
- Да извършват заявки към набори от данни в различни формати.
- Да визуализират данните и резултатите от заявките.
Формат на курса
- Интерактивно предаване с дискусия.
- Много упражнения и практика.
- Приложение в реална лабораторна среда.
Опции за персонализиране на курса
- За да поискате персонализирано обучение за този курс, моля, свържете се с нас, за да организираме.
Stratio: Модули Rocket и Intelligence с PySpark
14 часаStratio е платформа, насочена към данни, която интегрира големи данни, ИИ и управление в едно решение. Нейните модули Rocket и Intelligence подпомагат бързото разглеждане на данни, трансформацията и напредналата аналитика в предприемачски среди.
Това обучение под ръководството на инструктор (онлайн или на място) е насочено към средно ниво специалисти по данни, които искат да използват модулите Rocket и Intelligence в Stratio ефективно с PySpark, като фокусират върху циклични структури, потребителски дефинирани функции (UDFs) и напреднала логика на данни.
По края на обучението участниците ще могат да:
- Навигирам и работя в платформата Stratio, използвайки модулите Rocket и Intelligence.
- Применявам PySpark за ингестинг, трансформация и анализ на данни.
- Използвам цикли и условна логика за контрол на рабочите процеси с данни и задачите по извличане на характеристики (feature engineering).
- Създавам и управлявам потребителски дефинирани функции (UDFs) за повторно използване на операции с данни в PySpark.
Формат на курса
- Интерактивно предаване и дискусия.
- Много упражнения и практика.
- Работа в реална лабораторна среда.
Опции за персонализация на курса
- За да заявите персонализирано обучение за този курс, моля свържете се с нас за организиране.