Курс за обучение по Български анализ на големи данни в здравеопазването
Анализът на големи данни включва процеса по разглеждане на голями обеми различни набори от данни с цел откриване на корелации, скрити модели и друга полезна информация.
Индустрията на здравеопазването има масивни обеми сложни иерархични медицински и клинични данни. Применяването на анализ на големи данни върху медизинските данни има голям потенциал за извличане на инсайтове, които могат да улучшат доставянето на медицински услуги. Въпреки това, обемите на тези набори от данни представят големи предизвикателства за анализ и практически приложения в клинична среда.
В този курс под водене на инструктор (удалено), участниците ще научат как да извършват анализ на големи данни в здравеопазването, докато преминават през серия от практически упражнения.
Към края на това обучение участниците ще могат да:
- Инсталират и конфигурират инструменти за анализ на големи данни като Hadoop MapReduce и Spark
- Разбираща се природата на медицинските данни
- Прилагат методи за работа с големи данни за обработване на медицински данни
- Изучават системите и алгоритмите за анализ на големи данни в контекста на здравните приложения
Целева група
- Разработчици
- Аналисти на данни
Формат на курса
- Частично лекция, частично дискусия, упражнения и много практически занятия.
Бележка
- За да поискате персонализирано обучение за този курс, моля се свържете с нас, за да го организираме.
План на курса
Въведение в анализ на големи данни в здравеопазването
Общ преглед на технологии за анализ на големи данни
- Apache Hadoop MapReduce
- Apache Spark
Инсталиране и конфигуриране на Apache Hadoop MapReduce
Инсталиране и конфигуриране на Apache Spark
Ползване на предиктивно моделиране за здравните данни
Ползване на Apache Hadoop MapReduce за здравни данни
Изпълнение на фенотипиране и групиране на здравните данни
- Метрики за оценка на класификацията
- Методи на енсамбли за класификация
Ползване на Apache Spark за здравни данни
Работа с медицинска онтология
Анализ на графи върху здравните данни
Редуциране на размерността на здравните данни
Работа с метрики за подобствие на пациентите
Отстраняване на грешки
Самостойно резюме и заключения
Изисквания
- Разбиране на концепции за машинно обучение и извличане на данни
- Напреднали умения в програмирането (Python, Java, Scala)
- Умения по работа с данни и процесите ETL
Отворените курсове за обучение изискват 5+ участника.
Курс за обучение по Български анализ на големи данни в здравеопазването - Резервация
Курс за обучение по Български анализ на големи данни в здравеопазването - Запитване
Български анализ на големи данни в здравеопазването - Консултантско запитване
Консултантско запитване
Отзиви от потребители (1)
The VM ми хареса много The Teacher беше много компетентен относно темата, както и за други теми, беше много мил и приветлив Михна ми хареса съоръжението в Дубай.
Safar Alqahtani - Elm Information Security
Курс - Big Data Analytics in Health
Машинен превод
Предстоящи Курсове
Свързани Kурсове
Обучение на администратор за Apache Hadoop
35 часаАудитория:
Курсът е предназначен за ИТ специалисти, търсещи решение за съхранение и обработка на големи данни в среда на разпределена система.
Goал:
Дълбоки знания в управление на Hadoop кластери.
Анализ на големи данни с Google Colab и Apache Spark
14 часаТози курс с инструкторско ръководство, провеждан в онлайн или на място, е предназначен за данни научни специалисти и инженери на средно ниво, които искат да използват Google Colab и Apache Spark за обработка и анализ на големи данни.
До края на този курс участниците ще бъдат способни да:
- Настроят среда за големи данни с Google Colab и Spark.
- Обработват и анализират големи набори данни ефективно с Apache Spark.
- Визуализират големи данни в съвместна среда.
- Интегрират Apache Spark с инструменти базирани на облак.
Hadoop администрация
21 часаКурсът е посветен на специалисти по информационни технологии, които търсят решение за съхранение и обработка на големи набори данни в разпределена среда.
Цел на курса:
Придобиване на знания относно управлението на кластери Hadoop
Hadoop и Spark за администратори
35 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към системни администратори, които желаят да научат как да настройват, разгръщат и управляват Hadoop клъстери в своята организация.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Hadoop.
- Разберете четирите основни компонента в екосистемата Hadoop: HDFS, MapReduce, YARN и Hadoop Common.
- Използвайте Hadoop Distributed File System (HDFS), за да мащабирате клъстер до стотици или хиляди възли.
- Настройте HDFS да работи като машина за съхранение за локални внедрявания на Spark.
- Настройте Spark за достъп до алтернативни решения за съхранение като Amazon S3 и NoSQL системи за бази данни като Redis, Elasticsearch, Couchbase, Aerospike и др.
- Извършване на административни задачи като осигуряване, управление, наблюдение и защита на Apache Hadoop клъстер.
Практично въведение в потокова обработка
21 часаВ този курс с инструктор, провеждан на място или онлайн, участниците ще научат как да настроят и интегрират различни фреймворки за обработка на поток от данни с вече съществуващи системи за съхранение на големи данни и свързани приложения за софтуер и микросъобщения.
До края на този курс, участниците ще могат да:
- Инсталират и конфигурират различни фреймворки за обработка на поток от данни, като Spark Streaming и Kafka Streaming.
- Разбират и избират най-подходящия фреймворк за задачата.
- Обработват данните непрекъснато, едновременно и по записи.
- Интегрират решения за обработка на поток от данни с вече съществуващи бази данни, хранилища на данни, езера от данни и т.н.
- Интегрират най-подходящата библиотека за обработка на поток от данни с корпоративни приложения и микросъобщения.
SMACK Stack за Науки за Данни
14 часаТова обучение с инструктор, провеждано на живо (онлайн или на място), е предназначено за специалисти по данни, които искат да използват стека SMACK за създаване на платформи за обработка на данни за решения за големи данни.
До края на това обучение участниците ще могат да:
- Реализират архитектура на данни за обработка на големи данни.
- Развиват кластерна инфраструктура с Apache Mesos и Docker.
- Анализират данни с Spark и Scala.
- Управляват неуредени данни с Apache Cassandra.
Fundamentals of Apache Spark
21 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към инженери, които желаят да настроят и внедрят Apache Spark система за обработка на много големи количества данни.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Spark.
- Бързо обработвайте и анализирайте много големи набори от данни.
- Разберете разликата между Apache Spark и Hadoop MapReduce и кога да използвате кое.
- Интегрирайте Apache Spark с други инструменти за машинно обучение.
Управление на Apache Spark
35 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към начинаещи до системни администратори на средно ниво, които желаят да разположат, поддържат и оптимизират клъстери на Spark.
До края на това обучение участниците ще могат:
- Инсталирайте и конфигурирайте Apache Spark в различни среди.
- Управлявайте ресурсите на клъстера и наблюдавайте приложенията на Spark.
- Оптимизирайте производителността на клъстерите Spark.
- Приложете мерки за сигурност и осигурете висока наличност.
- Отстраняване на грешки и отстраняване на често срещани проблеми със Spark.
Апаче Спарк в Облака
21 часаКривата на обучение на Apache Spark бавно се увеличава в началото, необходими са много усилия, за да се получи първата възвръщаемост. Този курс има за цел да премине през първата трудна част. След преминаването на този курс участниците ще разберат основите на Apache Spark, ще разграничат ясно RDD от DataFrame, ще научат Python и Scala API, ще разберат изпълнителите и задачите и т.н. Следвайки най-добрите практики, този курс силно се фокусира върху внедряването в облак, Databricks и AWS. Студентите също ще разберат разликите между AWS EMR и AWS Glue, една от най-новите услуги на Spark на AWS.
ПУБЛИКА:
Инженер по данни, DevOps, Учен по данни
Spark за разработчици
21 часаОБЕКТИВЕН:
Този курс ще представи Apache Spark. Студентите ще научат как Spark се вписва в екосистемата на Big Data и как да използват Spark за анализ на данни. Курсът обхваща обвивка на Spark за интерактивен анализ на данни, вътрешни елементи на Spark, API на Spark, Spark SQL, поточно предаване на Spark и машинно обучение и graphX.
ПУБЛИКА :
Разработчици / анализатори на данни
Мащабиране на данни пиплайни с Spark NLP
14 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към учени и разработчици на данни, които желаят да използват Spark NLP, изграден върху Apache Spark, за разработване, внедряване и мащабиране на обработка на текст на естествен език модели и тръбопроводи.
До края на това обучение участниците ще могат:
- Настройте необходимата среда за разработка, за да започнете изграждането на NLP тръбопроводи с Spark NLP.
- Разберете характеристиките, архитектурата и ползите от използването на Spark NLP.
- Използвайте предварително обучените модели, налични в Spark NLP, за да реализирате обработка на текст.
- Научете как да създавате, обучавате и мащабирате Spark NLP модели за проекти от производствен клас.
- Прилагайте класификация, изводи и анализ на настроенията върху случаи на употреба в реалния свят (клинични данни, прозрения за поведението на клиентите и т.н.).
Python and Spark за големи данни (PySpark)
21 часаВ това водено от инструктор обучение на живо в България участниците ще се научат как да използват Python и Spark заедно, за да анализират големи данни, докато работят върху практически упражнения.
До края на това обучение участниците ще могат:
- Научете как да използвате Spark с Python за анализ на Big Data.
- Работете върху упражнения, които имитират случаи от реалния свят.
- Използвайте различни инструменти и техники за анализ на големи данни, използвайки PySpark.
Python, Spark, and Hadoop за Биг Дата
21 часаТова водено от инструктор обучение на живо в България (онлайн или на място) е насочено към разработчици, които желаят да използват и интегрират Spark, Hadoop и Python за обработка, анализиране и трансформиране на големи и сложни масиви от данни.
До края на това обучение участниците ще могат:
- Настройте необходимата среда, за да започнете да обработвате големи данни със Spark, Hadoop и Python.
- Разберете характеристиките, основните компоненти и архитектурата на Spark и Hadoop.
- Научете как да интегрирате Spark, Hadoop и Python за обработка на големи данни.
- Разгледайте инструментите в екосистемата на Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume).
- Изградете системи за препоръки за съвместно филтриране, подобни на Netflix, YouTube, Amazon, Spotify и Google.
- Използвайте Apache Mahout за мащабиране на алгоритми за машинно обучение.
Апаче Спарк SQL
7 часаSpark SQL е модулът на Apache Spark за работа с структурирани и неструктурирани данни. Spark SQL предоставя информация за структурата на данните, както и за извършванията изчисления. Тази информация може да се използва за оптимизации. Двете най-често използвани приложения на Spark SQL са:
- извършване на SQL запрашивания.
- четене на данни от съществуваща Hive инсталация.
В този курс с инструктор (на място или онлайн), участниците ще научат как да анализират различни видове набори от данни, използвайки Spark SQL.
До края на този курс участниците ще могат да:
- Инсталират и конфигурират Spark SQL.
- Извършват анализ на данни с Spark SQL.
- Запрашват набори от данни в различни формати.
- Визуализират данни и резултати от запрашивания.
Формат на курса
- Интерактивна лекция и дискусия.
- Много упражнения и практика.
- Практическа имплементация в живе лабораторно средище.
Опции за персонализиране на курса
- За да попитате персонализиран тренинг за този курс, моля, свържете се с нас, за да уредим.
Stratio: Rocket и Intelligence модули с PySpark
14 часаStratio е платформа, ориентирана към данни, която интегрира големи данни, ИИ и управление в едно решение. Нейните модули Rocket и Intelligence позволяват бързо изследване на данни, трансформация и напреднати анализи в корпоративни среди.
Това обучение, водено от инструктор (онлайн или на място), е предназначено за професионалисти на данни с средно ниво, които искат да използват модулите Rocket и Intelligence в Stratio ефективно с PySpark, със фокус върху циклични структури, потребителски определени функции и напреднати данни логики.
До края на това обучение участниците ще могат да:
- Навигация и работа с платформата Stratio с модулите Rocket и Intelligence.
- Прилагане на PySpark в контекста на взимане, трансформация и анализ на данни.
- Използване на цикъл и условна логика за контрол на работните процеси на данни и задачи за инженеринг на характеристики.
- Създаване и управление на потребителски определени функции (UDFs) за повтарящи се операции с данни в PySpark.
Формат на курса
- Интерактивни лекции и дискусии.
- Много упражнения и практика.
- Практически имплементации в среда на живо лаборатория.
Опции за персонализация на курса
- За да поискате персонализирано обучение за този курс, моля свържете се с нас, за да организирате.