Добавить в календарь 02.12.2019 10:00 02.12.2019 18:00 Europe/Moscow HDDE: Hadoop для инженеров данных

5-дневный практический тренинг по настройке batch/streaming потоков данных средствами Apache Spark, Flume, Kafka, sqoop, Hive для организации озера данных (Data Lake) на кластере Hadoop и процессов ETL/ELT состоится 2-6 декабря 2019 года.

Аудитория: Специалисты по работе с большими данными, ответственные за настройку и сопровождение ввода данных в Data Lake, а также желающие получить теоретические знания и практические навыки по подготовке больших данных, специфике использования процессов ETL/ELT в кластерах Hadoop, и организации pipelines в Hadoop, Batch, stream и real—time процессинга больших данных с использованием компонентов экосистемы Hadoop.

Предварительный уровень подготовки:

  1. Начальный опыт работы в Unix
  2. Начальный опыт работы с SQL

Продолжительность: 5 дней, 40 академических часа.

Данный курс  направлен на формирование практических и теоретических  навыков планирования, формирования и сопровождения Data Lake (озеро данных). Рассматриваются примеры интеграции, настройки и обслуживания «pipelines» — традиционных источников поступления данных (корпоративные базы данных, web-логи, файловые системы, интернет данные, транзакции)  для последующего анализа больших данных. Практические занятия выполняются в  AWS и локальной кластерной системе с использованием дистрибутивов  Cloudera Hadoop и HortonWorks Data Platform.

Соотношение теории к практике 40/60

Москва, ул.Илимская д. 5/2

HDDE: Hadoop для инженеров данных

Дата проведения: 02.12.2019. Начало в 10:00

Место проведения: Москва, ул.Илимская д. 5/2

Стоимость: 90000 р.

Организатор: Школа больших данных
Будь в курсе всех мероприятий по теме Big Data
  • Анонс
  • Программа
  • Участники
  • Спикеры

5-дневный практический тренинг по настройке batch/streaming потоков данных средствами Apache Spark, Flume, Kafka, sqoop, Hive для организации озера данных (Data Lake) на кластере Hadoop и процессов ETL/ELT состоится 2-6 декабря 2019 года.

Аудитория: Специалисты по работе с большими данными, ответственные за настройку и сопровождение ввода данных в Data Lake, а также желающие получить теоретические знания и практические навыки по подготовке больших данных, специфике использования процессов ETL/ELT в кластерах Hadoop, и организации pipelines в Hadoop, Batch, stream и real—time процессинга больших данных с использованием компонентов экосистемы Hadoop.

Предварительный уровень подготовки:

  1. Начальный опыт работы в Unix
  2. Начальный опыт работы с SQL

Продолжительность: 5 дней, 40 академических часа.

Данный курс  направлен на формирование практических и теоретических  навыков планирования, формирования и сопровождения Data Lake (озеро данных). Рассматриваются примеры интеграции, настройки и обслуживания «pipelines» — традиционных источников поступления данных (корпоративные базы данных, web-логи, файловые системы, интернет данные, транзакции)  для последующего анализа больших данных. Практические занятия выполняются в  AWS и локальной кластерной системе с использованием дистрибутивов  Cloudera Hadoop и HortonWorks Data Platform.

Соотношение теории к практике 40/60