Добавить в календарь 17.02.2020 09:30 17.02.2020 17:30 Europe/Moscow HDDE: Hadoop для инженеров данных

5-дневный практический тренинг по настройке batch/streaming потоков данных средствами Apache Spark, Flume, Kafka, sqoop, Hive для организации озера данных (Data Lake) на кластере Hadoop и процессов ETL/ELT состоится 17-22 февраля 2020 года.

Аудитория: Специалисты по работе с большими данными, ответственные за настройку и сопровождение ввода данных в Data Lake, а также желающие получить теоретические знания и практические навыки по подготовке больших данных, специфике использования процессов ETL/ELT в кластерах Hadoop, и организации pipelines в Hadoop, Batch, stream и real—time процессинга больших данных с использованием компонентов экосистемы Hadoop.

Предварительный уровень подготовки:

  1. Начальный опыт работы в Unix
  2. Начальный опыт работы с SQL

Продолжительность: 5 дней, 40 академических часа.

Данный курс  направлен на формирование практических и теоретических  навыков планирования, формирования и сопровождения Data Lake (озеро данных). Рассматриваются примеры интеграции, настройки и обслуживания «pipelines» — традиционных источников поступления данных (корпоративные базы данных, web-логи, файловые системы, интернет данные, транзакции)  для последующего анализа больших данных. Практические занятия выполняются в  AWS и локальной кластерной системе с использованием дистрибутивов  Cloudera Hadoop и HortonWorks Data Platform.

Соотношение теории к практике 40/60

Москва, ул.Илимская 5/2

HDDE: Hadoop для инженеров данных

Дата проведения: 17.02.2020. Начало в 09:30

Место проведения: Москва , ул.Илимская 5/2

Стоимость: 54000 р.

Организатор: Школа больших данных
Будь в курсе всех мероприятий по теме Big Data
  • Анонс
  • Программа
  • Участники
  • Спикеры

5-дневный практический тренинг по настройке batch/streaming потоков данных средствами Apache Spark, Flume, Kafka, sqoop, Hive для организации озера данных (Data Lake) на кластере Hadoop и процессов ETL/ELT состоится 17-22 февраля 2020 года.

Аудитория: Специалисты по работе с большими данными, ответственные за настройку и сопровождение ввода данных в Data Lake, а также желающие получить теоретические знания и практические навыки по подготовке больших данных, специфике использования процессов ETL/ELT в кластерах Hadoop, и организации pipelines в Hadoop, Batch, stream и real—time процессинга больших данных с использованием компонентов экосистемы Hadoop.

Предварительный уровень подготовки:

  1. Начальный опыт работы в Unix
  2. Начальный опыт работы с SQL

Продолжительность: 5 дней, 40 академических часа.

Данный курс  направлен на формирование практических и теоретических  навыков планирования, формирования и сопровождения Data Lake (озеро данных). Рассматриваются примеры интеграции, настройки и обслуживания «pipelines» — традиционных источников поступления данных (корпоративные базы данных, web-логи, файловые системы, интернет данные, транзакции)  для последующего анализа больших данных. Практические занятия выполняются в  AWS и локальной кластерной системе с использованием дистрибутивов  Cloudera Hadoop и HortonWorks Data Platform.

Соотношение теории к практике 40/60