18 февраля 2020 года в Москве состоится 1-дневный практический тренинг по настройке доступа к большим данных в распределенноq файловой системе HDFS ( платформа Hadoop) с помощью интерфейса Hadoop SQL Hive.
Рассматриваются аспекты SQL доступа к не структурированным данным с использованием Apache Hive, Cloudera Impala, курс по Apache HBase, Spark SQL, использование и оптимизация запросов операций JOIN и SELECT< оптимизация доступа с помощью партиций и buckets.
Аудитория: Cпециалисты SQL имеющие и желающие применить опыт работы с реляционными базами данных для организации хранения, настройке импорта и экспорта данных с использованием Apache Hive в кластере Hadoop.
Предварительный уровень подготовки:
- Начальный опыт работы в Unix
- Начальный опыт работы с SQL
Продолжительность: 1 день, 8 академических часов.
Практический курс для администраторов и разработчиков для Apache Hive. Рассматриваются методы доступа к данным с использованием HiveQL, загрузка и выгрузка данных в Hive, HDFS, реляционные БД и NoSQL, организация и оптимизация хранения данных с использованием Hive на HDFS, вопросы интеграции с другими инструментами экосистемы Hadoop. Практические занятия выполняются в AWS и локальной кластерной системе с использованием дистрибутивов ClouderaHadoop, HortonWorks, Arenadata.
Соотношение теории к практике 40/60
Москва, ул.Илимская 5/2HIVE: Hadoop SQL Hive администратор
Дата проведения: 18.02.2020. Начало в 08:30
Место проведения: Москва , ул.Илимская 5/2
Стоимость: 18000 р.
- Анонс
- Программа
- Участники
- Спикеры
18 февраля 2020 года в Москве состоится 1-дневный практический тренинг по настройке доступа к большим данных в распределенноq файловой системе HDFS ( платформа Hadoop) с помощью интерфейса Hadoop SQL Hive.
Рассматриваются аспекты SQL доступа к не структурированным данным с использованием Apache Hive, Cloudera Impala, курс по Apache HBase, Spark SQL, использование и оптимизация запросов операций JOIN и SELECT< оптимизация доступа с помощью партиций и buckets.
Аудитория: Cпециалисты SQL имеющие и желающие применить опыт работы с реляционными базами данных для организации хранения, настройке импорта и экспорта данных с использованием Apache Hive в кластере Hadoop.
Предварительный уровень подготовки:
- Начальный опыт работы в Unix
- Начальный опыт работы с SQL
Продолжительность: 1 день, 8 академических часов.
Практический курс для администраторов и разработчиков для Apache Hive. Рассматриваются методы доступа к данным с использованием HiveQL, загрузка и выгрузка данных в Hive, HDFS, реляционные БД и NoSQL, организация и оптимизация хранения данных с использованием Hive на HDFS, вопросы интеграции с другими инструментами экосистемы Hadoop. Практические занятия выполняются в AWS и локальной кластерной системе с использованием дистрибутивов ClouderaHadoop, HortonWorks, Arenadata.
Соотношение теории к практике 40/60