Добавить в календарь 18.02.2020 08:30 18.02.2020 17:30 Europe/Moscow HIVE: Hadoop SQL Hive администратор

18 февраля 2020 года в Москве состоится 1-дневный практический тренинг по настройке доступа к большим данных в распределенноq файловой системе HDFS ( платформа Hadoop) с помощью интерфейса Hadoop SQL Hive.

Рассматриваются аспекты SQL доступа к не структурированным данным с использованием Apache Hive, Cloudera Impala, курс по Apache HBase,  Spark SQL, использование и оптимизация запросов операций JOIN и SELECT< оптимизация доступа с помощью партиций и buckets.

Аудитория: Cпециалисты SQL имеющие и желающие применить опыт работы с реляционными базами данных  для организации хранения, настройке импорта и экспорта данных с использованием Apache Hive  в кластере Hadoop.

Предварительный уровень подготовки:

  1. Начальный опыт работы в Unix
  2. Начальный опыт работы с SQL

Продолжительность: 1 день, 8 академических часов.

Практический курс для администраторов и разработчиков для Apache Hive. Рассматриваются методы доступа к данным с использованием HiveQL, загрузка и выгрузка данных в Hive, HDFS, реляционные БД  и NoSQL, организация и оптимизация хранения данных с использованием Hive на HDFS, вопросы интеграции с другими инструментами экосистемы Hadoop.   Практические занятия выполняются в  AWS и локальной кластерной системе с использованием дистрибутивов  ClouderaHadoop, HortonWorks, Arenadata.

Соотношение теории к практике 40/60

Москва, ул.Илимская 5/2

HIVE: Hadoop SQL Hive администратор

Дата проведения: 18.02.2020. Начало в 08:30

Место проведения: Москва , ул.Илимская 5/2

Стоимость: 18000 р.

Организатор: Школа больших данных
Будь в курсе всех мероприятий по теме Big Data
  • Анонс
  • Программа
  • Участники
  • Спикеры

18 февраля 2020 года в Москве состоится 1-дневный практический тренинг по настройке доступа к большим данных в распределенноq файловой системе HDFS ( платформа Hadoop) с помощью интерфейса Hadoop SQL Hive.

Рассматриваются аспекты SQL доступа к не структурированным данным с использованием Apache Hive, Cloudera Impala, курс по Apache HBase,  Spark SQL, использование и оптимизация запросов операций JOIN и SELECT< оптимизация доступа с помощью партиций и buckets.

Аудитория: Cпециалисты SQL имеющие и желающие применить опыт работы с реляционными базами данных  для организации хранения, настройке импорта и экспорта данных с использованием Apache Hive  в кластере Hadoop.

Предварительный уровень подготовки:

  1. Начальный опыт работы в Unix
  2. Начальный опыт работы с SQL

Продолжительность: 1 день, 8 академических часов.

Практический курс для администраторов и разработчиков для Apache Hive. Рассматриваются методы доступа к данным с использованием HiveQL, загрузка и выгрузка данных в Hive, HDFS, реляционные БД  и NoSQL, организация и оптимизация хранения данных с использованием Hive на HDFS, вопросы интеграции с другими инструментами экосистемы Hadoop.   Практические занятия выполняются в  AWS и локальной кластерной системе с использованием дистрибутивов  ClouderaHadoop, HortonWorks, Arenadata.

Соотношение теории к практике 40/60