Как на Spark Structured Streaming работать с данными в HDFS и Kafka? // Курс «Spark Developer»
Этапом, следующим за пониманием принципов батч-обработки в Spark, является изучение концепций streaming API, позволяющим в режиме, приближенном к реальному времени, обрабатывать данные из разных источников.
В ходе вебинара Вы узнаете:
⁃ Какие источники данных могут быть обработаны стриминговым API Spark (Рассмотрим конкретные примеры с данными на HDFS и Kafka).
⁃ Как осуществить подключение к таким источникам
⁃ Как группировать данные
Кому подходит урок:
⁃ Начинающим и специалистам в области аналитики данных, Data Engeneering
Результат урока:
⁃ Понимание концепции возможностей Streaming API Spark
⁃ Умение подключаться к источникам данных и работа в режиме, приближенном к реальному времени.
«Spark Developer» - https://otus.pw/SeYy/
Преподаватель: Андрей Чучалов - старший разработчик службы больших данных в "Вымпелком - информационные технологии"
Пройдите опрос по итогам мероприятия - https://otus.pw/Yrp4/
Следите за новостями проекта:
- Telegram: https://t.me/Otusjava
- ВКонтакте: https://otus.pw/850t
- LinkedIn: https://otus.pw/yQwQ/
- Хабр: https://otus.pw/S0nM/