#вакансия #teamlead #DWH #architecture #Datalake
Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒
🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.
🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.
💻Чем предстоит заниматься:
- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).
🛠Стек:
SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.
💪 Мы ждем, что у тебя есть:
- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).
🦾 Что требуется дополнительно:
- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.
Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏
Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒
🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.
🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.
💻Чем предстоит заниматься:
- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).
🛠Стек:
SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.
💪 Мы ждем, что у тебя есть:
- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).
🦾 Что требуется дополнительно:
- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.
Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏