#вакансия #teamlead #DWH #architecture #Datalake
Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒
🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.
🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.
💻Чем предстоит заниматься:
- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).
🛠Стек:
SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.
💪 Мы ждем, что у тебя есть:
- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).
🦾 Что требуется дополнительно:
- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.
Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏
Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒
🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.
🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.
💻Чем предстоит заниматься:
- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).
🛠Стек:
SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.
💪 Мы ждем, что у тебя есть:
- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).
🦾 Что требуется дополнительно:
- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.
Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏
#вакансия #Москва #dataengineer #data #DWH #SQL #ETL #удаленка #гибрид
Всем привет!
💼Компания: JSA-Group - IT-компания.
Разрабатываем, внедряем софт и оказываем поддержку нашим заказчикам в горно-металлургической и телеком отраслях.
Делаем порядка двухсот проектов в год, такие как web, мобильная разработка, BI, VR, Data Science и другие.
Ищем в свою команду data engineer для участия в создании корпоративное хранилище данных под ключ для сервисной компании
Оклад до 170 000 - 200 000 нетт
📍Локация: удаленка или работа в офисе по-желанию.
В Москве есть 2 офиса, при желании, можно работать оттуда.
Есть офис в Санкт-Петербурге.
Чем предстоит заниматься?
✔️ На проекте предстоит разрабатывать КХД в команде полного цикла,
✔️ осуществлять интеграцию различных типов источников в КХ,
✔️ разрабатывать и развивать модели данных, отвечающие задачам пользователя,
✔️ автоматизировать потоки данных для пользовательских дашбордов,
✔️ настраивать процессы контроля качества данных.
✅Стек:
Apache Airflow, ETL, SQL, Python, DWH, PostgreSQL.
Команда: 1 Руководитель отдела, 3 Data engineers.
Необходимый опыт:
- аналогичный опыт коммерческой разработки от 3-х лет
- опыт работы с ETL инструментарием на базе Apache Airflow
- уверенное знание SQL
- понимание архитектуры хранилищ данных и принципов оптимизации производительности - запросов
- уверенное знание Python (sqlalchemy, pandas, numpy и т.д)
- навыки интеграции данных API, веб-сервисов, обработки json
- знание ОC Linux (RedHat/CentOs) на уровне опытного пользователя: установка, обновление системы и пакетов, bash
- опыт работы с PostgreSQL будет преимуществом
- опыт работы с BI-инструментами (Power BI, Oracle BI, Tableau и т.д) будет преимуществом
Что мы предлагаем?
- Оклад + годовой бонус
- ДМС со стоматологией (после испытательного срока), полис для выезжающих за рубеж, доплата по больничному листу до 100% оклада.
- Корпоративная мобильная связь, билеты на футбольные матчи, скидки на фитнес.
- Возможность проходить обучение за счет компании, участие во внутренних митапах,
- Гибкое начало рабочего дня;
- Свобода в реализации идей;
- Общение на «ты», никакого дресс-кода и микро-менеджмента.
У нас 1 этап интервью (возможно, + тестовое задание).
✍🏼 Присылайте ваши резюме и\или вопросы на @Nastya_Lukashina
Всем привет!
💼Компания: JSA-Group - IT-компания.
Разрабатываем, внедряем софт и оказываем поддержку нашим заказчикам в горно-металлургической и телеком отраслях.
Делаем порядка двухсот проектов в год, такие как web, мобильная разработка, BI, VR, Data Science и другие.
Ищем в свою команду data engineer для участия в создании корпоративное хранилище данных под ключ для сервисной компании
Оклад до 170 000 - 200 000 нетт
📍Локация: удаленка или работа в офисе по-желанию.
В Москве есть 2 офиса, при желании, можно работать оттуда.
Есть офис в Санкт-Петербурге.
Чем предстоит заниматься?
✔️ На проекте предстоит разрабатывать КХД в команде полного цикла,
✔️ осуществлять интеграцию различных типов источников в КХ,
✔️ разрабатывать и развивать модели данных, отвечающие задачам пользователя,
✔️ автоматизировать потоки данных для пользовательских дашбордов,
✔️ настраивать процессы контроля качества данных.
✅Стек:
Apache Airflow, ETL, SQL, Python, DWH, PostgreSQL.
Команда: 1 Руководитель отдела, 3 Data engineers.
Необходимый опыт:
- аналогичный опыт коммерческой разработки от 3-х лет
- опыт работы с ETL инструментарием на базе Apache Airflow
- уверенное знание SQL
- понимание архитектуры хранилищ данных и принципов оптимизации производительности - запросов
- уверенное знание Python (sqlalchemy, pandas, numpy и т.д)
- навыки интеграции данных API, веб-сервисов, обработки json
- знание ОC Linux (RedHat/CentOs) на уровне опытного пользователя: установка, обновление системы и пакетов, bash
- опыт работы с PostgreSQL будет преимуществом
- опыт работы с BI-инструментами (Power BI, Oracle BI, Tableau и т.д) будет преимуществом
Что мы предлагаем?
- Оклад + годовой бонус
- ДМС со стоматологией (после испытательного срока), полис для выезжающих за рубеж, доплата по больничному листу до 100% оклада.
- Корпоративная мобильная связь, билеты на футбольные матчи, скидки на фитнес.
- Возможность проходить обучение за счет компании, участие во внутренних митапах,
- Гибкое начало рабочего дня;
- Свобода в реализации идей;
- Общение на «ты», никакого дресс-кода и микро-менеджмента.
У нас 1 этап интервью (возможно, + тестовое задание).
✍🏼 Присылайте ваши резюме и\или вопросы на @Nastya_Lukashina