#вакансия #lead #DataEngineer #DWH #hadoop #spark #airflow #clickhouse #SODA #remote
Ищу к себе в команду DWH в AliExpress Lead Data Engineer
Стек: Hadoop, Spark, Airflow, ClickHouse, SODA (DQ).
Удаленка, возможность оформления вне РФ.
Зона ответственности команды DWH - качественные и своевременные данные в удобном для аналитики виде. За платформу данных и подключение источников к озеру данных отвечает отдельная платформенная команда. Объемы данных в компании исчисляются петабайтами.
Чем предстоит заниматься:
- Оптимизация производительности сложных процессов загрузки данных (Spark);
- Развитие используемых в команде практик и подходов (доработки CI/CD, мониторингов, внутренних библиотек)
- Разработка NRT пайплайнов (Kafka, Spark Structured Streaming, CH);
- Разработка витрин данных (Spark);
- Менторинг разработчиков и контроль за соблюдением стандартов.
Мы ожидаем от Вас:
- Опыт работы со Spark и глубокое понимание его устройства;
- Опыт работы с Python или Java от 3-х лет;
- Опыт работы c ClickHouse;
- Опыт написания дата пайплайнов, опыт работы с Airflow;
- Понимание подходов к организации разработки (CI/CD, DevOps).
Будет плюсом:
- Опыт разработки потоковой обработки данных;
- Опыт работы с форматом iceberg;
- Опыт управления небольшой командой.
По вопросам и с резюме: @shh1_01
Ищу к себе в команду DWH в AliExpress Lead Data Engineer
Стек: Hadoop, Spark, Airflow, ClickHouse, SODA (DQ).
Удаленка, возможность оформления вне РФ.
Зона ответственности команды DWH - качественные и своевременные данные в удобном для аналитики виде. За платформу данных и подключение источников к озеру данных отвечает отдельная платформенная команда. Объемы данных в компании исчисляются петабайтами.
Чем предстоит заниматься:
- Оптимизация производительности сложных процессов загрузки данных (Spark);
- Развитие используемых в команде практик и подходов (доработки CI/CD, мониторингов, внутренних библиотек)
- Разработка NRT пайплайнов (Kafka, Spark Structured Streaming, CH);
- Разработка витрин данных (Spark);
- Менторинг разработчиков и контроль за соблюдением стандартов.
Мы ожидаем от Вас:
- Опыт работы со Spark и глубокое понимание его устройства;
- Опыт работы с Python или Java от 3-х лет;
- Опыт работы c ClickHouse;
- Опыт написания дата пайплайнов, опыт работы с Airflow;
- Понимание подходов к организации разработки (CI/CD, DevOps).
Будет плюсом:
- Опыт разработки потоковой обработки данных;
- Опыт работы с форматом iceberg;
- Опыт управления небольшой командой.
По вопросам и с резюме: @shh1_01
Аналитик DWH
Грейд: Middle
Название компании: Itvolna tech
Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: БОПОС
Зарплата: 302 000 гросс
Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.
Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.
Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.
Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.
Контактные данные: 📱@alarionova_volna
#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
Грейд: Middle
Название компании: Itvolna tech
Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы
Тема проекта: БОПОС
Зарплата: 302 000 гросс
Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.
Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.
Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.
Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.
Контактные данные: 📱@alarionova_volna
#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
#вакансия #DE #dataengineer #DWH #pandas #clickhouse #SQL #BigQuery #AirFlow #DBT #parttime #fulltime #remote
Всем привет!
Ищу к себе в команду middle/senior-специалиста по data-инжинирингу.
Я аналитик, строю аналитические DWH для бизнеса, внедряю сквозную аналитику и создаю дашборды (подробнее в лс).
У меня небольшая команда - один специалист на full-time и несколько на фри-лансе.
Объем работы по клиентам растет, поэтому ищу еще одного специалиста на part/full-time (от 20 ч в неделю).
Необходимый стек:
- минимум Python (ООП, Pandas), AirFlow
- желательный Python (ООП, Pandas), SQL (ClickHouse/Google BigQuery), AirFlow, DBT
Оплата сдельная - от 80 тыс. руб.
Формат работы: удаленно
Для связи: @isrustam
Всем привет!
Ищу к себе в команду middle/senior-специалиста по data-инжинирингу.
Я аналитик, строю аналитические DWH для бизнеса, внедряю сквозную аналитику и создаю дашборды (подробнее в лс).
У меня небольшая команда - один специалист на full-time и несколько на фри-лансе.
Объем работы по клиентам растет, поэтому ищу еще одного специалиста на part/full-time (от 20 ч в неделю).
Необходимый стек:
- минимум Python (ООП, Pandas), AirFlow
- желательный Python (ООП, Pandas), SQL (ClickHouse/Google BigQuery), AirFlow, DBT
Оплата сдельная - от 80 тыс. руб.
Формат работы: удаленно
Для связи: @isrustam
#вакансия #удаленно #dwh #teradata #informatica #middle
🚀 Middle DWH Developer (Teradata, Informatica Power Center)
💰 ЗП 230-270 тыс. ₽ (ИП)
🌍 Удаленно по РФ, часовой пояс МСК ±2
📅 Полная занятость
🔥 Ищем разработчика для развития и доработки корпоративного хранилища данных (КХД) на Teradata. Если ты знаешь, как работать с большими объемами данных, умеешь писать эффективные SQL-запросы и разбираешься в ETL на Informatica Power Center — welcome!
Что делать:
🔹 Разрабатывать и оптимизировать процессы ETL/ELT на Informatica Power Center
🔹 Проектировать физические модели данных, витрины, алгоритмы загрузки
🔹 Оптимизировать SQL-запросы и работать с данными объемом >1 млрд записей
🔹 Автоматизировать процессы обработки данных в КХД Teradata
🔹 Документировать архитектуру и алгоритмы хранилища
Что нужно знать:
✅ Teradata — проектирование, оптимизация, индексы, партиции
✅ Informatica Power Center — минимум 3 года практики
✅ SQL — сложные выборки, процедуры, оптимизация
✅ MPP-архитектура и распределение данных
✅ Опыт реверс-инжиниринга и работы с чужим кодом
Будет плюсом:
🔹 Опыт работы с Apache Kafka
🔹 Навыки CI/CD (Jira, Confluence, Git, Jenkins)
👉🏻 Если интересно, пиши в Telegram: @Lena_Bekhtereva
🚀 Middle DWH Developer (Teradata, Informatica Power Center)
💰 ЗП 230-270 тыс. ₽ (ИП)
🌍 Удаленно по РФ, часовой пояс МСК ±2
📅 Полная занятость
🔥 Ищем разработчика для развития и доработки корпоративного хранилища данных (КХД) на Teradata. Если ты знаешь, как работать с большими объемами данных, умеешь писать эффективные SQL-запросы и разбираешься в ETL на Informatica Power Center — welcome!
Что делать:
🔹 Разрабатывать и оптимизировать процессы ETL/ELT на Informatica Power Center
🔹 Проектировать физические модели данных, витрины, алгоритмы загрузки
🔹 Оптимизировать SQL-запросы и работать с данными объемом >1 млрд записей
🔹 Автоматизировать процессы обработки данных в КХД Teradata
🔹 Документировать архитектуру и алгоритмы хранилища
Что нужно знать:
✅ Teradata — проектирование, оптимизация, индексы, партиции
✅ Informatica Power Center — минимум 3 года практики
✅ SQL — сложные выборки, процедуры, оптимизация
✅ MPP-архитектура и распределение данных
✅ Опыт реверс-инжиниринга и работы с чужим кодом
Будет плюсом:
🔹 Опыт работы с Apache Kafka
🔹 Навыки CI/CD (Jira, Confluence, Git, Jenkins)
👉🏻 Если интересно, пиши в Telegram: @Lena_Bekhtereva
#вакансия #офис #СПб #DWH
🔵Привет!
Мы – «BI Consult», аккредитованное IT с 15-ти летним бэкграундом. Специализируемся на построении DWH и интеграции систем BI .
🔵Ищем в команду Архитектора DWH
Формат работы: офис (СПб)
Занятость: полная занятость
🔵Требования:
- Опыт проектирования и построения хранилищ данных
- Знание основных подходов к построению DWH: Кимбалл, Инмон, Data Vault, Anchor
- Опыт работы с колоночными БД ( Clickhouse, GreenPlum / Arenadata)
- Уверенные навыки работы с системами ETL/ELT
- Понимание низкоуровневого слоя работы СУБД
- Знание лучших практик при построении высоконагруженных хранилищ данных
🔵Чем предстоит заниматься:
- Разработка архитектуры хранилищ данных (ODS/DDS/Datamart)
- Проектирование процессов доставки данных из систем источников в хранилище (ETL/ELT)
- Разработка подходов к реализации первичного и регулярного обновления данных
- Обеспечение процессов мониторинга и контроля хранилища данных
- Оптимизация методов хранения и обработки данных в высоконагруженных хранилищах
- При желании - совместная работа с Team Lead по вопросам плана развития команды, внедрения новых технологий
🔵От нас:
- Официальное оформление по ТК, белая зарплата
- Широкий спектр современных технологий и известных заказчиков
- Бесплатные сертификации от вендоров и курсы нашего Учебного центра
- Плавный онбординг, помощь от коллег
- ДМС (пакет "комфорт +")
- Корпоративный спорт и йога
- Множество внерабочих активностей
ЗП: от 300К в зависимости от опыта
Ищем сотрудника в офис, начало рабочего дня с 8:00 до 11:00
Контакт: @itrecruteva
🔵Привет!
Мы – «BI Consult», аккредитованное IT с 15-ти летним бэкграундом. Специализируемся на построении DWH и интеграции систем BI .
🔵Ищем в команду Архитектора DWH
Формат работы: офис (СПб)
Занятость: полная занятость
🔵Требования:
- Опыт проектирования и построения хранилищ данных
- Знание основных подходов к построению DWH: Кимбалл, Инмон, Data Vault, Anchor
- Опыт работы с колоночными БД ( Clickhouse, GreenPlum / Arenadata)
- Уверенные навыки работы с системами ETL/ELT
- Понимание низкоуровневого слоя работы СУБД
- Знание лучших практик при построении высоконагруженных хранилищ данных
🔵Чем предстоит заниматься:
- Разработка архитектуры хранилищ данных (ODS/DDS/Datamart)
- Проектирование процессов доставки данных из систем источников в хранилище (ETL/ELT)
- Разработка подходов к реализации первичного и регулярного обновления данных
- Обеспечение процессов мониторинга и контроля хранилища данных
- Оптимизация методов хранения и обработки данных в высоконагруженных хранилищах
- При желании - совместная работа с Team Lead по вопросам плана развития команды, внедрения новых технологий
🔵От нас:
- Официальное оформление по ТК, белая зарплата
- Широкий спектр современных технологий и известных заказчиков
- Бесплатные сертификации от вендоров и курсы нашего Учебного центра
- Плавный онбординг, помощь от коллег
- ДМС (пакет "комфорт +")
- Корпоративный спорт и йога
- Множество внерабочих активностей
ЗП: от 300К в зависимости от опыта
Ищем сотрудника в офис, начало рабочего дня с 8:00 до 11:00
Контакт: @itrecruteva
#вакансия #аналитик #dwh #senior #fulltime #remote
Вакансия: Аналитик DWH
Компания: Ekleft (финтех)
Уровень: Senior
Вилка: от 300к до 430к на руки
Оформление: ТК / ИП
📌 О проекте:
В рамках перехода на новое хранилище данных формируются команды для миграции и развития отчетности бизнес-подразделений.
📌 Наш стек:
- Hadoop, GreenPlum;
- Airflow, Spark, Kafka;
- ClickHouse, Superset, FineBI;
📌 Что тебя ждет:
- Анализ имеющегося функционала хранилища данных для целей миграции бизнес-процессов;
- Анализ новых требований от заказчиков по задачам развития отчетности;
- Реализация изменений и тестирование на стороне DWH;
- Взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- Написание технических задач для развития детального и витринного уровней DWH;
- Анализ и контроль качества загрузки данных в DWH
- Описание логической и физической модели DWH и сопровождение документации в части хранилища данных;
📌 Мы ждем от тебя:
- Высшее образование (техническая специализация будет плюсом);
- Опыт работы с хранилищами данных от 3 лет;
- Опыт работы в банке обязателен;
- Понимание жизненного цикла работы с задачей, ETL-процессов
📌 Как преимущество:
- Понимание процессов взаимодействия с БКИ
- Понимание процессов и отчетности бэк-офиса
- Понимание процессов и отчетности риск-подразделения
- Понимание процессов и отчетности розничного бизнеса
☎️ Контакты: @AnyaSechkova
Вакансия: Аналитик DWH
Компания: Ekleft (финтех)
Уровень: Senior
Вилка: от 300к до 430к на руки
Оформление: ТК / ИП
В рамках перехода на новое хранилище данных формируются команды для миграции и развития отчетности бизнес-подразделений.
- Hadoop, GreenPlum;
- Airflow, Spark, Kafka;
- ClickHouse, Superset, FineBI;
- Анализ имеющегося функционала хранилища данных для целей миграции бизнес-процессов;
- Анализ новых требований от заказчиков по задачам развития отчетности;
- Реализация изменений и тестирование на стороне DWH;
- Взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- Написание технических задач для развития детального и витринного уровней DWH;
- Анализ и контроль качества загрузки данных в DWH
- Описание логической и физической модели DWH и сопровождение документации в части хранилища данных;
- Высшее образование (техническая специализация будет плюсом);
- Опыт работы с хранилищами данных от 3 лет;
- Опыт работы в банке обязателен;
- Понимание жизненного цикла работы с задачей, ETL-процессов
- Понимание процессов взаимодействия с БКИ
- Понимание процессов и отчетности бэк-офиса
- Понимание процессов и отчетности риск-подразделения
- Понимание процессов и отчетности розничного бизнеса
Please open Telegram to view this post
VIEW IN TELEGRAM