#вакансия #Data Engineer #bellintegrator #консультант SAP BW
Локация #офис #москва
З/п: до 400 000 Net
График работы 5/2, 10:00-19:00
Контакты @KseniyaBurenichevaHr
🧑🏼💻Bell Integrator - системный интегратор. Ищем кандидата, который работал консультантом BW/ Data Engineer. Нужен опыт работы на SAP BW. База данных HANA📣🔥
📌Проект
Мы развиваем самое современное в РФ хранилище HR данных на платформе SAP BW/4HANA. Оно является центром экосистемы Data Platform, в состав которой входят ClickHouse, GreenPlum, Hadoop.
В качестве источников данных мы используем SAP HCM, SAP ERP, Success Factors, платформы собственной разработки.
Решение интеграционных задач, классических задач по построению DWH и созданию отчетности, задач оптимизации, вот неполный перечень того, над чем предстоит поработать.
📌Основные требования
• Высшее оконченное техническое образование
• Опыт работы от 4-х лет (можно от 2х) в проектах по разработке/модификации/конфигурированию/внедрению ПО с использованием инструментов и технологий SAP BW/BW4HANA/BO/Lumira Designer;
• Опыт разработки с использованием возможностей СУБД HANA;
• Опыт построения аналитической отчетности c помощью инструментов SAP Business Explorer (рабочие книги и знания Excel + VBA), SAP Business Objects
• Знание SQL Script;
• Опционально: опыт интеграции с SAP HCM;
• Знание LSA и LSA++;
• Наличие сертификатов SAP приветствуется;
• Опыт разработки аналитических оперативных отчетов;
• Опыт командной разработки с использованием программных продуктов Confluence и Jira;
• Опыт работы, как в каскадных (waterfall), так и в гибких методологиях (Agile) разработки.
• технический английский
📌Должностные обязанности
• Развитие хранилища данных SAP BW/4HANA в рамках agile-команды для HR-блока ПАО «Сбербанк»;
• Проектирование и моделирование структуры хранилища SAP BW on HANA 7.5 и BW/4HANA;
• Создание процессов загрузки данных;
• Разработка отчетных форм на базе Bex, Web Intelligence;
• Разработки на SQL, ABAP;
• Тестирование разрабатываемого решения;
• Подготовка сопроводительной документации в Confluence, в ходе реализации продукта.
❗️❗️Мы гарантируем:
• Конкурентоспособную заработную плату, все в белую по тк РФ
• Корпоративное обучение и сертификацию в технических и бизнес областях
• Корпоративные развлекательные программы
• Работа в офисе Москва
Локация #офис #москва
З/п: до 400 000 Net
График работы 5/2, 10:00-19:00
Контакты @KseniyaBurenichevaHr
🧑🏼💻Bell Integrator - системный интегратор. Ищем кандидата, который работал консультантом BW/ Data Engineer. Нужен опыт работы на SAP BW. База данных HANA📣🔥
📌Проект
Мы развиваем самое современное в РФ хранилище HR данных на платформе SAP BW/4HANA. Оно является центром экосистемы Data Platform, в состав которой входят ClickHouse, GreenPlum, Hadoop.
В качестве источников данных мы используем SAP HCM, SAP ERP, Success Factors, платформы собственной разработки.
Решение интеграционных задач, классических задач по построению DWH и созданию отчетности, задач оптимизации, вот неполный перечень того, над чем предстоит поработать.
📌Основные требования
• Высшее оконченное техническое образование
• Опыт работы от 4-х лет (можно от 2х) в проектах по разработке/модификации/конфигурированию/внедрению ПО с использованием инструментов и технологий SAP BW/BW4HANA/BO/Lumira Designer;
• Опыт разработки с использованием возможностей СУБД HANA;
• Опыт построения аналитической отчетности c помощью инструментов SAP Business Explorer (рабочие книги и знания Excel + VBA), SAP Business Objects
• Знание SQL Script;
• Опционально: опыт интеграции с SAP HCM;
• Знание LSA и LSA++;
• Наличие сертификатов SAP приветствуется;
• Опыт разработки аналитических оперативных отчетов;
• Опыт командной разработки с использованием программных продуктов Confluence и Jira;
• Опыт работы, как в каскадных (waterfall), так и в гибких методологиях (Agile) разработки.
• технический английский
📌Должностные обязанности
• Развитие хранилища данных SAP BW/4HANA в рамках agile-команды для HR-блока ПАО «Сбербанк»;
• Проектирование и моделирование структуры хранилища SAP BW on HANA 7.5 и BW/4HANA;
• Создание процессов загрузки данных;
• Разработка отчетных форм на базе Bex, Web Intelligence;
• Разработки на SQL, ABAP;
• Тестирование разрабатываемого решения;
• Подготовка сопроводительной документации в Confluence, в ходе реализации продукта.
❗️❗️Мы гарантируем:
• Конкурентоспособную заработную плату, все в белую по тк РФ
• Корпоративное обучение и сертификацию в технических и бизнес областях
• Корпоративные развлекательные программы
• Работа в офисе Москва
#вакансия #data_engineer #инженер_данных #инженер #remote #fulltime #москва
🔍 Data Engineer / Инженер данных в Инновационный центр «Ай-Теко»
⌚️ Полный рабочий день, возможна удалёнка
💵 От 200 тысяч рублей (в зависимости от скиллов)
❓Кто мы?
Мы — ведущий российский системный интегратор и поставщик информационных технологий для корпоративных заказчиков. Активно действует на рынке IT России с 1997 года, входит в ТОП-400 крупнейших российских компаний, ТОП-10 крупнейших IT-компаний России.
❓Наши ожидания от кандидатов:
📎 Высшее техническое образование;
📎 Опыт работы с экосистемой Hadoop в качестве разработчика;
📎 Знание Java, Scala;
📎 Знание apache Spark;
📎 Понимание структур хранения SQL, noSQL;
📎 Хорошее знание SQL;
📎 Опыт разработки инструментов для автоматизации процессов обработки данных;
📎 Умение работать с Confluence, Jira, Nexus, Bitbucket;
📎 Умение аргументированно обосновывать свое мнение и решения.
❓Будет плюсом:
📎 Работа с большими объемами данных;
📎 Опыт работы с Hadoop (Hive, Impala, sqoop, oozie, HDFS, YARN);
📎 Опыт работы с Kafka;
📎 Опыт работы с Unix shell.
❓Мы предлагаем:
📎 Работу в стабильной компании, белую заработную плату;
📎 График работы 5/2, гибкое утро и возможность удаленной работы;
📎 Социальный пакет (медицинская страховка, включая стоматологию, собственная столовая);
📎 Корпоративный спорт: скидки на посещение фитнес-клубов, футбольная и волейбольная секции;
📎 Работу в команде, использующей гибкий подход к разработке;
📎 Оформление в соответствии с ТК РФ с первого дня работы.
Контакты:
[email protected];
@begstvotabu.
🔍 Data Engineer / Инженер данных в Инновационный центр «Ай-Теко»
⌚️ Полный рабочий день, возможна удалёнка
💵 От 200 тысяч рублей (в зависимости от скиллов)
❓Кто мы?
Мы — ведущий российский системный интегратор и поставщик информационных технологий для корпоративных заказчиков. Активно действует на рынке IT России с 1997 года, входит в ТОП-400 крупнейших российских компаний, ТОП-10 крупнейших IT-компаний России.
❓Наши ожидания от кандидатов:
📎 Высшее техническое образование;
📎 Опыт работы с экосистемой Hadoop в качестве разработчика;
📎 Знание Java, Scala;
📎 Знание apache Spark;
📎 Понимание структур хранения SQL, noSQL;
📎 Хорошее знание SQL;
📎 Опыт разработки инструментов для автоматизации процессов обработки данных;
📎 Умение работать с Confluence, Jira, Nexus, Bitbucket;
📎 Умение аргументированно обосновывать свое мнение и решения.
❓Будет плюсом:
📎 Работа с большими объемами данных;
📎 Опыт работы с Hadoop (Hive, Impala, sqoop, oozie, HDFS, YARN);
📎 Опыт работы с Kafka;
📎 Опыт работы с Unix shell.
❓Мы предлагаем:
📎 Работу в стабильной компании, белую заработную плату;
📎 График работы 5/2, гибкое утро и возможность удаленной работы;
📎 Социальный пакет (медицинская страховка, включая стоматологию, собственная столовая);
📎 Корпоративный спорт: скидки на посещение фитнес-клубов, футбольная и волейбольная секции;
📎 Работу в команде, использующей гибкий подход к разработке;
📎 Оформление в соответствии с ТК РФ с первого дня работы.
Контакты:
[email protected];
@begstvotabu.
#вакансия #работа #data_engineer #junior #middle #senior #fulltime
🔎 Вакансия: Data engineer (Middle - Senior+);
Локация: Москва (гибридный формат работы);
Занятость: полная;
Вилка: от 180к до 300к gross;
Контакт: @olga_chr, тел. +7 (985) 236-90-31
Компания: PА CSC-HR;
🔎 Вакансия: Data engineer (Middle - Senior+);
Локация: Москва (гибридный формат работы);
Занятость: полная;
Вилка: от 180к до 300к gross;
Контакт: @olga_chr, тел. +7 (985) 236-90-31
Компания: PА CSC-HR;
Всем привет!
В крупную нефтегазохимическую компанию ищем Data engineer или опытных разработчиков, желающих вырасти в Data engineer.
💼
Суть проекта — развитие платформы данных как продукта.
🍪 Мы предлагаем:— Возможность удаленной работы;
— Комфортный рабочий график с гибким началом рабочего дня;
— Оформление по ТК РФ;
— Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
— Интересные и нестандартные задачи, которые требуют креатива и новых подходов, мы работаем в реальном секторе, наши пользователи - реальные люди;
— Корпоративные льготы: ДМС, льготное страхование родственников, большой выбор внутренних спортивных секций, скидки на абонементы сети World Class.
🧑🏻💻 Задачи:— Развитие платформы данных, создание инструментов обработки данных;
— Участие в проектах с реальной ценностью для бизнеса компании;
— Загрузка данных из систем источников в узел данных и обеспечение их доступности;
— Автоматизация аналитических задач;
— Разработка и оптимизация алгоритмов операционного анализа данных;
— Развитие практик DevSecOps, автомтизация миграций и разработческих пайплайнов;
— Взаимодействие с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных.
🧩 Стэк: Python (Spark), Kafka, Hadoop, Vertica, Docker, Apache NiFi.
💁🏻♀️ Наши пожелания:— Знание хотя бы 1 языка программирования (желательно что-то из Scala, Java, Python, C++/C#) на хорошем уровне: опыт разработки более года, есть примеры проектов или продуктов;
— Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.);
— Навыки проектирования и реализации системы сбора и обработки данных;
— Опыт работы с *nix системами;
— Управление кластером Hadoop как преимущество;
— Знание и умение работать с ETL/ELT инструментами, Apache NiFi (один из компонентов ядра узла данных) будет дополнительным плюсом.
✍🏻 Буду рада ответить на ваши вопросы в tg - @olga_chr, а также по телефону +7 (985) 236-90-31
#вакансия #работа #data_engineer #junior #middle #senior #fulltime
🔎 Вакансия: Data engineer (Middle - Senior+);
Локация: Москва (гибридный формат работы);
Занятость: полная;
Вилка: от 180к до 300к gross;
Контакт: @olga_chr, тел. +7 (985) 236-90-31
Компания: PА CSC-HR;
Всем привет!
В крупную нефтегазохимическую компанию ищем Data engineer или опытных разработчиков, желающих вырасти в Data engineer.
💼
Суть проекта
— развитие платформы данных как продукта.
🍪 Мы предлагаем:
— Комфортный рабочий график с гибким началом рабочего дня;
— Оформление по ТК РФ;
— Возможность удаленной работы;
— Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
— Интересные и нестандартные задачи, которые требуют креатива и новых подходов, мы работаем в реальном секторе, наши пользователи - реальные люди;
— Корпоративные льготы: ДМС, льготное страхование родственников, большой выбор внутренних спортивных секций, скидки на абонементы сети World Class.
🧑🏻💻 Задачи:
— Развитие платформы данных, создание инструментов обработки данных;
— Участие в проектах с реальной ценностью для бизнеса компании;
— Загрузка данных из систем источников в узел данных и обеспечение их доступности;
— Автоматизация аналитических задач;
— Разработка и оптимизация алгоритмов операционного анализа данных;
— Развитие практик DevSecOps, автомтизация миграций и разработческих пайплайнов;
— Взаимодействие с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных.
🧩 Стэк: Python (Spark), Kafka, Hadoop, Vertica, Docker, Apache NiFi.
💁🏻♀️ Наши пожелания:
— Знание хотя бы 1 языка программирования (желательно что-то из Scala, Java, Python, C++/C#) на хорошем уровне: опыт разработки более года, есть примеры проектов или продуктов;
— Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.);
— Навыки проектирования и реализации системы сбора и обработки данных;
— Опыт работы с *nix системами;
— Управление кластером Hadoop как преимущество;
— Знание и умение работать с ETL/ELT инструментами, Apache NiFi (один из компонентов ядра узла данных) будет дополнительным плюсом.
✍🏻 Буду рада ответить на ваши вопросы в tg - @olga_chr, а также по телефону +7 (985) 236-90-31
🔎 Вакансия: Data engineer (Middle - Senior+);
Локация: Москва (гибридный формат работы);
Занятость: полная;
Вилка: от 180к до 300к gross;
Контакт: @olga_chr, тел. +7 (985) 236-90-31
Компания: PА CSC-HR;
Всем привет!
В крупную нефтегазохимическую компанию ищем Data engineer или опытных разработчиков, желающих вырасти в Data engineer.
💼
Суть проекта
— развитие платформы данных как продукта.
🍪 Мы предлагаем:
— Комфортный рабочий график с гибким началом рабочего дня;
— Оформление по ТК РФ;
— Возможность удаленной работы;
— Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
— Интересные и нестандартные задачи, которые требуют креатива и новых подходов, мы работаем в реальном секторе, наши пользователи - реальные люди;
— Корпоративные льготы: ДМС, льготное страхование родственников, большой выбор внутренних спортивных секций, скидки на абонементы сети World Class.
🧑🏻💻 Задачи:
— Развитие платформы данных, создание инструментов обработки данных;
— Участие в проектах с реальной ценностью для бизнеса компании;
— Загрузка данных из систем источников в узел данных и обеспечение их доступности;
— Автоматизация аналитических задач;
— Разработка и оптимизация алгоритмов операционного анализа данных;
— Развитие практик DevSecOps, автомтизация миграций и разработческих пайплайнов;
— Взаимодействие с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных.
🧩 Стэк: Python (Spark), Kafka, Hadoop, Vertica, Docker, Apache NiFi.
💁🏻♀️ Наши пожелания:
— Знание хотя бы 1 языка программирования (желательно что-то из Scala, Java, Python, C++/C#) на хорошем уровне: опыт разработки более года, есть примеры проектов или продуктов;
— Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.);
— Навыки проектирования и реализации системы сбора и обработки данных;
— Опыт работы с *nix системами;
— Управление кластером Hadoop как преимущество;
— Знание и умение работать с ETL/ELT инструментами, Apache NiFi (один из компонентов ядра узла данных) будет дополнительным плюсом.
✍🏻 Буду рада ответить на ваши вопросы в tg - @olga_chr, а также по телефону +7 (985) 236-90-31
#вакансия #Data_Engineer #удаленно #remote #офис #Hoff
Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).
‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
✅ Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesia_umt
вотсап: +79165404249
Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).
‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
✅ Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesia_umt
вотсап: +79165404249
#вакансия #Data_Engineer #удаленно #remote #офис #Hoff
Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).
‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
✅ Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesia_umt
вотсап: +79165404249
Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).
‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
✅ Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesia_umt
вотсап: +79165404249
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
#вакансия #Data_Engineer #удаленно #remote #офис #Hoff
Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).
‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
✅ Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesi_IT_Recruiter
вотсап: +79165404249
Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).
‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
✅ Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesi_IT_Recruiter
вотсап: +79165404249
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
#вакансия #Data_Engineer #DWH #ETL #Senior #Middle #удаленно #Russia #Россия
Всем доброго дня!
Компания HoffTech в поиске Data Engineer/DWH developer.
Сейчас мы решаем глобальную задачу рефакторинга DWH – есть возможность реализовать идеи новой структуры архитектуры хранения данных, новых витрин, и принять участие в построении real-time отчетности.
Стек: MSSQL (OLAP, T-SQL), Airflow, Python, BigQuery, YandexCloud.
📌 Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин);
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
+ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
✅Мы предлагаем:
• Возможность развития в крупной компании;
• Оплата: оклад + квартальный бонус;
• Удаленно или офис – как удобно;
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
📲Связаться с нашим HR (Лесия):
Tg: https://yangx.top/Lesi_IT_Recruiter
WhatsApp: +79165404249
Всем доброго дня!
Компания HoffTech в поиске Data Engineer/DWH developer.
Сейчас мы решаем глобальную задачу рефакторинга DWH – есть возможность реализовать идеи новой структуры архитектуры хранения данных, новых витрин, и принять участие в построении real-time отчетности.
Стек: MSSQL (OLAP, T-SQL), Airflow, Python, BigQuery, YandexCloud.
📌 Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин);
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
+ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
✅Мы предлагаем:
• Возможность развития в крупной компании;
• Оплата: оклад + квартальный бонус;
• Удаленно или офис – как удобно;
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
📲Связаться с нашим HR (Лесия):
Tg: https://yangx.top/Lesi_IT_Recruiter
WhatsApp: +79165404249
#вакансия #Data_Engineer #DWH #ETL #Senior #Middle #удаленно #Russia #Россия
Всем доброго дня!
Компания HoffTech в поиске Data Engineer/DWH developer.
Сейчас мы решаем глобальную задачу рефакторинга DWH – есть возможность реализовать идеи новой структуры архитектуры хранения данных, новых витрин, и принять участие в построении real-time отчетности.
Стек: MSSQL (OLAP, T-SQL), Airflow, Python, BigQuery, YandexCloud.
📌 Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин);
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
+ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
✅Мы предлагаем:
• Возможность развития в крупной компании;
• Оплата: оклад + квартальный бонус;
• Удаленно или офис – как удобно;
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
📲Связаться с нашим HR (Лесия):
Tg: https://yangx.top/Sanajna16
WhatsApp: +79165404249
[email protected]
Всем доброго дня!
Компания HoffTech в поиске Data Engineer/DWH developer.
Сейчас мы решаем глобальную задачу рефакторинга DWH – есть возможность реализовать идеи новой структуры архитектуры хранения данных, новых витрин, и принять участие в построении real-time отчетности.
Стек: MSSQL (OLAP, T-SQL), Airflow, Python, BigQuery, YandexCloud.
📌 Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин);
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
+ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
✅Мы предлагаем:
• Возможность развития в крупной компании;
• Оплата: оклад + квартальный бонус;
• Удаленно или офис – как удобно;
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
📲Связаться с нашим HR (Лесия):
Tg: https://yangx.top/Sanajna16
WhatsApp: +79165404249
[email protected]
#вакансия #Data_Engineer #ETL #SQL #PostgreSQL #Hadoop #DWH #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: г. Москва (офис)
💰ЗП: 200 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: Команда создает информационную платформу для решения аналитических и исследовательских задач в области создания продуктов и услуг на мировых финансовых рынках:
•торговля валютой,
•ценными бумагами,
•производными финансовыми инструментами.
🔸Требования:
•Опыт работы от 2-х лет
•Высшее техническое образование
•Знание SQL, PL/SQL или PL/pgSQL
•Опыт работы с популярными РСУБД (Greenplum, Oracle, PostrgeSQL),
•Опыт работы с CI/CD решениями на базе Jenkins и Bitbucket/Git,
•Опыт работы с хранилищем данных (DWH),
•Опыт работы с любой промышленной ETL-системой,
•Знакомство с экосистемой Hadoop.
•Готовность работать в рамках формальных процессов
🔸Обязанности:
•Проектировать и разрабатывать потоки для загрузки данных в хранилище,
•Проектировать и реализовывать слои детальных данных,
•Создавать витрины для отчетности и для моделей машинного обучения.
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;;
•Работать в офисе Москвы, а также по гибридному формату работы через 4-5 месяцев.
📩 А также пишите:
[email protected].
🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: г. Москва (офис)
💰ЗП: 200 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: Команда создает информационную платформу для решения аналитических и исследовательских задач в области создания продуктов и услуг на мировых финансовых рынках:
•торговля валютой,
•ценными бумагами,
•производными финансовыми инструментами.
🔸Требования:
•Опыт работы от 2-х лет
•Высшее техническое образование
•Знание SQL, PL/SQL или PL/pgSQL
•Опыт работы с популярными РСУБД (Greenplum, Oracle, PostrgeSQL),
•Опыт работы с CI/CD решениями на базе Jenkins и Bitbucket/Git,
•Опыт работы с хранилищем данных (DWH),
•Опыт работы с любой промышленной ETL-системой,
•Знакомство с экосистемой Hadoop.
•Готовность работать в рамках формальных процессов
🔸Обязанности:
•Проектировать и разрабатывать потоки для загрузки данных в хранилище,
•Проектировать и реализовывать слои детальных данных,
•Создавать витрины для отчетности и для моделей машинного обучения.
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;;
•Работать в офисе Москвы, а также по гибридному формату работы через 4-5 месяцев.
📩 А также пишите:
[email protected].
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик Android ( senior/ lead)
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных. Мы ищем опытных специалистов, профессионалов в работе с данными.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Фундаментальные знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Полностью удаленный формат работы
•Достойный уровень оплаты, все прозрачно указано в договоре, все строго по ТК РФ.
•Мы заинтересованы в росте квалификации специалиста.
•По-настоящему профессиональная и опытная команда, где есть у кого поучиться, а также возможность делиться своим опытом.
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик Android ( senior/ lead)
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных. Мы ищем опытных специалистов, профессионалов в работе с данными.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Фундаментальные знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Полностью удаленный формат работы
•Достойный уровень оплаты, все прозрачно указано в договоре, все строго по ТК РФ.
•Мы заинтересованы в росте квалификации специалиста.
•По-настоящему профессиональная и опытная команда, где есть у кого поучиться, а также возможность делиться своим опытом.
🤡1
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Пониманиеконцепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опытработы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опытработы с Unix shell
•Jenkins
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Пониманиеконцепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опытработы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опытработы с Unix shell
•Jenkins
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ.
📩 А также пишите: [email protected]
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно
💰ЗП: 230 000-270 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Понимание Концепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опыт Работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опыт Работы с Unix shell
•Jenkins
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно
💰ЗП: 230 000-270 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Понимание Концепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опыт Работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опыт Работы с Unix shell
•Jenkins
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ.
📩 А также пишите: [email protected]
#vacancy #вакансия #python #data engineer #remote
Компания Swift Invention ищет разработчиков:
https://www.swiftinvention.com/#/
Data Engineer (Python)
Full-time
Remote
4000-5000USD
Required skills:
- 3+ years of work experience in developing data-related solutions
- Strong background in Python for data collecting and analysis
- Experience with building and maintaining web scrapers (data mining)
- Experience with preparing data for machine learning (ETL)
- Experience with relational databases (SQLite/MySQL/PostgreSQL)
- Bachelor’s degree or higher in computer science or a related field
Desired skills:
- Understanding of data modeling concepts
- Experience with creating ML data for text classification
- Experience with cloud computing platforms (e.g., AWS, Azure, GCP)
We offer:
- Paid time off (24 working days per year)
- Equipment: MacBook Pro or Dell laptop (m1, m2, i7, 16/32GB RAM)
- Flexible working hours
About the project:
Pakira is a SaaS industry directory, chat, forum, and order tracking for businesses in the wholesale wood industry.
Contacts: [email protected]
tg @HelenSwiftInv
Компания Swift Invention ищет разработчиков:
https://www.swiftinvention.com/#/
Data Engineer (Python)
Full-time
Remote
4000-5000USD
Required skills:
- 3+ years of work experience in developing data-related solutions
- Strong background in Python for data collecting and analysis
- Experience with building and maintaining web scrapers (data mining)
- Experience with preparing data for machine learning (ETL)
- Experience with relational databases (SQLite/MySQL/PostgreSQL)
- Bachelor’s degree or higher in computer science or a related field
Desired skills:
- Understanding of data modeling concepts
- Experience with creating ML data for text classification
- Experience with cloud computing platforms (e.g., AWS, Azure, GCP)
We offer:
- Paid time off (24 working days per year)
- Equipment: MacBook Pro or Dell laptop (m1, m2, i7, 16/32GB RAM)
- Flexible working hours
About the project:
Pakira is a SaaS industry directory, chat, forum, and order tracking for businesses in the wholesale wood industry.
Contacts: [email protected]
tg @HelenSwiftInv
👍1