Работа для программистов
14K subscribers
251 photos
2 videos
54.7K links
Работа для программистов, IT специалистов.

JavaScript, C#, Java, Python, PHP, TypeScript, Kotlin, Swif, C++, Go, Ruby, 1C, Rust, BackEnd, FullStack, FrontEnd, Mobile, DataDev, DevOps, GameDev, Desktop.

Реклама @evgenycarter

РКН https://clck.ru/3Ko8Vq
加入频道
#вакансия #Data Engineer #bellintegrator #консультант SAP BW
Локация #офис #москва
З/п: до 400 000 Net
График работы 5/2, 10:00-19:00
Контакты @KseniyaBurenichevaHr
🧑🏼‍💻Bell Integrator - системный интегратор. Ищем кандидата, который работал консультантом BW/ Data Engineer. Нужен опыт работы на SAP BW. База данных HANA📣🔥

📌Проект
Мы развиваем самое современное в РФ хранилище HR данных на платформе SAP BW/4HANA. Оно является центром экосистемы Data Platform, в состав которой входят ClickHouse, GreenPlum, Hadoop.
В качестве источников данных мы используем SAP HCM, SAP ERP, Success Factors, платформы собственной разработки.
Решение интеграционных задач, классических задач по построению DWH и созданию отчетности, задач оптимизации, вот неполный перечень того, над чем предстоит поработать.

📌Основные требования
• Высшее оконченное техническое образование
• Опыт работы от 4-х лет (можно от 2х) в проектах по разработке/модификации/конфигурированию/внедрению ПО с использованием инструментов и технологий SAP BW/BW4HANA/BO/Lumira Designer;
• Опыт разработки с использованием возможностей СУБД HANA;
• Опыт построения аналитической отчетности c помощью инструментов SAP Business Explorer (рабочие книги и знания Excel + VBA), SAP Business Objects
• Знание SQL Script;
• Опционально: опыт интеграции с SAP HCM;
• Знание LSA и LSA++;
• Наличие сертификатов SAP приветствуется;
• Опыт разработки аналитических оперативных отчетов;
• Опыт командной разработки с использованием программных продуктов Confluence и Jira;
• Опыт работы, как в каскадных (waterfall), так и в гибких методологиях (Agile) разработки.
• технический английский

📌Должностные обязанности
• Развитие хранилища данных SAP BW/4HANA в рамках agile-команды для HR-блока ПАО «Сбербанк»;
• Проектирование и моделирование структуры хранилища SAP BW on HANA 7.5 и BW/4HANA;
• Создание процессов загрузки данных;
• Разработка отчетных форм на базе Bex, Web Intelligence;
• Разработки на SQL, ABAP;
• Тестирование разрабатываемого решения;
• Подготовка сопроводительной документации в Confluence, в ходе реализации продукта.

❗️❗️Мы гарантируем:
• Конкурентоспособную заработную плату, все в белую по тк РФ
• Корпоративное обучение и сертификацию в технических и бизнес областях
• Корпоративные развлекательные программы
• Работа в офисе Москва
#вакансия #data_engineer #инженер_данных #инженер #remote #fulltime #москва

🔍 Data Engineer / Инженер данных в Инновационный центр «Ай-Теко»
⌚️ Полный рабочий день, возможна удалёнка
💵 От 200 тысяч рублей (в зависимости от скиллов)

Кто мы?
Мы — ведущий российский системный интегратор и поставщик информационных технологий для корпоративных заказчиков. Активно действует на рынке IT России с 1997 года, входит в ТОП-400 крупнейших российских компаний, ТОП-10 крупнейших IT-компаний России.

Наши ожидания от кандидатов:
📎 Высшее техническое образование;
📎 Опыт работы с экосистемой Hadoop в качестве разработчика;
📎 Знание Java, Scala;
📎 Знание apache Spark;
📎 Понимание структур хранения SQL, noSQL;
📎 Хорошее знание SQL;
📎 Опыт разработки инструментов для автоматизации процессов обработки данных;
📎 Умение работать с Confluence, Jira, Nexus, Bitbucket;
📎 Умение аргументированно обосновывать свое мнение и решения.

Будет плюсом:
📎 Работа с большими объемами данных;
📎 Опыт работы с Hadoop (Hive, Impala, sqoop, oozie, HDFS, YARN);
📎 Опыт работы с Kafka;
📎 Опыт работы с Unix shell.

Мы предлагаем:
📎 Работу в стабильной компании, белую заработную плату;
📎 График работы 5/2, гибкое утро и возможность удаленной работы;
📎 Социальный пакет (медицинская страховка, включая стоматологию, собственная столовая);
📎 Корпоративный спорт: скидки на посещение фитнес-клубов, футбольная и волейбольная секции;
📎 Работу в команде, использующей гибкий подход к разработке;
📎 Оформление в соответствии с ТК РФ с первого дня работы.

Контакты:
[email protected];
@begstvotabu.
#вакансия #работа #data_engineer #junior #middle #senior #fulltime

🔎 Вакансия: Data engineer (Middle - Senior+);
Локация: Москва (гибридный формат работы);
Занятость: полная;
Вилка: от 180к до 300к gross;
Контакт:
@olga_chr, тел. +7 (985) 236-90-31
Компания: PА CSC-HR;


Всем привет!

В крупную нефтегазохимическую компанию ищем Data engineer или опытных разработчиков, желающих вырасти в Data engineer.

💼
Суть проекта
— развитие платформы данных как продукта.

🍪 Мы предлагаем:
— Возможность удаленной работы;
— Комфортный рабочий график с гибким началом рабочего дня;
— Оформление по ТК РФ;
— Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
— Интересные и нестандартные задачи, которые требуют креатива и новых подходов, мы работаем в реальном секторе, наши пользователи - реальные люди;
— Корпоративные льготы: ДМС, льготное страхование родственников, большой выбор внутренних спортивных секций, скидки на абонементы сети World Class.


🧑🏻‍💻 Задачи:
— Развитие платформы данных, создание инструментов обработки данных;
— Участие в проектах с реальной ценностью для бизнеса компании;
— Загрузка данных из систем источников в узел данных и обеспечение их доступности;
— Автоматизация аналитических задач;
— Разработка и оптимизация алгоритмов операционного анализа данных;
— Развитие практик DevSecOps, автомтизация миграций и разработческих пайплайнов;
— Взаимодействие с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных.

🧩 Стэк: Python (Spark), Kafka, Hadoop, Vertica, Docker, Apache NiFi.


💁🏻‍♀️ Наши пожелания:
— Знание хотя бы 1 языка программирования (желательно что-то из Scala, Java, Python, C++/C#) на хорошем уровне: опыт разработки более года, есть примеры проектов или продуктов;
— Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.);
— Навыки проектирования и реализации системы сбора и обработки данных;
— Опыт работы с *nix системами;
— Управление кластером Hadoop как преимущество;
— Знание и умение работать с ETL/ELT инструментами, Apache NiFi (один из компонентов ядра узла данных) будет дополнительным плюсом.

✍🏻 Буду рада ответить на ваши вопросы в tg - @olga_chr, а также по телефону +7 (985) 236-90-31
#вакансия #работа #data_engineer #junior #middle #senior #fulltime

🔎 Вакансия: Data engineer (Middle - Senior+);
Локация: Москва (гибридный формат работы);
Занятость: полная;
Вилка: от 180к до 300к gross;
Контакт: @olga_chr, тел. +7 (985) 236-90-31
Компания: PА CSC-HR;

Всем привет!

В крупную нефтегазохимическую компанию ищем Data engineer или опытных разработчиков, желающих вырасти в Data engineer.

💼
Суть проекта
— развитие платформы данных как продукта.

🍪 Мы предлагаем:
— Комфортный рабочий график с гибким началом рабочего дня;
— Оформление по ТК РФ;
— Возможность удаленной работы;
— Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
— Интересные и нестандартные задачи, которые требуют креатива и новых подходов, мы работаем в реальном секторе, наши пользователи - реальные люди;
— Корпоративные льготы: ДМС, льготное страхование родственников, большой выбор внутренних спортивных секций, скидки на абонементы сети World Class.


🧑🏻‍💻 Задачи:
— Развитие платформы данных, создание инструментов обработки данных;
— Участие в проектах с реальной ценностью для бизнеса компании;
— Загрузка данных из систем источников в узел данных и обеспечение их доступности;
— Автоматизация аналитических задач;
— Разработка и оптимизация алгоритмов операционного анализа данных;
— Развитие практик DevSecOps, автомтизация миграций и разработческих пайплайнов;
— Взаимодействие с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных.

🧩 Стэк: Python (Spark), Kafka, Hadoop, Vertica, Docker, Apache NiFi.


💁🏻‍♀️ Наши пожелания:
— Знание хотя бы 1 языка программирования (желательно что-то из Scala, Java, Python, C++/C#) на хорошем уровне: опыт разработки более года, есть примеры проектов или продуктов;
— Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.);
— Навыки проектирования и реализации системы сбора и обработки данных;
— Опыт работы с *nix системами;
— Управление кластером Hadoop как преимущество;
— Знание и умение работать с ETL/ELT инструментами, Apache NiFi (один из компонентов ядра узла данных) будет дополнительным плюсом.

✍🏻 Буду рада ответить на ваши вопросы в tg - @olga_chr, а также по телефону +7 (985) 236-90-31
#вакансия #Data_Engineer #удаленно #remote #офис #Hoff

Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).

‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesia_umt
вотсап: +79165404249
#вакансия #Data_Engineer #удаленно #remote #офис #Hoff

Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).

‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesia_umt
вотсап: +79165404249
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия:
Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:

tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: [email protected]
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия:
Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:

tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: [email protected]
#вакансия #Data_Engineer #удаленно #remote #офис #Hoff

Компания Hoff в поиске Senior Data Engineer в связи с расширением!
Сейчас решаем глобальную задачу рефакторинга DWH – если вам интересна возможность реализовать идеи новой архитектуры хранения данных, создания новых витрин, и принять участие в построении real-time отчетности, направляйте резюме прямо сейчас (контакты ниже).

‼️Наши преимущества:
• Возможность работы с разнообразным стеком: MSSQL (OLAP, T-SQL, SSIS), Airflow, Python, BigQuery, YandexCloud.
• В перспективе возможность участия в проекте c MPP-системой (Greenplum).
• Баланс между сложными и рутинными задачами.
• Оформление в IT-компанию «Hoff Tech» - наш уютный ИТ-мир.
Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин) от 3 лет;
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
✔️ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
📌 Мы предлагаем:
• Развитие в крутой сплоченной команде;
• Достойный уровень оплаты труда: оклад + квартальный бонус;
• Формат работы – удаленно или офис (офис в г. Москва, ст. м Улица 1905 г.);
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
Обсудим подробнее? Пишите: 📲
https://yangx.top/Lesi_IT_Recruiter
вотсап: +79165404249
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: [email protected]
#вакансия #Data_Engineer #DWH #ETL #Senior #Middle #удаленно #Russia #Россия

Всем доброго дня!
Компания HoffTech в поиске Data Engineer/DWH developer.
Сейчас мы решаем глобальную задачу рефакторинга DWH – есть возможность реализовать идеи новой структуры архитектуры хранения данных, новых витрин, и принять участие в построении real-time отчетности.
Стек: MSSQL (OLAP, T-SQL), Airflow, Python, BigQuery, YandexCloud.
📌 Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (BigQuery - Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин);
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
+ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с BigQuery, ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
Мы предлагаем:
• Возможность развития в крупной компании;
• Оплата: оклад + квартальный бонус;
• Удаленно или офис – как удобно;
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
📲Связаться с нашим HR (Лесия):
Tg: https://yangx.top/Lesi_IT_Recruiter
WhatsApp: +79165404249
#вакансия #Data_Engineer #DWH #ETL #Senior #Middle #удаленно #Russia #Россия

Всем доброго дня!
Компания HoffTech в поиске Data Engineer/DWH developer.
Сейчас мы решаем глобальную задачу рефакторинга DWH – есть возможность реализовать идеи новой структуры архитектуры хранения данных, новых витрин, и принять участие в построении real-time отчетности.
Стек: MSSQL (OLAP, T-SQL), Airflow, Python, BigQuery, YandexCloud.
📌 Задачи:
• Реализация новой модели DWH (Data Vault);
• Участие в миграции данных (Yandex.Cloud - ClickHouse);
• Формирование пользовательских витрин данных;
• Написание Python скриптов / DAG-ов для интеграции с внешними источниками;
• Интеграция данных в OLAP (табулярные модели, многомерные кубы);
• Реализация задач Департамента электронной коммерции (Airflow, Python);
• Участие в переводе DWH на MPP-систему (Vertica/Greenplum).
🔎 Для сотрудничества с нами вам понадобятся:
• Опыт промышленной разработки DWH (сбор требований, конструирование DWH, работа с таблицами, сбор сложных витрин);
• Опыт разработки на ANSI-SQL (опыт разработки именно в MS SQL Server будет плюсом);
• Практический опыт разработки ETL с помощью Airflow (Python) или T-SQL/ ANSI-SQL.
+ Плюсом будет:
• Опыт работы с OLAP кубами SSAS;
• Опыт работы с ClickHouse;
• Опыт работы с высоконагруженными системами DWH, DataLake.
Мы предлагаем:
• Возможность развития в крупной компании;
• Оплата: оклад + квартальный бонус;
• Удаленно или офис – как удобно;
• График работы 5/2 c 09-18, 10-19.00;
• ДМС со стоматологией, корпоративные скидки для сотрудников (до 20% с первого дня работы).
📲Связаться с нашим HR (Лесия):
Tg: https://yangx.top/Sanajna16
WhatsApp: +79165404249
[email protected]
#вакансия #Data_Engineer #ETL #SQL #PostgreSQL #Hadoop #DWH #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: г. Москва (офис)
💰ЗП: 200 000-230 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект
: Команда создает информационную платформу для решения аналитических и исследовательских задач в области создания продуктов и услуг на мировых финансовых рынках:
•торговля валютой,
•ценными бумагами,
•производными финансовыми инструментами.

🔸Требования:
•Опыт работы от 2-х лет
•Высшее техническое образование
•Знание SQL, PL/SQL или PL/pgSQL
•Опыт работы с популярными РСУБД (Greenplum, Oracle, PostrgeSQL),
•Опыт работы с CI/CD решениями на базе Jenkins и Bitbucket/Git,
•Опыт работы с хранилищем данных (DWH),
•Опыт работы с любой промышленной ETL-системой,
•Знакомство с экосистемой Hadoop.
•Готовность работать в рамках формальных процессов

🔸Обязанности:
•Проектировать и разрабатывать потоки для загрузки данных в хранилище,
•Проектировать и реализовывать слои детальных данных,
•Создавать витрины для отчетности и для моделей машинного обучения.

🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;;
•Работать в офисе Москвы, а также по гибридному формату работы через 4-5 месяцев.

📩 А также пишите:
[email protected].
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик Android ( senior/ lead)
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net

📩Для отклика и по всем вопросам:  
       tg: @Anechkason

🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект: развитие платформы больших данных. Мы ищем опытных специалистов, профессионалов в работе с данными.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Фундаментальные знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes

🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре

🔸Условия:
•Полностью удаленный формат работы
•Достойный уровень оплаты, все прозрачно указано в договоре, все строго по ТК РФ.
•Мы заинтересованы в росте квалификации специалиста.
•По-настоящему профессиональная и опытная команда, где есть у кого поучиться, а также возможность делиться своим опытом.
🤡1
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net

📩Для отклика и по всем вопросам:  
       tg: @Anechkason

🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Пониманиеконцепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опытработы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опытработы с Unix shell
•Jenkins

🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре

🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать  удаленно на территории РФ.

📩 А также пишите: [email protected]
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно
💰ЗП: 230 000-270 000 net

📩Для отклика и по всем вопросам:  
       tg: @Anechkason

🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект:  развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Требования:
•  Высшее техническое/экономическое образование
•  Опыт программирования на Java от 2х  лет
•  Опыт программирования и разработки алгоритмов и структур данных
•  Знания принципов построения распределенных систем хранения и обработки данные
•  Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Понимание Концепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опыт Работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опыт Работы с Unix shell
•Jenkins

🔸Обязанности:
•  Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре

🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать  удаленно на территории РФ.

📩 А также пишите: [email protected]
#vacancy #вакансия #python #data engineer #remote
Компания Swift Invention ищет разработчиков:
https://www.swiftinvention.com/#/


Data Engineer (Python)
Full-time
Remote

4000-5000USD

Required skills:

- 3+ years of work experience in developing data-related solutions
- Strong background in Python for data collecting and analysis
- Experience with building and maintaining web scrapers (data mining)
- Experience with preparing data for machine learning (ETL)
- Experience with relational databases (SQLite/MySQL/PostgreSQL)
- Bachelor’s degree or higher in computer science or a related field

Desired skills:

- Understanding of data modeling concepts
- Experience with creating ML data for text classification
- Experience with cloud computing platforms (e.g., AWS, Azure, GCP)

We offer:

- Paid time off (24 working days per year)
- Equipment: MacBook Pro or Dell laptop (m1, m2, i7, 16/32GB RAM)
- Flexible working hours


About the project:

Pakira is a SaaS industry directory, chat, forum, and order tracking for businesses in the wholesale wood industry.

Contacts: [email protected]
tg @HelenSwiftInv
👍1