Требуется «Data Scientist» (Москва)
https://career.habr.com/vacancies/1000086721
Компания «Сбер» ищет хорошего специалиста на вакансию «Data Scientist». Москва (Россия), Санкт-Петербург (Россия), Нижний Новгород (Россия). Полный рабочий день. Можно удалённо. Требуемые навыки: #analytics, #senior, #Python, #PyTorch, #Numpy, #Pandas, #Spark, #Scala.
https://career.habr.com/vacancies/1000086721
Компания «Сбер» ищет хорошего специалиста на вакансию «Data Scientist». Москва (Россия), Санкт-Петербург (Россия), Нижний Новгород (Россия). Полный рабочий день. Можно удалённо. Требуемые навыки: #analytics, #senior, #Python, #PyTorch, #Numpy, #Pandas, #Spark, #Scala.
Habr
Вакансия «Data Scientist» в городах Москва, Санкт-Петербург и Нижний Новгород, работа в компании «Сбер» — Хабр Карьера
Вакансия «Data Scientist» в городах Москва, Санкт-Петербург и Нижний Новгород, работа в компании «Сбер». Полная занятость. Можно удаленно.
Требуется «Scala Developer»
https://career.habr.com/vacancies/1000086303
Компания «ИЦ «Ай-Теко»» ищет хорошего специалиста на вакансию «Scala Developer». Полный рабочий день. Можно удалённо. Требуемые навыки: #backend, #middle, #Scala, #Spark, #Kubernetes, #Kafka.
https://career.habr.com/vacancies/1000086303
Компания «ИЦ «Ай-Теко»» ищет хорошего специалиста на вакансию «Scala Developer». Полный рабочий день. Можно удалённо. Требуемые навыки: #backend, #middle, #Scala, #Spark, #Kubernetes, #Kafka.
Habr
Вакансия «Scala Developer», удаленно, работа в компании «ИЦ «Ай-Теко»» — Хабр Карьера
Вакансия «Scala Developer», удаленно, работа в компании «ИЦ «Ай-Теко»». Полная занятость. Можно удаленно.
Требуется «Java Developer/Java разработчик на интеграции (Senior/middle)» (Москва, от 180 000 до 250 000 ₽)
https://career.habr.com/vacancies/1000087514
Компания «ЛАНИТ» ищет хорошего специалиста на вакансию «Java Developer/Java разработчик на интеграции (Senior/middle)». Москва (Россия), Санкт-Петербург (Россия), Самара (Россия). От 180 000 ₽ до 250 000 ₽. Можно удалённо. Требуемые навыки: #backend, #middle, #SQL, #Java, #ООП, #Javacore, #Scala, #PostgreSQL, #Spark, #Linux, #Hadoop, #Kafka.
https://career.habr.com/vacancies/1000087514
Компания «ЛАНИТ» ищет хорошего специалиста на вакансию «Java Developer/Java разработчик на интеграции (Senior/middle)». Москва (Россия), Санкт-Петербург (Россия), Самара (Россия). От 180 000 ₽ до 250 000 ₽. Можно удалённо. Требуемые навыки: #backend, #middle, #SQL, #Java, #ООП, #Javacore, #Scala, #PostgreSQL, #Spark, #Linux, #Hadoop, #Kafka.
Habr
Вакансия «Java Developer/Java разработчик на интеграции (Senior/middle)» в городах Москва, Санкт-Петербург и Самара, работа в компании…
Вакансия «Java Developer/Java разработчик на интеграции (Senior/middle)» в городах Москва, Санкт-Петербург и Самара, работа в компании «ЛАНИТ». Можно удаленно.
Требуется «Team leader» (Москва)
https://career.habr.com/vacancies/1000087006
Компания «Иннотех» ищет хорошего специалиста на вакансию «Team leader». Москва (Россия). Полный рабочий день. Требуемые навыки: #backend, #lead, #Python, #Hadoop, #ApacheAirflow, #Spark, #Kafka, #Docker.
https://career.habr.com/vacancies/1000087006
Компания «Иннотех» ищет хорошего специалиста на вакансию «Team leader». Москва (Россия). Полный рабочий день. Требуемые навыки: #backend, #lead, #Python, #Hadoop, #ApacheAirflow, #Spark, #Kafka, #Docker.
Habr
Вакансия «Team leader» в Москве, работа в компании «Иннотех» — Хабр Карьера
Вакансия «Team leader» в Москве, работа в компании «Иннотех». Полная занятость.
Требуется «Technical support engineer/ Инженер по сопровождению (Team leader/ Senior)» (Санкт-Петербург, до 160 000 ₽)
https://career.habr.com/vacancies/1000087513
Компания «ЛАНИТ» ищет хорошего специалиста на вакансию «Technical support engineer/ Инженер по сопровождению (Team leader/ Senior)». Москва (Россия), Санкт-Петербург (Россия), Омск (Россия). До 160 000 ₽. Можно удалённо. Требуемые навыки: #support, #senior, #Python, #Java, #Hadoop, #Bash, #Lua, #Spark.
https://career.habr.com/vacancies/1000087513
Компания «ЛАНИТ» ищет хорошего специалиста на вакансию «Technical support engineer/ Инженер по сопровождению (Team leader/ Senior)». Москва (Россия), Санкт-Петербург (Россия), Омск (Россия). До 160 000 ₽. Можно удалённо. Требуемые навыки: #support, #senior, #Python, #Java, #Hadoop, #Bash, #Lua, #Spark.
Habr
Вакансия «Team leader технической поддержки it продукта в CleverDATA» в городах Москва, Санкт-Петербург и Омск, работа в компании…
Вакансия «Team leader технической поддержки it продукта в CleverDATA» в городах Москва, Санкт-Петербург и Омск, работа в компании «ЛАНИТ». Можно удаленно.
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: [email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔊Компания Bell Integrator в поиске разработчиков ETL. В команду требуются мотивированные специалисты на проект
«Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java на уровне не ниже mid;
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
• Опыт работы с хранилищами, детальным слоем, витринами данных, системами мастер-данных (MDM), моделями данных (LDM/PDM);
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔊Компания Bell Integrator в поиске разработчиков ETL. В команду требуются мотивированные специалисты на проект
«Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java на уровне не ниже mid;
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
• Опыт работы с хранилищами, детальным слоем, витринами данных, системами мастер-данных (MDM), моделями данных (LDM/PDM);
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
#vacancy #remote #scala #bigdata #spark
MAANG (Meta, Amazon, Apple, Netflix & Google) is looking for middle-senior Big Data Engineer.
Salary range is $100k-150k annualy and ready to discuss higher salary with the best candidates.
Project: subscription and content metadata for all subscription-based services. A modern open source-based stack, which contains Spark, Kubernetes.
Technology stack: Scala, HDFS, Spark, Kubernetes, Big Data, Kafka, Cassandra, AWS
Type of contract: B2B \ Remote work
Candidate's Location: Spain, Mexico, Armenia, Romania, Moldova, Serbia, Poland
Job description:
Requirement gathering
Design and build big data pipeline aggregates
What you need to succeed:
Scala, HDFS, Spark, Kubernetes, Big Data, Good Communication, Analytical skills
Nice to have:
Kafka, Cassandra, AWS, Understanding payments
Benefits include:
Provision of technology;
Compensation for English courses;
Flexible work schedule, with the condition of synchronization with the team
Contacts: @alimjanovitch
MAANG (Meta, Amazon, Apple, Netflix & Google) is looking for middle-senior Big Data Engineer.
Salary range is $100k-150k annualy and ready to discuss higher salary with the best candidates.
Project: subscription and content metadata for all subscription-based services. A modern open source-based stack, which contains Spark, Kubernetes.
Technology stack: Scala, HDFS, Spark, Kubernetes, Big Data, Kafka, Cassandra, AWS
Type of contract: B2B \ Remote work
Candidate's Location: Spain, Mexico, Armenia, Romania, Moldova, Serbia, Poland
Job description:
Requirement gathering
Design and build big data pipeline aggregates
What you need to succeed:
Scala, HDFS, Spark, Kubernetes, Big Data, Good Communication, Analytical skills
Nice to have:
Kafka, Cassandra, AWS, Understanding payments
Benefits include:
Provision of technology;
Compensation for English courses;
Flexible work schedule, with the condition of synchronization with the team
Contacts: @alimjanovitch
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔊Компания Bell Integrator в поиске разработчиков ETL. В команду требуются мотивированные специалисты на проект
«Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java на уровне не ниже mid;
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
• Опыт работы с хранилищами, детальным слоем, витринами данных, системами мастер-данных (MDM), моделями данных (LDM/PDM);
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔊Компания Bell Integrator в поиске разработчиков ETL. В команду требуются мотивированные специалисты на проект
«Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java на уровне не ниже mid;
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
• Опыт работы с хранилищами, детальным слоем, витринами данных, системами мастер-данных (MDM), моделями данных (LDM/PDM);
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌Куда идти работать сейчас? Bell Integrator в это непростое время приглашает присоединиться к нашей команде. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются специалисты на проект
«Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌Куда идти работать сейчас? Bell Integrator в это непростое время приглашает присоединиться к нашей команде. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются специалисты на проект
«Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: Удаленно
💰ЗП: 200 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются специалисты на проект "Единое облако данных".
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 1го года;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ, Казахстана или Беларуси.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: Удаленно
💰ЗП: 200 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются специалисты на проект "Единое облако данных".
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника.
🔸Требования:
• Опыт от 1го года;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ, Казахстана или Беларуси.
📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
👍1
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.
🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.
🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;
🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;
🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите:
[email protected]
#вакансия #разработчик #senior #developer #architect #russia #java #hadoop #kylin #spark #remote #fulltime
🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу в центральной части России c опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.
💵 ЗП: 300 - 370 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
⌚ Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.
🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.
👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.
👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).
🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .
💻Я желаю всем разработчикам чистого кода, поменьше ошибок побольше отдыха летом⛱️.
🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу в центральной части России c опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.
💵 ЗП: 300 - 370 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
⌚ Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.
🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.
👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.
👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).
🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .
💻Я желаю всем разработчикам чистого кода, поменьше ошибок побольше отдыха летом⛱️.
👍1
#вакансия #разработчик #senior #developer #architect #russia #java #hadoop #kylin #spark #remote #fulltime
🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу на полную удалёнку в центральной части России опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.
💵 ЗП: 300 - 400 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
⌚ Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.
🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.
👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.
👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).
🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .
💻Я желаю всем разработчикам чистого кода, поменьше ошибок побольше отдыха летом⛱️.
🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу на полную удалёнку в центральной части России опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.
💵 ЗП: 300 - 400 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
⌚ Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.
🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.
👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.
👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).
🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .
💻Я желаю всем разработчикам чистого кода, поменьше ошибок побольше отдыха летом⛱️.
#вакансия #разработчик #senior #developer #architect #russia #java #hadoop #kylin #spark #remote #fulltime
🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу на полную удалёнку в центральной части России опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.
💵 ЗП: 300 - 400 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
⌚ Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.
🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.
👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.
👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).
🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .
💻Я желаю всем разработчикам чистого кода, поменьше ошибок и хорошего осеннего настроения 🍁.
🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу на полную удалёнку в центральной части России опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.
💵 ЗП: 300 - 400 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
⌚ Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.
🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.
👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.
👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).
🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .
💻Я желаю всем разработчикам чистого кода, поменьше ошибок и хорошего осеннего настроения 🍁.