Работа для программистов
14K subscribers
251 photos
2 videos
54.7K links
Работа для программистов, IT специалистов.

JavaScript, C#, Java, Python, PHP, TypeScript, Kotlin, Swif, C++, Go, Ruby, 1C, Rust, BackEnd, FullStack, FrontEnd, Mobile, DataDev, DevOps, GameDev, Desktop.

Реклама @evgenycarter

РКН https://clck.ru/3Ko8Vq
加入频道
Требуется «Data Scientist» (Москва)

https://career.habr.com/vacancies/1000086721
Компания «Сбер» ищет хорошего специалиста на вакансию «Data Scientist». Москва (Россия), Санкт-Петербург (Россия), Нижний Новгород (Россия). Полный рабочий день. Можно удалённо. Требуемые навыки: #analytics, #senior, #Python, #PyTorch, #Numpy, #Pandas, #Spark, #Scala.
Требуется «Java Developer/Java разработчик на интеграции (Senior/middle)» (Москва, от 180 000 до 250 000 ₽)

https://career.habr.com/vacancies/1000087514
Компания «ЛАНИТ» ищет хорошего специалиста на вакансию «Java Developer/Java разработчик на интеграции (Senior/middle)». Москва (Россия), Санкт-Петербург (Россия), Самара (Россия). От 180 000 ₽ до 250 000 ₽. Можно удалённо. Требуемые навыки: #backend, #middle, #SQL, #Java, #ООП, #Javacore, #Scala, #PostgreSQL, #Spark, #Linux, #Hadoop, #Kafka.
Требуется «Team leader» (Москва)

https://career.habr.com/vacancies/1000087006
Компания «Иннотех» ищет хорошего специалиста на вакансию «Team leader». Москва (Россия). Полный рабочий день. Требуемые навыки: #backend, #lead, #Python, #Hadoop, #ApacheAirflow, #Spark, #Kafka, #Docker.
Требуется «Technical support engineer/ Инженер по сопровождению (Team leader/ Senior)» (Санкт-Петербург, до 160 000 ₽)

https://career.habr.com/vacancies/1000087513
Компания «ЛАНИТ» ищет хорошего специалиста на вакансию «Technical support engineer/ Инженер по сопровождению (Team leader/ Senior)». Москва (Россия), Санкт-Петербург (Россия), Омск (Россия). До 160 000 ₽. Можно удалённо. Требуемые навыки: #support, #senior, #Python, #Java, #Hadoop, #Bash, #Lua, #Spark.
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:

tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: [email protected]
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:

tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: [email protected]
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: [email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

🔊Компания Bell Integrator в поиске разработчиков ETL. В команду требуются мотивированные специалисты на проект
«Единый семантический слой» - это единое облако данных.

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника.

🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java на уровне не ниже mid;
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
• Опыт работы с хранилищами, детальным слоем, витринами данных, системами мастер-данных (MDM), моделями данных (LDM/PDM);

🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите:
[email protected]
#vacancy #remote #scala #bigdata #spark

MAANG (Meta, Amazon, Apple, Netflix & Google) is looking for middle-senior Big Data Engineer.

Salary range is $100k-150k annualy and ready to discuss higher salary with the best candidates.

Project: subscription and content metadata for all subscription-based services. A modern open source-based stack, which contains Spark, Kubernetes.

Technology stack: Scala, HDFS, Spark, Kubernetes, Big Data, Kafka, Cassandra, AWS
Type of contract: B2B \ Remote work

Candidate's Location: Spain, Mexico, Armenia, Romania, Moldova, Serbia, Poland

Job description:

Requirement gathering
Design and build big data pipeline aggregates

What you need to succeed:

Scala, HDFS, Spark, Kubernetes, Big Data, Good Communication, Analytical skills

Nice to have:
Kafka, Cassandra, AWS, Understanding payments

Benefits include:
Provision of technology;
Compensation for English courses;

Flexible work schedule, with the condition of synchronization with the team


Contacts: @alimjanovitch
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-250 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

🔊Компания Bell Integrator в поиске разработчиков ETL. В команду требуются мотивированные специалисты на проект
«Единый семантический слой» - это единое облако данных.

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника.

🔸Требования:
• Опыт от 2х лет;
• Обязательно хорошее знание SQL, написание сложных запросов;
• Знание scala/java на уровне не ниже mid;
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;
• Опыт работы с хранилищами, детальным слоем, витринами данных, системами мастер-данных (MDM), моделями данных (LDM/PDM);

🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия:  Разработчик ETL
🔸Локация: Удаленно
💰ЗП: 200 000-230 000 net

📩Для отклика и по всем вопросам:
       tg: @AnechkaSon

📌Куда идти работать сейчас? Bell Integrator в это непростое время приглашает присоединиться к нашей команде.  Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду  требуются специалисты на проект
«Единый семантический слой» - это единое облако данных.

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника.

🔸Требования:
•  Опыт от 2х лет;
•  Обязательно хорошее знание SQL, написание сложных запросов;
•  Знание scala/java
•  Опыт разработки на scala spark;
•  Понимание внутренней архитектуры hadoop и spark;

🔸Обязанности:
•   Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
•   Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
•   Разработка и прогон автотестов на разработанный/доработанный код;
•   Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
•   Участие в проектировании логической модели данных;
•   Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать  удаленно.

📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: Удаленно
💰ЗП: 200 000-230 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются специалисты на проект "Единое облако данных".

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника.

🔸Требования:
• Опыт от 1го года;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java
• Опыт разработки на scala spark;
• Понимание внутренней архитектуры hadoop и spark;

🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного (/автосгенерированного) кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ, Казахстана или Беларуси.

📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.

🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;

🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия:  Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net

📩Для отклика и по всем вопросам:
       tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду  требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.

🔸Требования:
•  Опыт от 2х лет;
•  Хорошее знание SQL, написание сложных запросов;
•  Знание scala/java/python
•  Понимание внутренней архитектуры hadoop и spark;

🔸Обязанности:
•   Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
•  Ревью и оптимизация ранее разработанного кода;
•   Разработка и прогон автотестов на разработанный/доработанный код;
•   Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
•   Участие в проектировании логической модели данных;
•   Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать  удаленно.

📩 А также пишите:
[email protected]
👍1
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.

🔸Цель
: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.

🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;

🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите:
[email protected]
#вакансия #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик ETL/Data Engineer
🔸Локация: Удаленно
💰ЗП: 180 000-230 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны. Мы являемся аккредитованной ИТ-компанией.
Bell Integrator активно реализует проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔊 В команду требуются Data Engineer на проект «Единый семантический слой» - это единое облако данных.

🔸Цель: предоставление потребителям интегрированных данных не зависимо от АС-источника. Данные в ЕСС объединены в единую модель, имеют сквозную идентификацию объектов и размечены единой нормативно-справочной информацией.

🔸Требования:
• Опыт от 2х лет;
• Хорошее знание SQL, написание сложных запросов;
• Знание scala/java/python
• Понимание внутренней архитектуры hadoop и spark;

🔸Обязанности:
• Разработка кода в соответствии с требованиями к предоставлению данных подотчетной предметной области единого семантического слоя;
• Ревью и оптимизация ранее разработанного кода;
• Разработка и прогон автотестов на разработанный/доработанный код;
• Подготовка дистрибутивов и описания в соответствии с требованиями оформления банка;
• Участие в проектировании логической модели данных;
• Оценка и внедрение новых технологий и подходов разработки;

🔸Условия:
•Возможность профессионального и карьерного роста в компании, возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите:
[email protected]
#вакансия #разработчик #senior #developer #architect #russia #java #hadoop #kylin #spark #remote #fulltime

🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу в центральной части России c опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.

💵 ЗП: 300 - 370 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.

🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.

👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.

👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).

🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .

💻Я желаю всем разработчикам чистого кода, поменьше ошибок побольше отдыха летом⛱️.
👍1
#вакансия #разработчик #senior #developer #architect #russia #java #hadoop #kylin #spark #remote #fulltime

🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу на полную удалёнку в центральной части России опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.

💵 ЗП: 300 - 400 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.

🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.

👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.

👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).

🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .

💻Я желаю всем разработчикам чистого кода, поменьше ошибок побольше отдыха летом⛱️.
#вакансия #разработчик #senior #developer #architect #russia #java #hadoop #kylin #spark #remote #fulltime

🌍 Всем привет! Меня зовут Владимир! Я являюсь ИТ-рекрутером и представляю кадровое агентство Sirotina Personnel. В настоящее время я активно ищу на полную удалёнку в центральной части России опытного Senior Java (Hadoop) Dеvelоper / Architect для нашего клиента, крупнoй рoссийскoй компании (локация ЦО компании - г. Москва), кoтoрая зaнимаeтся разработкой цифровых решений для бизнеса и корпораций.

💵 ЗП: 300 - 400 тыс. рублей (нетто в месяц) 💸.
🌃 Работайте полностью из дома (удаленно).
Занятость: полный рабочий день.
📜 Оформление по ТК РФ/ ИП / СМЗ в аккредитованную ИТ компанию.

🛎️ Основные должностные функции:
- Создание подсистемы планирования, прогнозирования и формирования финансовой отчетности на основании технологий open source;
- Разработка современного решения, которое позволяет эффективно осуществлять процессы планирования и построения отчетности.

👉 Опыт работы и необходимые навыки:
- Высшee oбразование;
- Oпыт рaзрaбoтки нa Jаvа от 4-5 лет;
- Обязателен опыт работы с Hadoop: понимание основных концепций и компонентов Hadoop, опыт работы с HDFS, MapReduce, YARN и другими инструментами;
- Опыт работы с Java: уверенное владение языком программирования Java, понимание основных концепций ООП, знание стандартных библиотек и инструментов разработки;
- Опыт работы с Apache Kylin: понимание архитектуры Apache Kylin, умение работать с его API и использовать различные функции;
- Опыт работы с SQL и базами данных: знание языка SQL, опыт работы с реляционными базами данных PostgreSQL и понимание основных концепций баз данных;
- Опыт работы с NoSQL: знание основных концепций NoSQL и опыт работы с HBase, Parquet;
- Опыт работы с Spark: знание основных концепций и компонентов Apache Spark, опыт работы с Spark SQL и другими модулями, стек с Parquet;
- Опыт работы с Git: знание системы контроля версий Git и умение работать с ней;
- Опыт работы с Linux: знание основных команд и утилит Linux, умение настраивать и администрировать сервера на Linux;
- Опыт работы с Apache Data Integration: знание основных концепций по загрузки данных, опыт работ с Sqoop, Kafka, NiFi;
- Опыт работы с Zookeeper: понимание основных концепций синхронизации и распределенной координации в распределенных системах.

👍 Условия труда:
- Oплaта дoстoйнaя пo рынку РФ;
- Удaлённый фoрмат (40 чaсов в нeделю);
- Условия трудоустройства по ТК РФ / ИП / СМЗ (самозанятый);
- Интересные задачи и конкурентное вознаграждение, которое зависит от навыков и вида контракта (ТК, ИП/самозанятость).

🌉 Я жду всех заинтересованных в моем профиле (аккаунте) в Telegram - @alekvladi или на моей электронной почте: [email protected] .

💻Я желаю всем разработчикам чистого кода, поменьше ошибок и хорошего осеннего настроения 🍁.