Работа для программистов
14.1K subscribers
258 photos
2 videos
55K links
Работа для программистов, IT специалистов.

JavaScript, C#, Java, Python, PHP, TypeScript, Kotlin, Swif, C++, Go, Ruby, 1C, Rust, BackEnd, FullStack, FrontEnd, Mobile, DataDev, DevOps, GameDev, Desktop.

Реклама @evgenycarter

РКН https://clck.ru/3Ko8Vq
加入频道
#Вакансия #dataengineer
Медтех компания приглашает Data engineer (инженер данных)/ ETL Developer в компанию, которая специализируется на разработке «умных» инновационных IT-систем для медицины, на работу над продуктом в области медицины, который несет пользу и ценность людям.
Data Engineer/ ETL Developer приглашается на проект по разработке хранилища медицинский данных, включающего интеграционный
и аналитический слои.

🛠Стек:Java, Linux с упором на open source - компоненты.
Нужен инженер с навыками в области построения хранилищ, ETL, при этом допускаем, что часть навыков будет приобретена в процессе работы – главное иметь способность и желание разобраться.

👨🏻‍💻Обязанности:
• Участие в работе по созданию и развитию хранилища медицинской информации;
• Проработка и реализация совместно с архитектором архитектуры хранилища, выбор оптимальных платформ, инструментов и компонент хранилища (предполагаются opensource компоненты на Java);
• Организация инфраструктуры хранилища, настройка и интеграция основных компонентов системы;
• Создание и настройка пайплайнов для обработки данных, настройка ETL процессов.

От человека ждём:
• Опыта работы с б.д. SQL (сложные запросы) и NoSQL (data modeling, data warehousing);
• Опыта в работы с DWH и ETL инструментами, опыт построения ETL процессов;
• Опыта работы с СУБД: PostgreSQL или Greenplum
• Опыта работы с Docker, docker-compose;
• Уверенного знания Linux и навыки работы в консоли;
• Git на уровне уверенного пользователя;
• Английский язык (чтение документации).

Приветствуется:
• ОпытJava-разработки;
• Опыт настройки CI/CD;
• Немного DevOps, опыт обслуживания инфраструктуры хранилища;
• Навыки разработки архитектуры хранилищ;
• Опыт работы с Pentaho Data Integration;
• Опыт работы с Big Data на базе Apache (Kafka, Spark, Airflow);
• Опыт работы с шинами данных (ESB)

📍Компания предлагает:
• официальную зарплату и соблюдение ТК РФ до 250 К.
• Офис в центре Москвы (метро Менделеевская), чай, кофе.
•на период пандемии частичная работа на удаленной основе 50/50

По всем вопросам: @IThunting
#dataengineer #hadoop #spark #вакансия

Компания: Lamoda
Вакансия: Data Engineer
Локация: Moscow or remote

Сейчас ищем Data Engineer’а, который будет участвовать в развитии нашей data - платформы, ориентированной на self-service режим.
Основной стек: Hadoop, Spark, Hive, Airflow, Yarn, Spark Streaming, Python, Scala, Kafka.

Data pipeline ~ 600 Tb (Hadoop) + 95 Tb (Oracle и Vertica)

С более подробным описанием вакансии можно ознакомиться здесь: https://hh.ru/vacancy/43389616
По всем вопросам пишите @nastiada
#вакансия #офис #Санкт-Петербург #DataEngineer #fulltime

Вакансия: Data Engineer(разработчик Big Data)
Локация #Санкт-Петербург
Формат работы: офис
З/п: 150 000 – 250 000 р.
Контакты:  @dashikin88

Обязанности:
Разработки витрин в стеке Java/Apache Spark/Apache Hadoop.
Требования:
- Знание SQL (HiveQL/Oracle);
- Понимание ETL-процессов;
- Знание базовых принципов ООП.
- Опыт разработки на Java;
- Знание стека технологий Hadoop;
- Опыт работы с Apache Spark;
Будет плюсом:
- Опыт работы в команде Agile/scrum;
- Опыт работы с финансовой отчётностью и/или кредитными продуктами.

Подробнее пишите: @dashikin88
#DataEngineer(разработчикBigData) #Работа
 
#вакансия #офис #Санкт-Петербург #DataEngineer #fulltime

Вакансия: Data Engineer(разработчик Big Data)
Локация #Санкт-Петербург
Формат работы: офис
З/п: 150 000 – 250 000 р.
Контакты:  @dashikin88

Обязанности:
Разработки витрин в стеке Java/Apache Spark/Apache Hadoop.
Требования:
- Знание SQL (HiveQL/Oracle);
- Понимание ETL-процессов;
- Знание базовых принципов ООП.
- Опыт разработки на Java;
- Знание стека технологий Hadoop;
- Опыт работы с Apache Spark;
Будет плюсом:
- Опыт работы в команде Agile/scrum;
- Опыт работы с финансовой отчётностью и/или кредитными продуктами.

Подробнее пишите: @dashikin88
#DataEngineer(разработчикBigData) #Работа
 
#вакансия #офис #Санкт-Петербург #DataEngineer #fulltime

Вакансия: Data Engineer(разработчик Big Data)
Локация #Санкт-Петербург
Формат работы: офис
З/п: 150 000 – 250 000 р.
Контакты:  @dashikin88

Обязанности:
Разработки витрин в стеке Java/Apache Spark/Apache Hadoop.
Требования:
- Знание SQL (HiveQL/Oracle);
- Понимание ETL-процессов;
- Знание базовых принципов ООП.
- Опыт разработки на Java;
- Знание стека технологий Hadoop;
- Опыт работы с Apache Spark;
Будет плюсом:
- Опыт работы в команде Agile/scrum;
- Опыт работы с финансовой отчётностью и/или кредитными продуктами.

Подробнее пишите: @dashikin88
#DataEngineer(разработчикBigData) #Работа
 
#вакансия #офис #Санкт-Петербург #DataEngineer #fulltime

Вакансия: Data Engineer(разработчик Big Data)
Локация #Санкт-Петербург
Формат работы: офис
З/п: 150 000 – 250 000 р.
Контакты:  @dashikin88

Обязанности:
Разработки витрин в стеке Java/Apache Spark/Apache Hadoop.
Требования:
- Знание SQL (HiveQL/Oracle);
- Понимание ETL-процессов;
- Знание базовых принципов ООП.
- Опыт разработки на Java;
- Знание стека технологий Hadoop;
- Опыт работы с Apache Spark;
Будет плюсом:
- Опыт работы в команде Agile/scrum;
- Опыт работы с финансовой отчётностью и/или кредитными продуктами.

Подробнее пишите: @dashikin88
#DataEngineer(разработчикBigData) #Работа
#вакансия #офис #Санкт-Петербург #DataEngineer #fulltime

Вакансия: Data Engineer(разработчик Big Data)
Локация #Санкт-Петербург
Формат работы: офис
З/п: 150 000 – 250 000 р.
Контакты:  @dashikin88

Обязанности:
Разработки витрин в стеке Java/Apache Spark/Apache Hadoop.
Требования:
- Знание SQL (HiveQL/Oracle);
- Понимание ETL-процессов;
- Знание базовых принципов ООП.
- Опыт разработки на Java;
- Знание стека технологий Hadoop;
- Опыт работы с Apache Spark;
Будет плюсом:
- Опыт работы в команде Agile/scrum;
- Опыт работы с финансовой отчётностью и/или кредитными продуктами.

Подробнее пишите: @dashikin88
#DataEngineer(разработчикBigData) #Работа
#вакансия #офис #Санкт-Петербург #DataEngineer #fulltime

Вакансия: Data Engineer(разработчик Big Data)
Локация #Санкт-Петербург
Формат работы: офис
З/п: 150 000 – 250 000 р.
Контакты:  @dashikin88

Обязанности:
Разработки витрин в стеке Java/Apache Spark/Apache Hadoop.
Требования:
- Знание SQL (HiveQL/Oracle);
- Понимание ETL-процессов;
- Знание базовых принципов ООП.
- Опыт разработки на Java;
- Знание стека технологий Hadoop;
- Опыт работы с Apache Spark;
Будет плюсом:
- Опыт работы в команде Agile/scrum;
- Опыт работы с финансовой отчётностью и/или кредитными продуктами.

Подробнее пишите: @dashikin88
#DataEngineer(разработчикBigData) #Работа
#вакансия #DataEngineer

Компания PlayKot - российская игровая компания
Формат работы: офис/удаленка/гибрид, full-time
Офис находится в г. Санкт-Петербург, возможна релокация
Зарплата: 200К - 350К руб. net + ДМС, английский и прочие бонусы)

Что мы вам доверим:

выстраивание и развитие процессов обработки данных в компании;
реализацию платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
построение надежных и оптимальных пайплайнов обработки данных;
интеграции с новыми источниками данных;
оптимизацию вычислений;
организацию и реализацию процесса совершенствования Data Quality.

Наш будущий коллега:
уже работал на позиции Data Engineer или аналогичной не менее трех лет;
умеет строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
знает, как реализовывать оркестрацию на Apache Airflow;
глубоко знает SQL и может разобраться в Python-коде;
плотно работал с AWS, а именно: S3, iam, GLUE;
имеет опыт работы с БД и оптимизацией запросов;
хорошо знаком с BI инструментами (Tableau/Superset/Metabase/PowerBI);
знает все (или почти все) о построении витрин данных.

Контактное лицо @JustValeriia
#работа #вакансия #job #data #dataengineer #datascience #fulltime #middle #senior #bigdata #Scrapy

Data Engineer Middle/Senior

An actively developing startUP in the field of hotel business in Japan

Tasks:
- Data analysis and data maintenance for internal and external communication
- Building data pipelines using Cloud Composer (Airflow)
- Maintaining data infrastructure using BigQuery
- Acquisition of competitive data using Scrapy

Requirements:
- Master's degree in science or equivalent and work experience
- Experience working at a start-up company
- At least 3 years of experience in programming using object-oriented languages
- Experience designing data warehouses or data marts
- At least 3 years of experience in data pipeline operations
- Experience operating machine learning models in a production environment
- Proficiency in English

Conditions:
Remote work
Full-time
Salary 4000 - 6000$ and more
Flexible hours

Контакт для связи Ян @job_accelerator