ML / DS_Jobs
1.57K subscribers
27 photos
5 videos
2.26K links
Вакансии по ML / DS. Только актуальное.
Оформить и предложить вакансию можно тут: @cyberJohnny
Реклама - @cyberJohnny
Чат: https://yangx.top/+alZFEF06WPIzNTQy
加入频道
#DataEngineer #ContractPosition #Remote #GCP #Snowflake #dbt #Fintech #API #Airflow #GitHub
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.

Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.

Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.

Зарплата: $5000 – 7000 NET.

Для самых внимательных, кто действительно читает описание вакансии:

• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://yangx.top/Tary_bird
____________________________________
Description of the Data Engineer contract position:

Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.

Responsibilities:

• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.

What we are looking for:

Qualifications:

• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.

Nice to have:

• Bachelor's or master's degree in computer science, database management, etc.


Please send the completed application form together with your CV.

• How many years of experience do you have with Google Cloud Platform (GCP)?

• How many years of experience do you have with Snowflake?

• How many years of experience do you have with dbt?

• How many years of experience do you have with Airflow?

• How many years of experience do you have with GitHub?

• Do you have experience working with data intake through API/SFTP? If yes, please describe.

• How many years of experience do you have with Python?

• How many years of experience do you have with SQL?

• What salary USD is expected?

@ml_data_science_job
#Dataengineer #вакансия #middle #Москва

Всем добрый день!

Вакансия: Data engineer
Компания: Инновационный центр "Безопасный Транспорт" Big Data подразделение внутри Департамента Транспорта Москвы
Формат работы: гибрид (1 день из офиса)
Адрес офиса: Москва, м Белорусская (кольцевая)
Уровень заработной платы: до 250 000 руб. на руки

О компании:
Инновационный центр "Безопасный Транспорт" —ключевой источник и поставщикBigData для всего Транспортного комплекса города Москвы, разрабатывает цифровые продукты, оказывающие влияние на транспортную безопасность дорог Москвы.

Мы гарантируем будущему коллеге:
• Оформление по ТК с первого рабочего дня;
• Гибридный формат (1 день из офиса на Белорусской);
• Белая заработная плата, обсуждается индивидуально, в зависимости от опыта кандидата (до 250 на руки);
• Отпуск 42 дня;
• Бесплатный проезд в метро;
• Полугодовое ревью, по итогам которого можно повысить уровень дохода или роль в команде.

Чем предстоит заниматься:
• Поддержка работоспособности и дальнейшее развитие платформы данных;
• Интеграция Х Д с различными источниками (FTP, API, сайты) с помощью Python;
• Преобразование данных из различных форматов (xml, json) к табличному виду с помощью Python;
• Разработка витрин данных с использованием SQL, Python, PySpark;
• Разработка и доработка batch и real-time процессов загрузки данных в различные слои ХД в Hive, Vertica, PostgreSQL, ClickHouse, DB2;
• Развитие системы мониторинга качества данных;
• Совершенствование и разработка новых внутренних процессов команды;
• Декомпозиция и оценка трудозатрат по своим задачам;
• Code-review;
• Поддержка в актуальном состоянии базы знаний и технической документации ХД.

Мы ожидаем от кандидата:
• Законченное высшее образование!
• Наш стэк: Apache Spark, Spark streaming, Kafka, Apache Hive, Airflow, Linux, Git, Bash, Vertica, Grafana+Zabbix, PostgreSql, ClickHouse, DB2
• Понимание теории и практики построения Хранилищ Данных на уровне data-инженера;
• Уверенное владение SQL, опыт написания сложных запросов с подзапросами, оконными функциями и регулярными выражениями, навыки оптимизации запросов;
• Уверенные навыки программирования, умение читать и понимать код на Python;
• Понимание принципов работы Git-систем и систем оркестрации;
• Заинтересованность в личном развитии и развитии города.

Контакт: @ElinaPankratova

@ml_data_science_job