Data Science Jobs
17.3K subscribers
50 photos
2 videos
1 file
680 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

🗄Мы в реестре РКН: https://vk.cc/cEZ5Ff

По всем вопросам: @musit
Чат: @bigdata_ru
加入频道
#Dataengineer #вакансия #middle #Москва

Всем добрый день!

Вакансия: Data engineer
Компания: Инновационный центр "Безопасный Транспорт" Big Data подразделение внутри Департамента Транспорта Москвы
Формат работы: гибрид (1 день из офиса)
Адрес офиса: Москва, м Белорусская (кольцевая)
Уровень заработной платы: до 250 000 руб. на руки

О компании:
Инновационный центр "Безопасный Транспорт" —ключевой источник и поставщикBigData для всего Транспортного комплекса города Москвы, разрабатывает цифровые продукты, оказывающие влияние на транспортную безопасность дорог Москвы.

Мы гарантируем будущему коллеге:
• Оформление по ТК с первого рабочего дня;
• Гибридный формат (1 день из офиса на Белорусской);
• Белая заработная плата, обсуждается индивидуально, в зависимости от опыта кандидата (до 250 на руки);
• Отпуск 42 дня;
• Бесплатный проезд в метро;
• Полугодовое ревью, по итогам которого можно повысить уровень дохода или роль в команде.

Чем предстоит заниматься:
• Поддержка работоспособности и дальнейшее развитие платформы данных;
• Интеграция Х Д с различными источниками (FTP, API, сайты) с помощью Python;
• Преобразование данных из различных форматов (xml, json) к табличному виду с помощью Python;
• Разработка витрин данных с использованием SQL, Python, PySpark;
• Разработка и доработка batch и real-time процессов загрузки данных в различные слои ХД в Hive, Vertica, PostgreSQL, ClickHouse, DB2;
• Развитие системы мониторинга качества данных;
• Совершенствование и разработка новых внутренних процессов команды;
• Декомпозиция и оценка трудозатрат по своим задачам;
• Code-review;
• Поддержка в актуальном состоянии базы знаний и технической документации ХД.

Мы ожидаем от кандидата:
• Законченное высшее образование!
• Наш стэк: Apache Spark, Spark streaming, Kafka, Apache Hive, Airflow, Linux, Git, Bash, Vertica, Grafana+Zabbix, PostgreSql, ClickHouse, DB2
• Понимание теории и практики построения Хранилищ Данных на уровне data-инженера;
• Уверенное владение SQL, опыт написания сложных запросов с подзапросами, оконными функциями и регулярными выражениями, навыки оптимизации запросов;
• Уверенные навыки программирования, умение читать и понимать код на Python;
• Понимание принципов работы Git-систем и систем оркестрации;
• Заинтересованность в личном развитии и развитии города.

Контакт: @ElinaPankratova
#вакансия #удаленка #релокация #remote #DataEngineer
Senior Data Engineer

💚 Компания: Fundraise Up
Формат работы: удаленка
💻 Занятость: полная
💰 Вилка: $3,800 - $6,400
💌 Контакты для связи: tg @mmatveeva_FRU

💫Делаем продукт для сбора донатов на сайтах. Совершаем транзакции на $10M ежемесячно, храним миллиарды событий и имеем сотни счастливых клиентов.

Ищем Senior Data Engineer Делимся экспертизой и долей компании. Обеспечиваем всем необходимым для комфортной работы.

Позиция предполагает релокацию из РФ и РБ. При желании вы можете воспользоваться нашей программой релокации, которая распространяется на Европу, Сербию и Грузию.

Кого ищем

Мы ищем опытного дата-инженера с 5+ годами опыта, которому предстоит стать первым дата-инженером в компании и работать над созданием и оптимизацией масштабируемых конвейеров данных и ETL процессов.

-5+ лет опыта работы на позиции Data Engineer
-3+ лет опыта разработки на Python
-Понимание алгоритмов и принципов обработки данных
-Опыт работы с Clickhouse, MongoDB, Airflow
-Навыки оптимизации запросов и работы с большими объемами данных

Формальный список того, что нужно делать

-Проектирование, разработка, тестирование и оркестрирование масштабируемых конвейеров данных и ETL-процессов
-Поддержка и развитие Data Warehouse
-Участие в проектировании системы и разработке архитектурных решений совместно с командой разработки и аналитики
-Настройка мониторинга и алертов
-Оптимизация и написание запросов к MongoDB и ClickHouse
-Управление и поддержка рабочих процессов в Airflow
-Работа с Docker и другими связанными технологиями для обеспечения стабильности и масштабируемости решений

Бонусы

Нам важно чтобы работая удаленно, вы чувствовали себя комфортно. Обычно мы отправляем сотрудникам Macbook и нужное число мониторов. Если ваше рабочее место не обустроено, то пришлем стол, удобное кресло и все что нужно для продуктивной работы.
Полностью оплачиваем необходимое ПО, книги и коворкинг, если не хотите работать из дома. Помогаем с оплатой спортзала и бассейна, курсов английского и любого профильного образования.
#вакансия #dataengineer #backend #sql #nosql #clouds #docker

🔥 Data Engineer/Backend-разработчик
 
Компания Антиплагиат — разработчик решений в области анализа текстов, изображений и поиска заимствований в крупных коллекциях документов и сети Интернет ищет к себе в команду Data Engineer/Backend-разработчика.
 
Удаленно из РФ, СНГ
Полная занятость
Вилка ЗП от 180 000 – 270 000 на руки
Оформление В ШТАТ компании по трудовой книжке.

Что необходимо делать:
-Писать краулеры сайтов
Разрабатывать службы для получения данных из клиентских API
-Писать сервисы для внутренних нужд команды
-Поддерживать полноту и целостность текущих данных системы
 
Мы ждем от кандидата:
-Уверенное знание Python
Опыт работы с большими данными
-Умение обернуть написанный код в Docker-контейнер
-Опыт работы с SQL/NoSQL БД
-Опыт использования Linux. Применяем debian/ubuntu
 
Плюсик в карму за:
-Опыт планирования микросервисной/распределенной инфраструктуры
-Опыт работы с облаками (AWS, Яндекс.Облако)
-Знакомство с C#
-Знакомство с классическими алгоритмами и структурами данных
-Знание технологий из стека, указанного ниже
 
С чем предстоит работать:
-Библиотеки Python: scrapy, beautiful soup, pandas,
-Взаимодействие с сервисами по протоколам: gRPC, REST, FTP, etc.
-Обработка данных в форматах: xml/html, json, plain text, etc.
-Инфраструктура: docker, mongodb, rabbitmq, postgresql, redis
-Мониторинг: graphite, grafana, zabbix, ELK
 
Мы предлагаем:
-Работа в IT аккредитованной компании с развитой корпоративной культурой в дружелюбном и интеллигентном коллективе.
-Формат удалённый.
-Добровольное Медицинское Страхование.
-Возможность профессионального и карьерного роста.
-Заработная плата обсуждается индивидуально (оклад + годовая премия).
-Ежегодный Performance Review.
-Оформление согласно ТК РФ.
-Дополнительные 4 дня отгула в год (Day Off).
-Обучение английскому языку (компенсация стоимости).
-Корпоративное/внешнее обучение, посещение конференций, курсов.
 
Контакт: Светлана Иванова
@UmraSvet
[email protected]
#вакансия #удаленка #DataEngineer #middle #senior #fulltime #фултайм

Data инженер

🌏Локация и гражданство: Россия 🇷🇺
📄Оформление: ИП, ГПД
💼Занятость: полная
💻Формат работы: удаленка
💰ЗП вилка: от 80 т.р до 270т.р.
Опыт: от 3 лет
🔵Компания: SkyWeb Pro

Требования:

- Знания в области технологий сбора, хранения и обработки данных (например, Hadoop, Spark, Kafka);
- Опыт проектирования и реализации высокодоступных и масштабируемых систем для работы с большими данными;
- Знакомство с принципами и практиками Data Governance, Quality, Lineage;
- Навыки программирования (например, Python, Java, Scala) и опыт работы с SQL и NoSQL базами данных;
- Понимание архитектурных паттернов и фреймворков проектирования (например: Data Fabric, Data Mesh).

Для отклика пишите: @Skywebpro_hr
#вакансия #lead #DataEngineer #DWH #hadoop #spark #airflow #clickhouse #SODA #remote


Ищу к себе в команду DWH в AliExpress Lead Data Engineer

Стек: Hadoop, Spark, Airflow, ClickHouse, SODA (DQ).

Удаленка, возможность оформления вне РФ.

Зона ответственности команды DWH - качественные и своевременные данные в удобном для аналитики виде. За платформу данных и подключение источников к озеру данных отвечает отдельная платформенная команда. Объемы данных в компании исчисляются петабайтами.

Чем предстоит заниматься:
- Оптимизация производительности сложных процессов загрузки данных (Spark);
- Развитие используемых в команде практик и подходов (доработки CI/CD, мониторингов, внутренних библиотек)
- Разработка NRT пайплайнов (Kafka, Spark Structured Streaming, CH);
- Разработка витрин данных (Spark);
- Менторинг разработчиков и контроль за соблюдением стандартов.

Мы ожидаем от Вас:
- Опыт работы со Spark и глубокое понимание его устройства;
- Опыт работы с Python или Java от 3-х лет;
- Опыт работы c ClickHouse;
- Опыт написания дата пайплайнов, опыт работы с Airflow;
- Понимание подходов к организации разработки (CI/CD, DevOps).

Будет плюсом:
- Опыт разработки потоковой обработки данных;
- Опыт работы с форматом iceberg;
- Опыт управления небольшой командой.

По вопросам и с резюме: @shh1_01
#Вакансия #DataEngineer #Senior #УдаленнаяРабота

Senior Data Engineer в Welltory

Welltory — приложение для здоровья с 10 млн пользователей и 180 тыс. оценок ★★★★★. Создаём новую команду Data Engineering: будем строить Data Lakehouse со всеми данными в компании и доставлять данные для фичей нашего мобильного приложения.

Требования:
— Опыт работы 5+ лет в Data Engineering.
— Владение: Python, Apache Spark, AWS, SQL и NoSQL базами данных.
— Понимание теории Data Engineering и трендов в отрасли.
— Большим плюсом будет продакшен опыт с Apache Iceberg.
— Умение адаптироваться к новым инструментам, включая последние AI-решения.

Задачи:
— Построение и поддержка внутреннего Data Lakehouse на AWS.
— Разработка пайплайнов для обработки данных.
— Участие в создании архитектуры и настройке процессов в новой команде.

Условия:
— Удаленная работа с гибким графиком.
— Бонусы: субсидии на технику (50%), корпоративный психолог, опционная программа.
— Возможность влиять на здоровье и благополучие миллионов пользователей.

Контакты для связи:
• Костя, руководитель команды: @tyapochkinks
• Или пишите нам в HR: @welltoryhr
#vacancy #dataengineer #de #python
Вакансия: Senior Data Engineer
Формат: офис/гибрид (Ереван), удалённый
Локация: любая
Занятость: полная
Оплата: до 350 000 рублей

Обязанности:
- Проектирование и реализация систем для сбора и обработки данных.
- Трансформация бизнес-требований в модели данных.
- Обеспечение поддержки бизнес-требований через архитектуру данных.
- Обеспечение безопасности данных.

Требования:
- 4+ лет опыта работы в области инженерии данных, ETL-процессов и управления сложными решениями по хранению данных
- Подтвержденный коммерческий опыт создания и развертывания приложений с использованием Python и Apache Airflow
- Практический опыт работы с облачной инфраструктурой AWS и управлением решениями для хранения и передачи данных в облачной среде
- Продвинутое владение SQL (особенно PostgreSQL) и глубокое понимание различных решений по хранению данных, включая структурированные и неструктурированные данные
- Желание изучать и экспериментировать с агентами ИИ совместно с командой Data Science, интегрировать ИИ-логику в архитектуру конвейеров данных
- Отличные навыки решения проблем, способность справляться с неопределенностью и предлагать решения в сложных ситуациях
- Уровень английского B2 или выше

Технологии и языки:
- Python
- SQL
- Облачная платформа AWS
- Git
- Pandas
- Airflow
- CI/CD, Jenkins

Предпочтительно:
- Опыт работы с векторными хранилищами и графовыми базами данных
- Опыт работы с облачными платформами машинного обучения
- Знание эффективных форматов данных (например, Parquet, Avro) для пакетной обработки в озерах данных или хранилищах данных, опыт работы с Apache Spark
- Snowflake Data Warehouse
- Docker
- Linux + bash, ssh
- Jupyter
- Параллельные вычисления

Будет плюсом:
- Опыт работы с командами Data Science
- Сертификация AWS

Мы предлагаем:
- Работу в динамичной международной команде
- Возможность сотрудничества через ИП/самозанятость для коллег, находящихся за пределами РФ
- Участие в иностранных и российских проектах
- Оформление по ТК РФ, 100% оплата больничного и отпуска
- ДМС со стоматологией
- Необходимую для работы технику
- Корпоративные обучающие программы
- Широкие возможности для самореализации, профессионального и карьерного роста
- Демократичный подход к процессам и плавающее начало рабочего дня
- Опцию перемещения между нашими зарубежными офисами

По всем вопросам и с резюме: @ananyancat
#Вакансия #DataEngineer #Senior #УдаленнаяРабота

Senior Data Engineer в Welltory

Welltory — приложение для здоровья с 10 млн пользователей и 180 тыс. оценок ★★★★★. Создаём новую команду Data Engineering: будем строить Data Lakehouse со всеми данными в компании и доставлять данные для фичей нашего мобильного приложения.

Требования:
— Опыт работы 5+ лет в Data Engineering.
— Владение: Python, Apache Spark, AWS, SQL и NoSQL базами данных.
— Понимание теории Data Engineering и трендов в отрасли.
— Большим плюсом будет продакшен опыт с Apache Iceberg.
— Умение адаптироваться к новым инструментам, включая последние AI-решения.

Задачи:
— Построение и поддержка внутреннего Data Lakehouse на AWS.
— Разработка пайплайнов для обработки данных.
— Участие в создании архитектуры и настройке процессов в новой команде.

Условия:
— Удаленная работа с гибким графиком.
— Бонусы: субсидии на технику (50%), корпоративный психолог, опционная программа.
— Возможность влиять на здоровье и благополучие миллионов пользователей.

Контакты для связи: @welltoryhr
#вакансии #dataengineer #Spark #Scala3 #Jenkins #Senior

Друзья, всем привет!

Ищем авторов уроков и задач на практический курс по разработке на Spark для продвинутых Data Engineer.

О нас:
Standard Data – проектируем и реализуем образовательные решения под заказ крупных компаний в сфере ИИ, дата инжиниринга и веб-разработки.

Кого ищем:
Авторов уроков и задач, которым интересно сделать качественный образовательный продукт, решающий задачи нашей аудитории!
Мы ожидаем от вас опыт работы со Spark для решения рабочих задач от 5 лет. Кроме того, важна готовность работать в команде, быть на связи и регулярно уделять 10+ часов в неделю.

Что нужно делать:
•  Разработка материалов: лекции, семинары, ДЗ, проекты.
•  Проводить занятия, обычно по выбранным (2-4) темам из всего курса. Занятия в формате вебинаров 2 раза в неделю по 2 часа.
•  Прямо сейчас мы на стадии старта разработки курса, поэтому наиболее актуальна именно разработка материалов. Далее, примерно через 3 месяца уже проведение занятий (и далее продолжаем развивать этот курс).

Что мы ждем от кандидата:
•  более 5 лет в роли DE, опыт оптимизации высоконагруженных приложений/ETL процессов;
•  Опыт работы со Scala 3; Spark; Kafka + Spark Structured Streaming; Hadoop; Oozie; Yarn.

Будет большим плюсом:
Опыт в DevOps (Jenkins) и знание пакета MLib в Spark.

Что мы предлагаем:
•  За разработку комплекта материалов к одной теме: лекция, семинар, тест, ДЗ – 30т.р.-50т.р.
•  Сумма оплаты возможна и больше, всё зависит от опыта, публикаций и результатов собеседования.
•  За проведение одного двухчасового занятия – 10т.р.-20т.р. в зависимости от вашего опыта.

Ждем тебя в нашей команде, пишите в тг, или сразу кидайте резюме: t.me/KaterinkaGl