Data Science Jobs
17.3K subscribers
50 photos
2 videos
1 file
680 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

🗄Мы в реестре РКН: https://vk.cc/cEZ5Ff

По всем вопросам: @musit
Чат: @bigdata_ru
加入频道
#вакансия #удаленка #DataEngineer #middle #senior #fulltime #фултайм

Data инженер

🌏Локация и гражданство: Россия 🇷🇺
📄Оформление: ИП, ГПД
💼Занятость: полная
💻Формат работы: удаленка
💰ЗП вилка: от 80 т.р до 270т.р.
Опыт: от 3 лет
🔵Компания: SkyWeb Pro

Требования:

- Знания в области технологий сбора, хранения и обработки данных (например, Hadoop, Spark, Kafka);
- Опыт проектирования и реализации высокодоступных и масштабируемых систем для работы с большими данными;
- Знакомство с принципами и практиками Data Governance, Quality, Lineage;
- Навыки программирования (например, Python, Java, Scala) и опыт работы с SQL и NoSQL базами данных;
- Понимание архитектурных паттернов и фреймворков проектирования (например: Data Fabric, Data Mesh).

Для отклика пишите: @Skywebpro_hr
#вакансия #lead #DataEngineer #DWH #hadoop #spark #airflow #clickhouse #SODA #remote


Ищу к себе в команду DWH в AliExpress Lead Data Engineer

Стек: Hadoop, Spark, Airflow, ClickHouse, SODA (DQ).

Удаленка, возможность оформления вне РФ.

Зона ответственности команды DWH - качественные и своевременные данные в удобном для аналитики виде. За платформу данных и подключение источников к озеру данных отвечает отдельная платформенная команда. Объемы данных в компании исчисляются петабайтами.

Чем предстоит заниматься:
- Оптимизация производительности сложных процессов загрузки данных (Spark);
- Развитие используемых в команде практик и подходов (доработки CI/CD, мониторингов, внутренних библиотек)
- Разработка NRT пайплайнов (Kafka, Spark Structured Streaming, CH);
- Разработка витрин данных (Spark);
- Менторинг разработчиков и контроль за соблюдением стандартов.

Мы ожидаем от Вас:
- Опыт работы со Spark и глубокое понимание его устройства;
- Опыт работы с Python или Java от 3-х лет;
- Опыт работы c ClickHouse;
- Опыт написания дата пайплайнов, опыт работы с Airflow;
- Понимание подходов к организации разработки (CI/CD, DevOps).

Будет плюсом:
- Опыт разработки потоковой обработки данных;
- Опыт работы с форматом iceberg;
- Опыт управления небольшой командой.

По вопросам и с резюме: @shh1_01
#Вакансия #DataEngineer #Senior #УдаленнаяРабота

Senior Data Engineer в Welltory

Welltory — приложение для здоровья с 10 млн пользователей и 180 тыс. оценок ★★★★★. Создаём новую команду Data Engineering: будем строить Data Lakehouse со всеми данными в компании и доставлять данные для фичей нашего мобильного приложения.

Требования:
— Опыт работы 5+ лет в Data Engineering.
— Владение: Python, Apache Spark, AWS, SQL и NoSQL базами данных.
— Понимание теории Data Engineering и трендов в отрасли.
— Большим плюсом будет продакшен опыт с Apache Iceberg.
— Умение адаптироваться к новым инструментам, включая последние AI-решения.

Задачи:
— Построение и поддержка внутреннего Data Lakehouse на AWS.
— Разработка пайплайнов для обработки данных.
— Участие в создании архитектуры и настройке процессов в новой команде.

Условия:
— Удаленная работа с гибким графиком.
— Бонусы: субсидии на технику (50%), корпоративный психолог, опционная программа.
— Возможность влиять на здоровье и благополучие миллионов пользователей.

Контакты для связи:
• Костя, руководитель команды: @tyapochkinks
• Или пишите нам в HR: @welltoryhr
#vacancy #dataengineer #de #python
Вакансия: Senior Data Engineer
Формат: офис/гибрид (Ереван), удалённый
Локация: любая
Занятость: полная
Оплата: до 350 000 рублей

Обязанности:
- Проектирование и реализация систем для сбора и обработки данных.
- Трансформация бизнес-требований в модели данных.
- Обеспечение поддержки бизнес-требований через архитектуру данных.
- Обеспечение безопасности данных.

Требования:
- 4+ лет опыта работы в области инженерии данных, ETL-процессов и управления сложными решениями по хранению данных
- Подтвержденный коммерческий опыт создания и развертывания приложений с использованием Python и Apache Airflow
- Практический опыт работы с облачной инфраструктурой AWS и управлением решениями для хранения и передачи данных в облачной среде
- Продвинутое владение SQL (особенно PostgreSQL) и глубокое понимание различных решений по хранению данных, включая структурированные и неструктурированные данные
- Желание изучать и экспериментировать с агентами ИИ совместно с командой Data Science, интегрировать ИИ-логику в архитектуру конвейеров данных
- Отличные навыки решения проблем, способность справляться с неопределенностью и предлагать решения в сложных ситуациях
- Уровень английского B2 или выше

Технологии и языки:
- Python
- SQL
- Облачная платформа AWS
- Git
- Pandas
- Airflow
- CI/CD, Jenkins

Предпочтительно:
- Опыт работы с векторными хранилищами и графовыми базами данных
- Опыт работы с облачными платформами машинного обучения
- Знание эффективных форматов данных (например, Parquet, Avro) для пакетной обработки в озерах данных или хранилищах данных, опыт работы с Apache Spark
- Snowflake Data Warehouse
- Docker
- Linux + bash, ssh
- Jupyter
- Параллельные вычисления

Будет плюсом:
- Опыт работы с командами Data Science
- Сертификация AWS

Мы предлагаем:
- Работу в динамичной международной команде
- Возможность сотрудничества через ИП/самозанятость для коллег, находящихся за пределами РФ
- Участие в иностранных и российских проектах
- Оформление по ТК РФ, 100% оплата больничного и отпуска
- ДМС со стоматологией
- Необходимую для работы технику
- Корпоративные обучающие программы
- Широкие возможности для самореализации, профессионального и карьерного роста
- Демократичный подход к процессам и плавающее начало рабочего дня
- Опцию перемещения между нашими зарубежными офисами

По всем вопросам и с резюме: @ananyancat
#Вакансия #DataEngineer #Senior #УдаленнаяРабота

Senior Data Engineer в Welltory

Welltory — приложение для здоровья с 10 млн пользователей и 180 тыс. оценок ★★★★★. Создаём новую команду Data Engineering: будем строить Data Lakehouse со всеми данными в компании и доставлять данные для фичей нашего мобильного приложения.

Требования:
— Опыт работы 5+ лет в Data Engineering.
— Владение: Python, Apache Spark, AWS, SQL и NoSQL базами данных.
— Понимание теории Data Engineering и трендов в отрасли.
— Большим плюсом будет продакшен опыт с Apache Iceberg.
— Умение адаптироваться к новым инструментам, включая последние AI-решения.

Задачи:
— Построение и поддержка внутреннего Data Lakehouse на AWS.
— Разработка пайплайнов для обработки данных.
— Участие в создании архитектуры и настройке процессов в новой команде.

Условия:
— Удаленная работа с гибким графиком.
— Бонусы: субсидии на технику (50%), корпоративный психолог, опционная программа.
— Возможность влиять на здоровье и благополучие миллионов пользователей.

Контакты для связи: @welltoryhr
#вакансии #dataengineer #Spark #Scala3 #Jenkins #Senior

Друзья, всем привет!

Ищем авторов уроков и задач на практический курс по разработке на Spark для продвинутых Data Engineer.

О нас:
Standard Data – проектируем и реализуем образовательные решения под заказ крупных компаний в сфере ИИ, дата инжиниринга и веб-разработки.

Кого ищем:
Авторов уроков и задач, которым интересно сделать качественный образовательный продукт, решающий задачи нашей аудитории!
Мы ожидаем от вас опыт работы со Spark для решения рабочих задач от 5 лет. Кроме того, важна готовность работать в команде, быть на связи и регулярно уделять 10+ часов в неделю.

Что нужно делать:
•  Разработка материалов: лекции, семинары, ДЗ, проекты.
•  Проводить занятия, обычно по выбранным (2-4) темам из всего курса. Занятия в формате вебинаров 2 раза в неделю по 2 часа.
•  Прямо сейчас мы на стадии старта разработки курса, поэтому наиболее актуальна именно разработка материалов. Далее, примерно через 3 месяца уже проведение занятий (и далее продолжаем развивать этот курс).

Что мы ждем от кандидата:
•  более 5 лет в роли DE, опыт оптимизации высоконагруженных приложений/ETL процессов;
•  Опыт работы со Scala 3; Spark; Kafka + Spark Structured Streaming; Hadoop; Oozie; Yarn.

Будет большим плюсом:
Опыт в DevOps (Jenkins) и знание пакета MLib в Spark.

Что мы предлагаем:
•  За разработку комплекта материалов к одной теме: лекция, семинар, тест, ДЗ – 30т.р.-50т.р.
•  Сумма оплаты возможна и больше, всё зависит от опыта, публикаций и результатов собеседования.
•  За проведение одного двухчасового занятия – 10т.р.-20т.р. в зависимости от вашего опыта.

Ждем тебя в нашей команде, пишите в тг, или сразу кидайте резюме: t.me/KaterinkaGl