Data Science Jobs
18.5K subscribers
55 photos
5 videos
1 file
709 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

🗄Мы в реестре РКН: https://vk.cc/cEZ5Ff

По всем вопросам: @musit
Чат: @bigdata_ru
加入频道
#вакансия #удаленка #DataEngineer #middle #senior #fulltime #фултайм

Data инженер

🌏Локация и гражданство: Россия 🇷🇺
📄Оформление: ИП, ГПД
💼Занятость: полная
💻Формат работы: удаленка
💰ЗП вилка: от 80 т.р до 270т.р.
Опыт: от 3 лет
🔵Компания: SkyWeb Pro

Требования:

- Знания в области технологий сбора, хранения и обработки данных (например, Hadoop, Spark, Kafka);
- Опыт проектирования и реализации высокодоступных и масштабируемых систем для работы с большими данными;
- Знакомство с принципами и практиками Data Governance, Quality, Lineage;
- Навыки программирования (например, Python, Java, Scala) и опыт работы с SQL и NoSQL базами данных;
- Понимание архитектурных паттернов и фреймворков проектирования (например: Data Fabric, Data Mesh).

Для отклика пишите: @Skywebpro_hr
#вакансия #офис #Python #ETL #DWH #middle #разработчик #Москва #Питер #Самара #Тольятти #офис

Привет!
Мы в поисках ETL/DWH разработчика для разработки корпоративного хранилища данных для банка. Команду собираем с 0, что позволит участвовать во внедрении КХД с самого начала и повлиять на архитектуру.

Х-он с 2005 года помогает реализовывать IT–проекты для компаний: от авторских бизнес-идей и наставничества до комплексного анализа, сопровождения и развития проекта. Среди клиентов: Сбербанк, Дикси, РАНХиГС, Allianz и другие.

Предстоящие задачи:

- Построение корпоративного хранилища данных (КХД) по методологии Data Vault 2.0 на базе Arenadata DB (Greenplum).
- Разработка и поддержка интеграционных потоков c различными источниками данных Informatica PowerCenter (Developer), Airflow, Apache NiFi.
- Участие в оптимизации/автоматизации процесса разработки, подготовке шаблонов и методик, проектной документации.
- Апробация новых инструментов разработки и систем в рамках развития КХД.
- Обеспечение непрерывной работы хранилища данных.

Что нам важно:

- Опыт работы в банках или рисках;
- Знание Python или Java
- Опыт работы на аналогичной позиции от 2 лет;
- Опыт работы с MS SQL(или Oracle, DB2, PostgreSQL),
- Опыт с MPP системами Greenplum/Teradata/Vertica;
- Опыт работы с Airflow или Pentaho;

Будет плюсом:

- Знание CI/CD (gitlab, jenkins);
- Опыт работы с kafka.

Что мы предлагаем:

- Офис/гибрид: Москва (м. Краснопресненская), Санкт-Петербург (м. Невский проспект), Самара, Тольятти
- Заработная плата от 170тыс до 250тыс на руки
- Оформление по ИП/СМЗ
- Возможность закрепиться в штате по результатам работы

Интересен проект и задачи? Отправляйте мне резюме: @ME_Merkulova и я обязательно расскажу подробнее😊
#вакансия #системныйаналитик #аналитик #Systemanalyst #удаленно #middle #senior

Вакансия: Системный аналитик
Работодатель:
IT_One (Аккредитованная аутсорс IT-компания)
Формат работы:
удаленно
Локация:
РФ /Гражданство: РФ
Проект:
Финтех (банк)
Вилка:
от 200000 на руки
Профессиональный уровень:
Middle, Senior

#Обязанности:
- Сбор, анализ, документирование бизнес-требований в качестве ИТ-Эксперта;
- Описание бизнес-процессов;
- Взаимодействие с заказчиком (Казначейство Банка), демонстрация реализованной функциональности;
- Взаимодействие с дизайнерами, постановка требований к макетам экранных форм;
- Участие в разработке интеграционных требований;
- Разработка тест-кейсов, участие в функциональном и интеграционном тестировании;
- Участие в постановке задач разработчикам, сопровождение процесса разработки, консультирование;
- Участие в постановке задач на доработку смежных систем в качестве заказчика.

#Обязательные требования
- Опыт работы аналитиком больше 3х лет;
- Знание общих принципов разработки ПО;
- Знание и опыт использования нотации BPMN;
- Знание принципов интеграции;
- Умение читать и формировать XSD/XML, JSON;
- Понимание принципы работы СУБД, умение написания простых SQL-запросов;
- Умение четко и грамотно устно и письменно формулировать мысли;
- Дополнительным преимуществом будет опыт работы в банке, знание принципов работы банковского ПО, знания в предметной области инвестиционного бизнеса, опыт участия в проектах ДБО, опыт работы с Confluence, Jira.

#Желательные требования:
- Способность к анализу, систематизации, классификации;
- Способность работать с большими объемами информации;
- Умение брать на себя ответственность, инициативность;
- Способность работать в команде.

#Мы предлагаем:
- Официальное оформление по ТК РФ;
- Удаленку (на территории РФ) , по желанию работа в офисе: г.Москва, г.Санкт-Петербург, г.Омск;
- Возможности профессионального и карьерного роста
- ДМС после испытательного срока;
- Компенсация на фитнес;
- Скидки на изучение иностранных языков от Skyeng;
- Обеспечение техникой для работы;
- Регулярная и достойная оплата труда;

По всем вопросам и с резюме: @Firsusha_118
Аналитик DWH
Грейд: Middle
Название компании: Itvolna tech

Локация: РФ
Часовой пояс: Московский часовой пояс
Предметные области: другая
Формат работы: удаленный формат работы

Тема проекта: БОПОС

Зарплата: 302 000 гросс

Обязанности:
SQL, PL\SQL, Hive
- Опыт участия в проектах по созданию и развитию DWH.
- Опыт участия в проектах по созданию и развитию Data Vault.
- Опыт чтения и анализа программного кода SAS, SQL, Spark, Hive.
- Опыт составления технической и бизнес документации.
- Понимание предметной области Телеком.
- Общее понимание о налоговой декларации НДС, регламенте формирования, наполнении данными.

Требования:
Аналитическая часть
- Согласование и уточнение требований к доработкам продукта.
- Cогласование и уточнение требований к системе копирования.
- Согласование и уточнение требований к системе трансформации данных.

Разработка
- Разработка архитектуры системы копирования данных.
- Разработка архитектуры системы трансформации данных.
- Настройка тестовой центральной ETL среды и тестовой MPP Greenplum.
- Модуль управления (добавления) заданиями.
- Разработка переноса таблиц staging в конечные таблицы хранилища.
- Процесс создания view и плоских таблиц на основе мета данных для интеграции другими системами.
- Реализация ETL-процесса c копированием таблиц SAS.
- Оптимизация производительности.
- Проведение нагрузочного тестирования.
- Адаптация разработанного функционала для переноса на продуктивный стенд.
- Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры.

Документация
- Разработка приемо-сдаточной документации.
- Согласование результатов на тестовом стенде.
- Участие в приемо-сдаточных испытаниях.

Контактные данные: 📱@alarionova_volna

#удаленка #РФ #вакансия #vacancy #аналитик #dwh #middle
#вакансия #Data #Engineer #разработчик #ELT #Middle+ #Senior #удаленно

Компания: Smart Solutions LTD
Уровень зп: 15$ per hour;
Локация: worldwide;
Формат: удаленная работа;
Занятость: part-time;
Опыт: от 4 лет.
Senior/Middle Data Engineer (ETL)

Требования:
у нас есть база данных postgres, которая может содержать миллионы строк, но нам нужно более быстрое извлечение данных.
Мы думаем об elastic search, но не уверены, ищем консультацию с опытным инженером по данным

Задачи:
Помогите найти правильное масштабируемое решение.

Резюме ожидаю в Тг @buna_seara_aqrt
могу платить криптовалютой
Ищем Data Engineer (Middle/Middle+/Senior) в аутстафф-компанию Top Selection для работы над зарубежным ритейл-проектом.
Грейд: Senior
Название компании: Top Selection

Локация: Не важно
Часовой пояс: МСК
Предметные области: ритейл
Формат работы: Удалёнка

Мы ищем Data Platform Engineer с опытом работы в Microsoft Fabric или Databricks для построения и оптимизации дата-платформы в ритейле.
Основная задача – разработка облачной платформы обработки данных, интеграция с различными источниками и аналитика в реальном времени.

Работа в ритейле требует глубокого понимания данных о продажах, цепочке поставок, потребительском поведении и управлении товарными запасами.

Обязанности:
Ключевые обязанности (MS Fabric):
- Проектирование архитектуры данных на Microsoft Fabric (OneLake, Lakehouses, Synapse Data Warehouse, Power BI).
- Разработка и внедрение ETL/ELT-конвейеров данных (Fabric Data Pipelines, Azure Data Factory).
- Оптимизация хранения и обработки данных в OneLake и Lakehouses.
- Настройка Real-Time Analytics (анализ транзакций, логистика, продажи в режиме реального времени).
- Интеграция с Power BI и построение семантических моделей.
- Оптимизация SQL-запросов для больших объемов данных в Synapse Data Warehouse.
- Автоматизация CI/CD-конвейеров (Azure GitOps).
- Обеспечение безопасности данных и соответствие стандартам работы с персональными и коммерческими данными.

Технологии, с которыми предстоит работать:
- Microsoft Fabric:
- OneLake (облачное lakehouse-хранилище данных)
- Lakehouses (совмещение Data Lake и традиционных DWH)
- Data Pipelines (аналог Azure Data Factory)
- Synapse Data Warehouse (облачный аналитический движок)
- Real-Time Analytics (потоковая обработка данных)
- Power BI & Semantic Models (бизнес-аналитика)
- KQL (Kusto Query Language) для анализа событий и логов
- DevOps & CI/CD:
- Azure GitOps, YAML-пайплайны
- Автоматизированное развертывание и управление инфраструктурой данных

Требования:
- Практический опыт работы с Microsoft Fabric или Databricks (или другим релевантным облачным стеком).
- От 2 лет опыта в data engineering и облачных хранилищах данных.
- Глубокие знания SQL, Python, Spark/PySpark, T-SQL.
- Опыт оптимизации SQL-запросов и работы с большими объемами данных.
- Понимание архитектуры баз данных и lakehouse-концепции.
- Опыт работы с ETL/ELT-процессами, DataOps, CI/CD для данных.

Пожелания:
Будет плюсом:
- Опыт работы с потоковыми данными (Kafka, Event Hubs, Stream Analytics).
- Знание ритейл-данных (ценообразование, товарные запасы, программы лояльности).
- Опыт работы с Delta Lake, Databricks ML.
- Оптимизация SQL-запросов и настройка кластера Spark.

Сертификации (желательно):
- Microsoft Certified: Fabric Analytics Engineer Associate
- Microsoft Certified: Azure Data Engineer Associate
- Databricks Certified Data Engineer Associate/Professional

Контактные данные: @mherchopurian / @datasciencejobs

#вакансия #DataEngineer #Middle #MSFabric #Databricks #Удаленно
#вакансия #удаленно #dwh #teradata #informatica #middle

🚀 Middle DWH Developer (Teradata, Informatica Power Center)

💰 ЗП 230-270 тыс. ₽ (ИП)
🌍 Удаленно по РФ, часовой пояс МСК ±2
📅 Полная занятость

🔥 Ищем разработчика для развития и доработки корпоративного хранилища данных (КХД) на Teradata. Если ты знаешь, как работать с большими объемами данных, умеешь писать эффективные SQL-запросы и разбираешься в ETL на Informatica Power Center — welcome!

Что делать:
🔹 Разрабатывать и оптимизировать процессы ETL/ELT на Informatica Power Center
🔹 Проектировать физические модели данных, витрины, алгоритмы загрузки
🔹 Оптимизировать SQL-запросы и работать с данными объемом >1 млрд записей
🔹 Автоматизировать процессы обработки данных в КХД Teradata
🔹 Документировать архитектуру и алгоритмы хранилища

Что нужно знать:
Teradata — проектирование, оптимизация, индексы, партиции
Informatica Power Center — минимум 3 года практики
SQL — сложные выборки, процедуры, оптимизация
MPP-архитектура и распределение данных
Опыт реверс-инжиниринга и работы с чужим кодом

Будет плюсом:
🔹 Опыт работы с Apache Kafka
🔹 Навыки CI/CD (Jira, Confluence, Git, Jenkins)

👉🏻 Если интересно, пиши в Telegram: @Lena_Bekhtereva
#вакансия #ML #datascience #computervision #middle #senior #fulltime #CV #GIS

Вакансия:
Computer Vision Engineer
Компания: «ОЭЗ ППТ «АЛАБУГА»
ЗП: от 375 000 ₽

Всем привет!👋🏻

Мы расширяем штат и ищем увлеченного инженера по компьютерному зрению для работы над инновационными проектами в сфере геоинформационных систем.

Чем предстоит заниматься:
- разработка и доработка моделей для детектирования и сопровождения объектов;
- определение расстояния до объектов и ориентация в пространстве по видеоданным;
- полный цикл разработки CV моделей: от постановки задачи до готового решения;
- оптимизация и внедрение собственных моделей;
- разработка внутренних инструментов для эксплуатации моделей;
- интеграция CV в прикладные решения;
- написание кода для обработки изображений с использованием Python, TensorFlow, PyTorch и др.
- в перспективе координация Data Science команды.

Требования к кандидату:
- уверенные знания нейронных сетей (CNN, RNN, YOLO, семантическая сегментация);
- опыт работы с Python и библиотеками для анализа данных (Pandas, NumPy, Scikit-learn, TensorFlow, PyTorch, Keras);
- опыт работы с микрокомпьютерами (Raspberry Pi, Orange Pi) и NPU модулями;
- умение работать с видеопотоками (RTSP, MJPEG);
- умение анализировать задачи и данные, а также предлагать эффективные технические решения;
- опыт в обработке изображений и анализе данных;
- знание Docker и CI/CD (GitLab CI, Jenkins, Bamboo);
- ответственность и нацеленность на результат.
- опыт работы с камерами и 3D сканерами будет плюсом.

Условия:
- работа в крупной и стабильной компании – в структуре самой большой ОЭЗ в Европе;
- стабильная, официальная и своевременная заработная плата (обсуждается по результатам собеседования);
- график работы: 5/2 с 8:00 до 17:00;
- транспорт до работы;
- доступ к инфраструктуре мирового класса, включая современные офисы с необходимым для работы оборудованием и жилые комплексы;
- гарантия профессионального роста и участие в уникальных и стратегических проектах.

Если Вы ищете возможности для роста, готовы погрузиться в масштабные проекты, которые приносят реальную пользу, и хотите работать в одном из самых амбициозных регионов России, оставьте свой отклик!✍🏻

Контакты для связи: @anastasiya_alabuga

p.s. Так же в связи с масштабированием проекта мы в поисках Frontend-разработчика и Аналитика данных.
#работа #удаленнаяработа #вакансия #DataEngineer #middle #датаинженер

Ищем Data Engineer

Опыт работы: 2–3 года
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 120 000 – 140 000к

Обязанности:

• Разработка хранилищ данных, витрин данных;
• Проектирование, разработка и поддержка ETL-процессов;
• Контроль качества загружаемых данных (ручные и автоматические тесты DQ);
• Интеграция новых источников;
• Работа в команде с системными аналитиками.

Требования:
Обязательно:
• Опыт в языках программирования: SQL, Python;
• Опыт работы с одним или несколькими СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server;
• Опыт использования ETL инструментов: Apache NiFi, Apache Airflow;
Будет плюсом:
• Опыт работы с Hadoop, PySpark;
• Опыт работы с Apache Kafka;
• Опыт работы с Arenadata.

Контактная информация:
Тг: @HR7RedLines
Эл.почта: [email protected]
#работа #удаленнаяработа #вакансия #DataEngineer #middle #датаинженер

Позиция: Data Engineer
Опыт работы: 2–3 года
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 140 000 – 200 000 р.

Мы ищем Data Engineer для разработки и поддержки ETL-процессов, обеспечивающих загрузку, обработку и хранение данных. Вам предстоит работать с Airflow, Hadoop (PySpark), S3 (minio) и PostgreSQL, чтобы создавать надежные и масштабируемые пайплайны данных.

Обязанности:
• Разработка и поддержка ETL-пайплайнов в Apache Airflow
• Загрузка данных из различных источников (API, базы данных, файлы) и их сохранение в S3
• Обработка больших данных с помощью PySpark в Hadoop-кластере
• Оптимизация производительности Spark-задач (партиционирование, кэширование, настройка ресурсов)
• Выгрузка результатов обработки в PostgreSQL
• Мониторинг и обеспечение надежности пайплайнов
• Взаимодействие с аналитиками и разработчиками для уточнения требований

Требования:
• Опыт работы с Apache Airflow версии 2.0 и выше (написание DAG, сенсоры, операторы), от 3х лет
• Знание PySpark и опыт работы с Hadoop (HDFS, YARN), от 2х лет
• Умение работать с облачными хранилищами (S3 или аналоги)
• Опыт работы с PostgreSQL (оптимизация запросов, партиционирование), от 2х лет
• Понимание принципов распределенных вычислений
• Уверенные знания Python и SQL (оптимизация запросов), от 3х лет
• Желателен опыт с Docker, Kubernetes (для оркестрации)

Контактная информация:
Тг: @HR7RedLines
Эл.почта: [email protected]