#вакансия #гибрид #РФ #РБ #middle #junior #dataengineer
👁🗨 Компания: Aston
👁🗨 Уровень: junior, middle
👁🗨 Локация: Москва, Екатеринбург, Ростов, Санкт-Петербург, Казань Формат работы: гибрид
👁🗨 З/п: от 200 000 до 310 000 RUB gross
👁 Аутсорсинговая аккредитованная IT-компания Aston ищет Data Engineer в свою команду.
🦾 Что мы ждем от кандидата:
- опыт работы в роли Data Engineer от 2-х лет;
- желание заниматься разработкой и сопровождением больших баз данных для сложной предметной области;- опыт работы с Big Data (Hadoop, Green Plum), понимание принципов построения хранилищ данных;
- понимание внутренней архитектуры и инфраструктуры Hadoop;- наличие навыков оптимизации решений, основанных на Hadoop;
- уверенное знание языков SQL и желательно PL/pgSQL, PL/SQL или TSQL;- опыт использования CASE-средств проектирования БД (ERWin, PowerDesinger и т.п.);
- наличие навыков реализации ETL-процессов;- знание английского языка на уровне понимания технической документации.
👍 Будет плюсом:
- наличие навыков проектирования реляционных баз данных;- наличие опыта работы с большими данными в одной из промышленных РСУБД (PostgreSQL, Oracle, MSSQL);
- опыт администрирования баз данных;- опыт физического проектирования баз данных;
- опыт разработки ETL-процессов в Informatica PowerCenter или аналогичных инструментах;- опыт разработки и сопровождения процессов репликации (Oracle GoldenGate, Kafka);
- знание Powershell или unix shell;
- знание Spring, Java Enterprise Edition (J2EE).
Пишите, чтобы скорее узнать подробности!
И не забудьте уточнить, что вы из @datasciencejobs
Контакты: @AntonRuskevich
👁🗨 Компания: Aston
👁🗨 Уровень: junior, middle
👁🗨 Локация: Москва, Екатеринбург, Ростов, Санкт-Петербург, Казань Формат работы: гибрид
👁🗨 З/п: от 200 000 до 310 000 RUB gross
👁 Аутсорсинговая аккредитованная IT-компания Aston ищет Data Engineer в свою команду.
🦾 Что мы ждем от кандидата:
- опыт работы в роли Data Engineer от 2-х лет;
- желание заниматься разработкой и сопровождением больших баз данных для сложной предметной области;- опыт работы с Big Data (Hadoop, Green Plum), понимание принципов построения хранилищ данных;
- понимание внутренней архитектуры и инфраструктуры Hadoop;- наличие навыков оптимизации решений, основанных на Hadoop;
- уверенное знание языков SQL и желательно PL/pgSQL, PL/SQL или TSQL;- опыт использования CASE-средств проектирования БД (ERWin, PowerDesinger и т.п.);
- наличие навыков реализации ETL-процессов;- знание английского языка на уровне понимания технической документации.
👍 Будет плюсом:
- наличие навыков проектирования реляционных баз данных;- наличие опыта работы с большими данными в одной из промышленных РСУБД (PostgreSQL, Oracle, MSSQL);
- опыт администрирования баз данных;- опыт физического проектирования баз данных;
- опыт разработки ETL-процессов в Informatica PowerCenter или аналогичных инструментах;- опыт разработки и сопровождения процессов репликации (Oracle GoldenGate, Kafka);
- знание Powershell или unix shell;
- знание Spring, Java Enterprise Edition (J2EE).
Пишите, чтобы скорее узнать подробности!
И не забудьте уточнить, что вы из @datasciencejobs
Контакты: @AntonRuskevich
#вакансия #vacancy #ищу #job #dataengineer #senior #remote #удаленно#Talend Open Studio#ETL
Компания: Sotex
Локация: Москва
Должность: Data Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду Data Engineer'а преимущественно Middle, Middle+ уровня, для усиления команды проекта нужен специалист с опытом написания ETL на Java в Talend Open Studio.
Обязанности:
- Разрабатывать ETL-процессы поставки данных;
- Находить и устранять неэффективность в существующих процессах и оптимизировать их;
- Разрабатывать структуры хранения данных;
- Создавать витрины данных.
Чего ждём от кандидата:
— Опыт промышленной разработки на Python/ Java от 2-х лет;
— Уверенное знание SQL;
- Знание основных алгоритмов и структур данных
- Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow, Talend Open Studio.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
- Возможности для профессионального роста и развития.
- Работа в дружной команде профессионалов.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: @ryabov_ov или в WhatsApp +79858527774
Компания: Sotex
Локация: Москва
Должность: Data Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду Data Engineer'а преимущественно Middle, Middle+ уровня, для усиления команды проекта нужен специалист с опытом написания ETL на Java в Talend Open Studio.
Обязанности:
- Разрабатывать ETL-процессы поставки данных;
- Находить и устранять неэффективность в существующих процессах и оптимизировать их;
- Разрабатывать структуры хранения данных;
- Создавать витрины данных.
Чего ждём от кандидата:
— Опыт промышленной разработки на Python/ Java от 2-х лет;
— Уверенное знание SQL;
- Знание основных алгоритмов и структур данных
- Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow, Talend Open Studio.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
- Возможности для профессионального роста и развития.
- Работа в дружной команде профессионалов.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: @ryabov_ov или в WhatsApp +79858527774
#вакансия #DataEngineer #medtech #DE #удалённо
Вакансия: Data Engineer (Big Data)
Формат: удалённо на территории РФ
ЗП: до 230k net
Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👉 Не забудьте уточнить, что вы из @datasciencejobs
Вакансия: Data Engineer (Big Data)
Формат: удалённо на территории РФ
ЗП: до 230k net
Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👉 Не забудьте уточнить, что вы из @datasciencejobs
#DataEngineer #ContractPosition #Remote #SQL #BigData #FinancialData #Python #BigQ #Looker #Snowflake
Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, BigQ, Python, Looker (нужен full stack)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для связи: https://yangx.top/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What you will be doing:
As a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.
Responsibilities:
Design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using SQL, NoSQL, and big data technologies.
Develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.
Create an automated process for collecting and visualizing user engagement data from CRM/UI.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines.
• Valid experience with the Google cloud platform (GCP).
• Deep experience with data pipeline and workflow management tools (e.g., Airflow).
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity.
• Strong proficiency in Python.
• Strong proficiency in SQL.
• Familiarity with data visualization tools (Looker ).
• Experience with Snowflake.
• Experience with BigQuery.
• Strong communication skills, both orally and in writing.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier)
Bonus points:
• Experience in venture capital data operations/working with financial data.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier).
• Bachelor's or master's degree in computer science, database management, etc.
Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, BigQ, Python, Looker (нужен full stack)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для связи: https://yangx.top/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What you will be doing:
As a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.
Responsibilities:
Design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using SQL, NoSQL, and big data technologies.
Develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.
Create an automated process for collecting and visualizing user engagement data from CRM/UI.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines.
• Valid experience with the Google cloud platform (GCP).
• Deep experience with data pipeline and workflow management tools (e.g., Airflow).
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity.
• Strong proficiency in Python.
• Strong proficiency in SQL.
• Familiarity with data visualization tools (Looker ).
• Experience with Snowflake.
• Experience with BigQuery.
• Strong communication skills, both orally and in writing.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier)
Bonus points:
• Experience in venture capital data operations/working with financial data.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier).
• Bachelor's or master's degree in computer science, database management, etc.
#вакансия #удаленно #dataengineer #de #spark #databricks #kafka #
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #vacancy #удаленка #remote #AI #мидл #Middle #синьор #Senior #ai #ии #ml #мл #llm #RAG #fullstack #finetuning #NLP #langchain #DataScientist #DataEngineer #MLengineer #api #aideveloper #python
❇️Вакансия: «AI Developer / ИИ Разработчик» Middle/Senior
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная с переходом в полную
Оплата: до 350.000₽ за проект или почасовая
Мы мультибренд занимающийся разработкой и внедрением AI и ML технологий во всех коммерческих отраслях
В связи с расширением мы ищем новых специалистов в нашу команду, а именно: AI Developer, Data Scientist, Data Engineer, ML Engineer
🔸Направления нашей работы:
- Внедрение ИИ/ML для автоматизации процессов
- Внедрение ИИ/ML в web сервисы, браузерные расширения и приложения(mobile)
- Создание продвинутых функциональных AI-Ассистентов
- Обучение/дообучение моделей
- Разработка AI/ML SaaS
🔸Какие задачи вам предстоит решать:
- Работа с LLM(Anthropic, Gemini, OpenAI, Llama, Mistral и др)
- Взаимодействие с API различных сервисов/приложений
- Решение задач по автоматизации бизнес-процессов и написанию скриптов на языке Python
- RAG моделей (с использованием Langchain или др.)
- Fine-tuning open-source моделей
- Text-to-text, text-to-speech, speech-to-text NLP
- Работа с облачными платформами(Google Cloud, Yandex Cloud и др.)
- Использование no-code/low-code инструментов для сокращения издержек (Flowise, Make, Zapier Central, Relevance и др.)
🔸Важный навык:
- Свободное владение Английским языком
🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов бренда на международный рынок
- Возможность профессионального роста и нетворкинга с экспертами в сфере AI и ML со всего мира
- Карьерный рост до Team Lead или CTO одной из компаний
- Отсутствие привязки к месту и возможности легальной оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду
(P.s. вам необязательно быть молодым, но обязательно быть с нами близким по духу)
💬Отправляйте резюме/CV/портфолио: @subscale_ai
❇️Вакансия: «AI Developer / ИИ Разработчик» Middle/Senior
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная с переходом в полную
Оплата: до 350.000₽ за проект или почасовая
Мы мультибренд занимающийся разработкой и внедрением AI и ML технологий во всех коммерческих отраслях
В связи с расширением мы ищем новых специалистов в нашу команду, а именно: AI Developer, Data Scientist, Data Engineer, ML Engineer
🔸Направления нашей работы:
- Внедрение ИИ/ML для автоматизации процессов
- Внедрение ИИ/ML в web сервисы, браузерные расширения и приложения(mobile)
- Создание продвинутых функциональных AI-Ассистентов
- Обучение/дообучение моделей
- Разработка AI/ML SaaS
🔸Какие задачи вам предстоит решать:
- Работа с LLM(Anthropic, Gemini, OpenAI, Llama, Mistral и др)
- Взаимодействие с API различных сервисов/приложений
- Решение задач по автоматизации бизнес-процессов и написанию скриптов на языке Python
- RAG моделей (с использованием Langchain или др.)
- Fine-tuning open-source моделей
- Text-to-text, text-to-speech, speech-to-text NLP
- Работа с облачными платформами(Google Cloud, Yandex Cloud и др.)
- Использование no-code/low-code инструментов для сокращения издержек (Flowise, Make, Zapier Central, Relevance и др.)
🔸Важный навык:
- Свободное владение Английским языком
🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов бренда на международный рынок
- Возможность профессионального роста и нетворкинга с экспертами в сфере AI и ML со всего мира
- Карьерный рост до Team Lead или CTO одной из компаний
- Отсутствие привязки к месту и возможности легальной оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду
(P.s. вам необязательно быть молодым, но обязательно быть с нами близким по духу)
💬Отправляйте резюме/CV/портфолио: @subscale_ai