Data Science Jobs
17K subscribers
44 photos
3 videos
1 file
674 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

🗄Мы в реестре каналов: https://vk.cc/cEZ5Ff

По всем вопросам: @musit
Чат: @bigdata_ru
加入频道
#вакансия #middle #senior #bigdata #Analyst #Datascientist #senior #ABtests #digital #digitalреклама #аналитик

Ведущий Аналитик данных (Python)

Локация: Москва (сотруднику важно находится на территории России)
Занятость: полная
Формат работы: обсуждается
Зарплата: 250000 на руки, ДМС, компенсация бизнес-ланчей

Московский офис международной независимой big-data компании (технологический вендор). Компания продолжает работать в полном объеме на российском рынке и развивает технологии и алгоритмы сбора, сегментации и активации данных о поведении интернет-пользователей, располагает наиболее полным набором технологических решений и широкой экспертизой в области использования аудиторных данных в маркетинге.

🔎Ищем опытного Аналитика данных, который хочет участвовать в комплексном развитие аналитических продуктов компании.

Задачи и обязанности
Создание новых и развитие текущих аналитических продуктов для решения задач клиентов и рынка.
Ежедневная работа собственными технологиями компании.
Коммуникация с глобальной командой по развитию и продвижению аналитических продуктов.
Проведение аудиторных исследований (для лидирующих FMCG, Tech, Entertainment компаний): A/B тесты, кластеризация, презентация клиентам.
Проведение исследований на базе семантического анализа (для лидирующих FMCG, Development компаний): Web scraping, WordClouds, Sentiment analysis, презентация клиентам.
Проведение исследований по динамике роста знаний о продукте клиента - BrandLift (Для лидирующих FMCG, Tech, Pharma компаний): A/B тесты.
Создание кастомных аудиторных сегментов.
Выведение годовых бенчмарков по показателям эффективности рекламных кампаний.
Участие в пре-сейле и защите проекта перед клиентом.

🔎Условия работы
•Возможность профессионального и карьерного роста
•Полностью белая заработная плата
•Премии
•Компенсация обедов
•ДМС
•Оформление только в штат компании

🔎Требования к кандидату
•Опытный специалист (не ниже уровня middle)
•Владение одним из языков программирования: R (tidyverse) / Python (pandas) - опыт использования в работе
•SQL - опыт использования в работе
•Опыт работы на рынке digital-рекламы будет плюсом
•Опыт проведения маркетинговых исследований
•Опыт создания дашбордов в Data Studio будет плюсом
•Уверенное владение Excel, Keynote/PowerPoint
•Английский язык – не ниже intermediate (придется постоянно взаимодействовать с коллегами головного офиса в Европе)
📨Пожалуйста, присылайте резюме @olganikolova
#вакансия #Москва #fulltime #BigData #DS

Позиция:
A/B-tests Team Lead (сейчас команда – 0 человек).
Куда: Альфа-Банк, Департамент продвинутой аналитики
Формат работы: Гибрид - Москва, м. Технопарк + удаленно.


Что нужно делать?
1. Общаться (много!) с владельцами процессов, определять методологию проведения тестов, запускать тесты самостоятельно (или контролировать процесс запуска), анализировать данные и формировать аналитические отчёты, описывать всё это в Confuence, помогать бизнес-заказчикам принимать правильные решения.
2. Создавать с нуля и описывать обобщённую методологию проведения сплит-тестов, которую смогут переиспользовать другие; выстраивать формализованные процессы; распространять и пропагандировать лучшие практики по механикам проведения экспериментов (как в Альфе, так и вовне).
3. Растить функцию на основе череды успехов – с фактами в руках защищать планы роста, быть руководителем и лидером для будущей команды.
4. Принимать участие в создании архитектурных решений для платформ проведения сплит-тестов, в идеале - создания единого контура тестирования моделей машинного обучения.
5. Первоочередные задачи – поддержка экспериментов команды Центра компетенций по NLP Лаборатории машинного обучения.

Мы ожидаем от вас:
1. Опыт руководства функцией сплит-тестирования. Общий опыт работы в этом направлении – от 2 лет.
2. Лидерский опыт (начинать придётся одному), опыт руководства командой (будут успехи – будет команда), проактивность и умение самостоятельно достигать результат.
3. Hard skills: Python, bash, SQL, Hadoop; Tableau/ClickView/PowerBI; BitBucket (Git), JIRA и Confluence.
4. Образование: физ.-мат., техническое, ИТ; хорошая база в мат.стате и теор.вере; чёрный пояс по пакетам для стат. анализа и визуализации в Python (statsmodels, seaborn и т.п.). У нас нет и не будет R 😈
5. Развитые коммуникативные навыки для ведения переговоров с внутренними и внешними контрагентами, некоторые из которых могут быть (ошибочно) уверены, что и так всё понятно, и так всё хорошо работает. Умение писать понятную и грамотную документацию, аналитические записки. Грамотная устная и письменная речь, структурированное изложение мыслей. Время от времени придётся делать презентации на понятном для конкретного заказчика языке - это тоже надо уметь.
6. Идеально, если есть ещё и опыт создания, сопровождения и развития единого фреймворка сплит-тестирования в организации.

Ответы на 10 важных вопросов:
1. Данные: Обычно - Hadoop (все данные Альфа-Банка) + внешние источники по API. Могут быть эзотерические источники – локальные БД (Vertica, MongoDB и т.п.).
2. Железо: Потенциально – 2 TB RAM, 96 cores. Будем отталкиваться от необходимости и можем расширять аллокацию ресурсов. Для работы: MacBook + удалённое рабочее место.
3. Масштаб влияния на core-бизнес? Модели - ядро большинства банковских процессов. Амбиция – ответственность за все тестирование моделей (или процессов, с ними связанных) в Альфа-Банке.
4. Уровень развития Data Science в компании? Все линии бизнеса покрыты ML моделями, где необходимо - успешно внедрен DL.
5. Роль: см. что нужно делать (выше).
6. Бэкграунд у вашего руководителя? https://www.linkedin.com/in/vadimayuyev/
7. Как часто вам будут мешать работать? Пока непонятно. Минимум, 1 час организационных встреч в неделю. Остальное будет зависеть от конкретных заказчиков и операционного ритма с ними.
8. Карьерный рост: формализованная матрица компетенций не создана – придётся разрабатывать.
9. Prod/Research: на начальном этапе Prod – 80% (надо проводить тестирование в боевых процессах), Research – 20% (инвестиция в развитие методологии). В целевом сценарии, после создания и роста команды, пропорция обратная.
10. Функция сервиса или лидера? 50/50. Функция создаётся с 0. Задача – обеспечивать качественный аналитический сервис.

Буду рада познакомиться лично и рассказать подробнее о задачах и компании.
Направить резюме и задать вопросы можно в ТГ @nellismo или на почту [email protected]
#Работа #Удаленка #BigData

Team lead Data Platform в Актион-Технологии

📍 Расположение: Москва
📌 Формат: full-time, гибридный формат или полная удалёнка (можно работать за пределами РФ)
💸 Зарплатная вилка: до 400 тысяч net + годовой KPI

Кто мы? 🤔
Мы большой медиахолдинг с более, чем 25-летней историей, миллиардной выручкой, и гигантскими планами по развитию компании!
Мы разрабатываем полезные сервисы и продукты для 15 профессиональных аудиторий.

И для этого нам не хватает только тебя - человека, которому сможем доверить направление Data Platform 🦾

Что уже успели поделать:
✔️Мы подготовили инфраструктуру на базе Hadoop и GreenPlum для загрузки, обработки и построения витрин данных
✔️Описали и загрузили данные ряда продуктов холдинга и приступили к описанию и загрузке следующих
✔️Запилили более 100 pipelines по загрузке данных
✔️Сделали систему статистики с 40 миллионами событий в день
✔️Создали набор стандартных библиотек для загрузки данных из стандартных источников

Что планируем сделать 🔜
📌Загрузить ещё десяток новых источников
📌Создать Data Catalog
📌Осуществить переход на Airflow2
📌Выделять типовые задачи и удешевлять их разработку

А еще у нас есть задачи на стыке DWH и ML 🤖🦿
📌подготовка данных для обучения разнообразных моделей (у нас тут громадьё планов)
📌написание веб-сервисов для интеграции данных, полученных от ML с продуктами холдинга

Что для нас важно в тебе 🤝
📌Уверенные знания SQL
📌Знание любого ЯП (у нас используется Python, Spark, Go)
📌Знание основ ООП, умение делать поддерживаемые решения
📌Умение организовать процесс загрузки, обработки и доставки обработанных данных конечным потребителям
📌Высокий уровень самообучения
📌Навыки решения бизнес-задач на основе большого количества данных
📌Желание мотивировать и развивать команду
📌Умение оптимизировать процессы разработки

Не обязательно, но будет очень здорово, если 🤘
📌Знаешь Open Source фреймворки Big Data: (Hadoop, MapReduce, Spark & Spark Streaming, Hive, Kafka)
📌Знаком с Apache Nifi и Apache Airflow

Что есть у нас и чем готовы делиться 🎁🍪
📌Белая, своевременная и конкурентоспособная заработная плата
📌ДМС (включая стоматологию)
📌Удобное место для работы и современное “железо”
📌Гибкий график. Начало работы с 8 до 11
📌Удалёнка из-за границы, но продолжаем взаимодействовать по ТК РФ
📌Профессиональный рост (у нас есть внутреннее обучение, возможность посещать конференции и митапы, мы спонсируем))
📌Корпоративная библиотека (огромное количество профессиональной литературы - бери, читай, наслаждайся)
📌Может быть важно: мы аккредитованная ИТ-компания

Звучит здорово? Откликается?)
Напиши нам обязательно, давай обсудим)
Для этого нам всего-то нужно твое CV, а начать коммуникацию можем тут, Telegram - @brauerone
#вакансия #middle #senior #bigdata #Analyst #Datascientist #senior #ABtests #digital #digitalреклама #аналитик

Ведущий Аналитик данных (Python)

Локация: Москва
Занятость: полная
Формат работы: обсуждается
Зарплата: 250000 на руки, ДМС, компенсация бизнес-ланчей

Московский офис международной независимой big-data компании (технологический вендор). Компания продолжает работать в полном объеме на российском рынке и развивает технологии и алгоритмы сбора, сегментации и активации данных о поведении интернет-пользователей, располагает наиболее полным набором технологических решений и широкой экспертизой в области использования аудиторных данных в маркетинге.

🔎Ищем опытного Аналитика данных, который хочет участвовать в комплексном развитие аналитических продуктов компании.

📍Задачи и обязанности
Создание новых и развитие текущих аналитических продуктов для решения задач клиентов и рынка.
Ежедневная работа собственными технологиями компании.
Коммуникация с глобальной командой по развитию и продвижению аналитических продуктов.
Проведение аудиторных исследований (для лидирующих FMCG, Tech, Entertainment компаний): A/B тесты, кластеризация, презентация клиентам.
Проведение исследований на базе семантического анализа (для лидирующих FMCG, Development компаний): Web scraping, WordClouds, Sentiment analysis, презентация клиентам.
Проведение исследований по динамике роста знаний о продукте клиента - BrandLift (Для лидирующих FMCG, Tech, Pharma компаний): A/B тесты.
Создание кастомных аудиторных сегментов.
Выведение годовых бенчмарков по показателям эффективности рекламных кампаний.
Участие в пре-сейле и защите проекта перед клиентом.

🔎Условия работы
•Возможность профессионального и карьерного роста
•Полностью белая заработная плата
•Премии
•Компенсация обедов
•ДМС
•Оформление только в штат компании

🔎Требования к кандидату
•Опытный специалист (не ниже уровня middle)
•Владение одним из языков программирования: R (tidyverse) / Python (pandas) - опыт использования в работе
•SQL - опыт использования в работе
•Опыт работы на рынке digital-рекламы будет плюсом
•Опыт проведения маркетинговых исследований
•Опыт создания дашбордов в Data Studio будет плюсом
•Уверенное владение Excel, Keynote/PowerPoint
•Английский язык – не ниже intermediate (придется постоянно взаимодействовать с коллегами головного офиса в Европе)
📨Пожалуйста, присылайте резюме @olganikolova

Не забудь уточнить, что ты из @datasciencejobs
#DataEngineer #ContractPosition #Remote #SQL #BigData #FinancialData #Python #BigQ #Looker #Snowflake

Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, BigQ, Python, Looker (нужен full stack)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для связи: https://yangx.top/Tary_bird

Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What you will be doing:
As a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.

Responsibilities:
Design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using SQL, NoSQL, and big data technologies.
Develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.
Create an automated process for collecting and visualizing user engagement data from CRM/UI.

What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines.
• Valid experience with the Google cloud platform (GCP).
• Deep experience with data pipeline and workflow management tools (e.g., Airflow).
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity.
• Strong proficiency in Python.
• Strong proficiency in SQL.
• Familiarity with data visualization tools (Looker ).
• Experience with Snowflake.
• Experience with BigQuery.
• Strong communication skills, both orally and in writing.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier)

Bonus points:
• Experience in venture capital data operations/working with financial data.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier).
• Bachelor's or master's degree in computer science, database management, etc.
#DataEngineer #ContractPosition #Remote # GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим откликаться в том случае, если у вас есть полный стек и присылать резюме в формате Word.

Для связи: https://yangx.top/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•  Strong communication skills, both orally and in writing.

Nice to have:

•  BI tool experience on ThoughtSpot (preferred) or Looker
•  Bachelor's or master's degree in computer science, database management, etc.

For those who pay close attention and thoroughly read through job descriptions: please only apply if you possess full-stack capabilities and send your resume in Word format.
#DataEngineer #ContractPosition #Remote #GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим  - откликаться только в том случае, если у вас есть полный стек,  - присылать резюме в формате Word.
Для связи: https://yangx.top/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•   Strong communication skills, both orally and in writing.•  BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:

•  Bachelor's or master's degree in computer science, database management, etc.
#вакансия #Москва #Fulltime #Senior #ML #Highload #BigData
Вакансия: Senior MLOps
Компания: X-Labs AI
Вилка: 350 000 - 450 000 руб.

X-Labs AI — это команда, которая живет машинным обучением и нейронными сетями. Мы создаем и внедряем крутые решения, которые двигают границы возможного и вдохновляют на новые свершения. У нас уже есть линейка продуктов, которые влияют на развитие генеративного ИИ.

Приглашаем тебя стать частью нашей команды, где у каждого есть шанс воплотить свои идеи и создавать что-то по-настоящему важное. Давай вместе работать, придумывать новое и строить будущее ИИ!
P.S. Если ты знаешь, как оптимизировать инференс LLM, то тебе точно к нам 🙂


💻 Чем предстоит заниматься:
Разработкой MLOps-инфраструктуры для задач генерации текста, аудио и видео:
- Оптимизацией использования ресурсов кластера;
- Развертыванием моделей в продакшн;
- Внедрением и поддержкой инструментов отслеживания жизненного цикла моделей и версионирования артефактов (WandB, MLFlow и др.);
- Постепенным развитием MLOps-практик (эффективный инференс LLM, Diffusion Models).

✏️ Чего мы от тебя ждем:

- Опыт работы в качестве DevOps/MLOps от 1 года;
- Базовых навыков работы с Kubernetes (k8s) и готовности глубоко погружаться в разработку и поддержку сервисов в этой среде;
- Опыта работы с микросервсной архитектурой;
- Навыков работы с MLOps инструментами (ClearML/WandB/MLflow и т.п.) или готовности быстро их освоить;
- Опыта работы с CI/CD инструментами.

Будет плюсом:
- Опыт работы с IaC;
- Опыт развертывания LLM в продакшн;
- Опыт оптимизации моделей.

❤️ Что мы предлагаем:
- Возможность развиваться в области MLOps с современными Gen AI моделями;
- Возможность поработать с большим высоконагруженным кластером;
- Работа с новейшими и передовыми архитектурами моделей;
- Сильную команду, с которой можно расти;
- Комфортный офис в Москва-Сити или в Минске;
- Гибкое начало рабочего дня;
- Sick days;
- ДМС;
- Корпоративную технику и все необходимое для работы.

Хочешь узнать подробнее? Пиши напрямую 🐭 @dzherry
#ETL, #data_engineer, #ML, #Highload #BigData #работа #офис

Middle Data Engineer
Формат работы: Офис в Москве/Минске
Компания: X-Labs
ЗП (net): 150 000 – 300 000 руб.

XLabs AI — это команда, которая живет машинным обучением и нейронными сетями. Мы создаем и внедряем крутые решения, которые двигают границы возможного и вдохновляют на новые свершения. У нас уже есть линейка продуктов, которые влияют на развитие генеративного ИИ. Если ты работал с BigData и знаешь, что такое шардинг, то тебе точно к нам.

Стек технологий: Python, MongoDB, Redis, S3, SQL, AirFlow, Git, Docker, K8s, dvc.

Чем предстоит заниматься:
- Разработка собственного Data Catalog;
- Разработка и проектирование хранилища данных для обучения Gen AI моделей (и не только);
- Разработка и поддержка ETL процессов на Python и Spark с использованием Airflow;
- Работа с различными системами хранения (MongoDB, Redis, S3).

Чего мы от тебя ждем:
- Высоких навыков промышленной разработки на Python;
- Понимания основ ML и нейронных сетей;
- Опыта сбора и фильтрации данных для ML моделей (NLP, Video, Audio);
- Опыта работы с S3, AirFlow, Git, Docker;
- Опыта выстраивания и оптимизации ETL-процессов;
- Готовности брать инициативу;
- Мотивируешься смелыми вызовами и нестандартными задачами.

Будет плюсом:
- Опыт работы с большими объёмами данных (>10Tb);
- Опыт работы с изображениями, видео или аудио.

Что мы предлагаем:
- Сильную команду, с которой можно расти;
- Возможность попробовать себя в разных модальностях данных (NLP, Video, Audio);
- Комфортный офис в Москва-Сити или в Минске с бесплатным кофе и снеками;
- Корпоративную технику и все необходимое для работы;
- Гибкое начало рабочего дня;
- Sick days;
- ДМС.

Скинуть резюме или задать вопрос можно @nika_vikitina
#DataScience #МашинноеОбучение #ML #Python #АналитикаДанных #BigData #Spark #УдаленнаяРабота #MachineLearning #FullTime #Senior

Вакансия: Data Scientist (Senior)

Грейд: Senior
Локация: РФ
Занятость: Полная (Full Time)
Зарплата: 300-400 тыс руб

📌Чем предстоит заниматься:
Разрабатывать и улучшать модель прогнозирования спроса для торговых точек компании (как долгосрочного, так и краткосрочного).

📌Наши ожидания:
▪️Опыт работы в Data Science не менее 4 лет, участие как минимум в двух успешных проектах.
▪️Профильное образование или специализированные курсы (технических факультетов крупных вузов; техническая специальность - математика, физика, программная инженерия, компьютерные науки, науки о данных. )
▪️Опыт в классическом машинном обучении (модели предсказания, работа с большими данными) и уверенные навыки работы с такими технологиями, как Spark, Git, Python (numpy, pandas, matplotlib).
▪️Рассматриваются кандидаты с опытом работы в Data Science, аналитике данных и Data Engineering.

📌Мы предлагаем:
▪️Оформление по ИП
▪️Удалённый формат работы
▪️Участие в масштабных и интересных проектах с возможностью профессионального роста
▪️Гибкий график работы, позволяющий сохранять баланс между работой и личной жизнью
▪️Доступ к передовым инструментам и технологиям для реализации ваших идей
▪️Работа в команде высококлассных специалистов и экспертов в области Data Science

✉️Резюме - @Elena_Bekhtereva
Please open Telegram to view this post
VIEW IN TELEGRAM
#вакансия #удалённо #job #remote #parttime #преподаватель #руководитель #DataOps #BigData

Время делиться знаниями!

OTUS ищет руководителя (автора) онлайн-курса DataOps

Мы расширяем команду экспертов (уже более 650 человек) и ищем опытных практикующих специалистов, которым интересно делиться знаниями.
Преподавательский опыт не обязателен — наши методисты помогут вам освоить практики преподавания.

Руководитель - это эксперт, который играет ключевую роль на курсе - разрабатывает программу курса, ведёт часть занятий, работает в команде с преподавателями, методистом и продюсером курса.

Условия:
гибкий график, легко совмещать с основной работой, занятия в вечернее время с 20:00 до 21:30, дни на выбор;
темы занятий на выбор;
от 3000 руб. за проведение одного вебинара (полтора часа), плюс отдельно оплачивается разработка программы курса, разработка материалов (презентации) к 1 занятию, проведение открытых уроков и другие активности.

Еще вы сможете:
внести свой вклад в развитие IT;
структурировать свой опыт и знания;
развивать личный бренд;
проходить наши курсы со скидкой/бесплатно;

Обсудить подробнее: @HR_Nikita