#Вакансия #job #it #fulltime #полный_день #remote #удаленная_работа #DSE #Big_Data #Java #Scala #Python #Spark #AWS #SQL
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 200 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 250 000 рублей на руки (сильно зависит от квалификации);
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 200 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 250 000 рублей на руки (сильно зависит от квалификации);
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
#Вакансия #job #it #fulltime #полный_день #remote #удаленная_работа #DSE #Big_Data #Java #Scala #Python #Spark #AWS #SQL
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 300 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 300 000 рублей на руки (зависит от квалификации) + KPI по результатам работы;
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 300 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 300 000 рублей на руки (зависит от квалификации) + KPI по результатам работы;
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
Playkot
Home / Playkot
Making games is just as fun as playing them.
#Вакансия #DataEngineer #Удаленно #Scala #Python #SQL #Spark
Должность: Data Engineer
Вилка: 150’000 — 220’000 руб.
Город: удаленно
Занятость: full time
Контакты: @valdavydov
❗️Приглашаем присоединиться к международной быстрорастущей компании в области Big Data.
🔹Мы:
🔹Рассчитываем, что ты:
🔹Тебе предстоит:
🔹Ты сможешь:
Должность: Data Engineer
Вилка: 150’000 — 220’000 руб.
Город: удаленно
Занятость: full time
Контакты: @valdavydov
❗️Приглашаем присоединиться к международной быстрорастущей компании в области Big Data.
🔹Мы:
•
Опытная и динамичная команда с головным офисом в Канаде, г. Торонто. •
Разрабатываем платформу, которая в корне меняет то, как компании работают с большими данными. •
Среди наших клиентов крупнейшие компании финансовой индустрии Северной Америки.🔹Рассчитываем, что ты:
•
Имеешь опыт работы от 2-х лет в роли Data Engineer. •
Прекрасно знаешь Scala. •
Знаком с SQL и Python. Если не знаешь Python, научим. Главное — Scala. •
Уверенно разрабатываешь на Apache Spark и глубоко понимаешь методы оптимизации Spark приложений. •
Умеешь пользоваться AWS EMR. •
Имеешь опыт в построении Data Warehouse и Data Lake. •
Понимаешь, что Lakehouse — это не “дом у озера”, а, возможно, лучшая архитектура управления данными.🔹Тебе предстоит:
•
Разрабатывать инновационные решения для обработки больших данных. •
Формировать автоматизированные ETL пайплайны. •
Оптимизировать Spark приложения. •
Выстраивать архитектуру управления данными.🔹Ты сможешь:
•
Приобрести уникальный опыт работы в сильной международной команде. •
Расти и развиваться вместе с компанией. •
Реализовать свои самые смелые идеи обработки больших данных.#вакансия #vacancy #DataEngineer #MLOps #python #C++ #Senior #AWS #Kubernetes #k8s #PyTorch #Linux #ML #Spark #CICD #ApacheAirflow
Вакансия: MLOps/Data Engineer
Компания: Уже более 10 лет успешно занимаемся высокочастотной алгоритмической торговлей (HFT). Работаем в 7 странах на крупнейших фондовых и криптовалютных биржах от Чикаго до Токио, где наша деятельность охватывает торговлю акциями, облигациями, фьючерсами, опционами, валютой и всеми производными цифровых активов. В цифрах это: 20+ дата-центров, 2000+ торговых стратегий, которые применяем на 3000+ инструментах, где в среднем совершаем 150 млн сделок с оборотом сотни млрд $ в месяц.
Офисы компании расположены в городах Санкт-Петербург, Лимасол (Кипр) и Савона (Италия).
Уровень зп: 400 000 руб net;
Формат: Гибкий график, г. Санкт-Петербург
Занятость: полная занятость, 5/2;
📍Какие задачи предстоит решать:
• Разработка, развитие и поддержка пайплайна для регулярного обучения-валидации-деплоя моделей;
• Поддержка и развитие слоя выгрузки данных из самописного хранилища в Python для обучения моделей (С++ и Python);
• Настраивать необходимую под задачи инфраструктуру (AWS) и заниматься DevOps-поддержкой ML-разработки;
• Помощь в проведении исследовний — внедрение тулов для ML Experiment Tracking;
• Миграция существующих моделей из Python в С++ и оптимизация перфоманса моделей в проде (борьба за 10-ки мкс).
🖇Наши ожидания :
• Питонист уровня анаконда, который умеет в дата-инженерию и MLOps;
• Знание классических алгоритмов и структур данных;
• Опыт написания оберток Python к С++ или встраивания в С++;
• Опыт с PyTorch, AWS, Airflow, Kubernetes и Spark.
Будет преимуществом:
• Знание Linux на продвинутом уровне;
• Интерес к нашей кухне.
🧸Что готовы предложить:
• Отсутствие формализма и бюрократии, широкий спектр нетривиальных задач и возможностей для реализации собственных идей;
• Нет жестких сроков и чрезмерного прессинга сверху - мы не контролируем рабочий процесс, но создаем условия, чтобы каждый был заинтересован в результате;
• Набор бенефитов, поддержку релокации, оплачиваемые командировки в Европейский офис и не только;
• Современное оборудование и ПО в производстве, новое железо и все необходимое для продуктивной работы.
Отправляйте свое CV: @Madam_Sophie
Вакансия: MLOps/Data Engineer
Компания: Уже более 10 лет успешно занимаемся высокочастотной алгоритмической торговлей (HFT). Работаем в 7 странах на крупнейших фондовых и криптовалютных биржах от Чикаго до Токио, где наша деятельность охватывает торговлю акциями, облигациями, фьючерсами, опционами, валютой и всеми производными цифровых активов. В цифрах это: 20+ дата-центров, 2000+ торговых стратегий, которые применяем на 3000+ инструментах, где в среднем совершаем 150 млн сделок с оборотом сотни млрд $ в месяц.
Офисы компании расположены в городах Санкт-Петербург, Лимасол (Кипр) и Савона (Италия).
Уровень зп: 400 000 руб net;
Формат: Гибкий график, г. Санкт-Петербург
Занятость: полная занятость, 5/2;
📍Какие задачи предстоит решать:
• Разработка, развитие и поддержка пайплайна для регулярного обучения-валидации-деплоя моделей;
• Поддержка и развитие слоя выгрузки данных из самописного хранилища в Python для обучения моделей (С++ и Python);
• Настраивать необходимую под задачи инфраструктуру (AWS) и заниматься DevOps-поддержкой ML-разработки;
• Помощь в проведении исследовний — внедрение тулов для ML Experiment Tracking;
• Миграция существующих моделей из Python в С++ и оптимизация перфоманса моделей в проде (борьба за 10-ки мкс).
🖇Наши ожидания :
• Питонист уровня анаконда, который умеет в дата-инженерию и MLOps;
• Знание классических алгоритмов и структур данных;
• Опыт написания оберток Python к С++ или встраивания в С++;
• Опыт с PyTorch, AWS, Airflow, Kubernetes и Spark.
Будет преимуществом:
• Знание Linux на продвинутом уровне;
• Интерес к нашей кухне.
🧸Что готовы предложить:
• Отсутствие формализма и бюрократии, широкий спектр нетривиальных задач и возможностей для реализации собственных идей;
• Нет жестких сроков и чрезмерного прессинга сверху - мы не контролируем рабочий процесс, но создаем условия, чтобы каждый был заинтересован в результате;
• Набор бенефитов, поддержку релокации, оплачиваемые командировки в Европейский офис и не только;
• Современное оборудование и ПО в производстве, новое железо и все необходимое для продуктивной работы.
Отправляйте свое CV: @Madam_Sophie
Мы – компания Sense Machine - лидеры на российском рынке нейробиологических исследований. Изучаем эмоциональный отклик на рекламные ролики, ТВ контент, прототипы приложений и многое другое, вплоть до дизайна интерьера банков с использованием собственной facial coding платформы. Являемся сердцем крупнейшей в Европе UX - лаборатории Альфа – банка и работаем с самыми большими клиентами российского рынка, такими как Альфа-банк, МТС, Danone, Ozon, Мail.ru, Lamoda, Самокат, Sokolov
Компания представляет из себя команду людей, по-настоящему увлечённых наукой и её технической интерпретацией, которая делает уникальный продукт, меняющий представление о познании и востребованный самыми крупными игроками. Этот продукт показывает рост в одном из наиболее востребованных сегментов современного наукоёмкого бизнеса - нейробиологических исследованиях, которые до 2024 года по оценке Gartner будут применяться в 50% всех маркетинговых тестов.
Мы строим настоящий двигатель того, как будут совершаться открытия о человеческом восприятии в ближайшее время и уверены, что талантливые и открытые знаниям люди – это то, что нам нужно на этом пути
На данном этапе, мы в поиске профессионального Lead Data Scientist в нашу драйвовую команду.
Требования к кандидату:
- Высшее профильное образование (инженерное или математическое)
- Опыт коммерческой разработки в области DS/ML на Python
- Наличие успешных коммерческих проектов или проектов в эксплуатации
- Опыт поддержки и развития продуктов находящихся в эксплуатации
- Уверенные знания и опыт работы с #Python для анализа данных, включая основные библиотеки ( #numpy, #scipy, #pandas, #Scikit-learn)
- Опыт работы с технологиями Face Detection, Face Analyze, Computer Vision.
- Опыт работы с #Tensorflow / #PyTorch / #OpenVINO
- Умение разбираться в чужом коде
- Опыт постановки задач
Желательно:
- Опыт работы с #SQL
- Опыт работы с Apache Spark ( #Pyspark / Scala, #Spark SQL)
- Знание #Docker
Ваши обязанности:
• Рефакторинг существующей системы
• Создание улучшенного решения на основании текущего
• Постановка и контроль выполнения задач
• Построение процессов тестирования решений на базе технологий обработки видео с помощью нейросетевых моделей
• Разработка алгоритмов преобразования данных
• Организация процессов разработки и руководство командой ML-специалистов
• Взаимодействие с командой аналитики и разработки инфраструктуры
• Контроль исполнения задач
Что предлагаем мы:
- Работа в команде разработчиков, сердцем которой является data science. - Большое количество очень интересных гипотез, которые основаны на современных научных теориях и большой простор в их проверке, освоение которого будет поддержано профессиональными и увлечёнными коллегами
- Амбициозные задачи, масштабные проекты и возможность создать по-настоящему уникальный продукт, который сможет быть стандартом индустрии.
- Большую продуктовую команду мечты – все ребята ладят с методами изучения данных и ходят не с проблемами, но с предложениями
- Всю нужную инфраструктуру и поддержку в экспериментах
Участие в работе крупнейшей в Европе ux лаборатории
- Оплата обучения и тренингов для вашего профессионального роста
- Белая заработная плата.
- Фиксированный, достойный оклад от 300 до 500 k ( обсуждаем на собеседовании)
- Возможность работать удаленно
Уютный "pet-frendly" офис, в 2-минутах от метро Парк Культуры (да, можно приносить/приводить с собой пушистых любимцев)
- Официальное трудоустройство с первого рабочего дня, полное соблюдение ТК РФ
- Отсутствие строгого дресс-кода и бюрократии, открытость и лояльность руководства, общение на - "ты"
Мы всегда готовы принять в команду талантливых и перспективных сотрудников, готовых стать частью нашей классной команды и делать мир рекламы лучше с помощью нашей платформы. В свою очередь мы готовы делится своим опытом, экспертностью, всячески направлять и поддерживать
Откликайтесь или отправляйте свое резюме:
https://yangx.top/hr_sensemachine
почта- [email protected]
Просьба в письме указывать желаемый уровень заработной платы!
Компания представляет из себя команду людей, по-настоящему увлечённых наукой и её технической интерпретацией, которая делает уникальный продукт, меняющий представление о познании и востребованный самыми крупными игроками. Этот продукт показывает рост в одном из наиболее востребованных сегментов современного наукоёмкого бизнеса - нейробиологических исследованиях, которые до 2024 года по оценке Gartner будут применяться в 50% всех маркетинговых тестов.
Мы строим настоящий двигатель того, как будут совершаться открытия о человеческом восприятии в ближайшее время и уверены, что талантливые и открытые знаниям люди – это то, что нам нужно на этом пути
На данном этапе, мы в поиске профессионального Lead Data Scientist в нашу драйвовую команду.
Требования к кандидату:
- Высшее профильное образование (инженерное или математическое)
- Опыт коммерческой разработки в области DS/ML на Python
- Наличие успешных коммерческих проектов или проектов в эксплуатации
- Опыт поддержки и развития продуктов находящихся в эксплуатации
- Уверенные знания и опыт работы с #Python для анализа данных, включая основные библиотеки ( #numpy, #scipy, #pandas, #Scikit-learn)
- Опыт работы с технологиями Face Detection, Face Analyze, Computer Vision.
- Опыт работы с #Tensorflow / #PyTorch / #OpenVINO
- Умение разбираться в чужом коде
- Опыт постановки задач
Желательно:
- Опыт работы с #SQL
- Опыт работы с Apache Spark ( #Pyspark / Scala, #Spark SQL)
- Знание #Docker
Ваши обязанности:
• Рефакторинг существующей системы
• Создание улучшенного решения на основании текущего
• Постановка и контроль выполнения задач
• Построение процессов тестирования решений на базе технологий обработки видео с помощью нейросетевых моделей
• Разработка алгоритмов преобразования данных
• Организация процессов разработки и руководство командой ML-специалистов
• Взаимодействие с командой аналитики и разработки инфраструктуры
• Контроль исполнения задач
Что предлагаем мы:
- Работа в команде разработчиков, сердцем которой является data science. - Большое количество очень интересных гипотез, которые основаны на современных научных теориях и большой простор в их проверке, освоение которого будет поддержано профессиональными и увлечёнными коллегами
- Амбициозные задачи, масштабные проекты и возможность создать по-настоящему уникальный продукт, который сможет быть стандартом индустрии.
- Большую продуктовую команду мечты – все ребята ладят с методами изучения данных и ходят не с проблемами, но с предложениями
- Всю нужную инфраструктуру и поддержку в экспериментах
Участие в работе крупнейшей в Европе ux лаборатории
- Оплата обучения и тренингов для вашего профессионального роста
- Белая заработная плата.
- Фиксированный, достойный оклад от 300 до 500 k ( обсуждаем на собеседовании)
- Возможность работать удаленно
Уютный "pet-frendly" офис, в 2-минутах от метро Парк Культуры (да, можно приносить/приводить с собой пушистых любимцев)
- Официальное трудоустройство с первого рабочего дня, полное соблюдение ТК РФ
- Отсутствие строгого дресс-кода и бюрократии, открытость и лояльность руководства, общение на - "ты"
Мы всегда готовы принять в команду талантливых и перспективных сотрудников, готовых стать частью нашей классной команды и делать мир рекламы лучше с помощью нашей платформы. В свою очередь мы готовы делится своим опытом, экспертностью, всячески направлять и поддерживать
Откликайтесь или отправляйте свое резюме:
https://yangx.top/hr_sensemachine
почта- [email protected]
Просьба в письме указывать желаемый уровень заработной платы!
#вакансия #удаленно #dataengineer #de #spark #databricks #kafka #
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
#вакансия
Data Engineer в VK Adtech, Москва
Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.
Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.
У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.
Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.
Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.
Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.
✍️ Отправить CV и по всем вопросам: https://yangx.top/olkony
#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
Data Engineer в VK Adtech, Москва
Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.
Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.
У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.
Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.
Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.
Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.
✍️ Отправить CV и по всем вопросам: https://yangx.top/olkony
#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
#вакансия #de #fintech #remote
Привет! Мы в поиске Data Engineer (middle+)
Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset
Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.
📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH
📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения
📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)
📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных
По всем вопросам обращаться: @odu_v_an
Привет! Мы в поиске Data Engineer (middle+)
Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset
Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.
📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH
📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения
📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)
📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных
По всем вопросам обращаться: @odu_v_an
#вакансия #hadoop #sql #java #hive #spark #python #scrum #agile
🚀 Вакансия: Старший разработчик Hadoop 🚀
Локация: Санкт-Петербург/Москва (гибридный формат)
Вилка: 250 - 350К
✈️ Готовы обсудить релокационный пакет для кандидата не из Санкт-Петербурга и Москвы.
О нас:
Мы — ведущий банк России, активно развивающий свои цифровые продукты и услуги. Сейчас мы ищем опытного и амбициозного Старшего разработчика Hadoop, который присоединится к нашей команде для работы над инновационными проектами в области данных и аналитики.
Что вам предстоит делать:
- 🤝 Взаимодействовать с бизнес-заказчиками, понимать и структурировать их требования.
- ✍️ Разрабатывать функциональные требования для построения витрин данных.
- 🛠 Создавать прототипы витрин с использованием SQL, Java, Python, Spark.
- 🧪 Разрабатывать алгоритмы тестирования.
- 📑 Документировать разрабатываемые компоненты ПО.
- 🔧 Устранять дефекты, анализировать и исправлять инциденты в рамках 3-й линии поддержки.
- 🏃♂️ Работать в SCRUM спринтах.
Наши ожидания:
- ✅ Знание SQL (подтверждается прохождением теста).
- 📈 Опыт в бизнес и системном анализе не менее 2 лет: выявление, фиксация, согласование требований, постановка задач разработке, разработка проектной и сопроводительной системной документации.
- 👥 Опыт командной разработки с использованием Jira и Confluence; знание BitBucket будет плюсом.
- 🧩 Умение формализовывать задачи в виде четких и понятных алгоритмов.
- 🎓 Высшее образование.
- 💬 Отличные коммуникативные навыки, самостоятельность, внимательность к деталям, обязательность, ответственность.
Будет преимуществом:
- 📚 Опыт работы с Hadoop и знания его архитектуры.
- 🖥 Знание Hive, Java, Python, Spark.
- 🏃 Опыт работы в Agile.
- 📜 Знание и умение работы с wiki-системой Confluence и трекинговыми системами (Jira, Redmine и т.д.).
- 🏦 Знание банковской предметной области.
Мы предлагаем:
- 📄 Официальное оформление и стабильный, прозрачный доход.
- 🏆 Все льготы и преимущества работы в аккредитованной ИТ-компании.
- 🎁 Партнерские программы и скидки для сотрудников.
- 🏢 Гибридный формат работы.
Если вы хотите развиваться в динамичной компании и работать над интересными проектами в сфере больших данных, мы будем рады видеть вас в нашей команде!
🙋🏼♀️По всем вопросам к @BekhterevaElena
🚀 Вакансия: Старший разработчик Hadoop 🚀
Локация: Санкт-Петербург/Москва (гибридный формат)
Вилка: 250 - 350К
✈️ Готовы обсудить релокационный пакет для кандидата не из Санкт-Петербурга и Москвы.
О нас:
Мы — ведущий банк России, активно развивающий свои цифровые продукты и услуги. Сейчас мы ищем опытного и амбициозного Старшего разработчика Hadoop, который присоединится к нашей команде для работы над инновационными проектами в области данных и аналитики.
Что вам предстоит делать:
- 🤝 Взаимодействовать с бизнес-заказчиками, понимать и структурировать их требования.
- ✍️ Разрабатывать функциональные требования для построения витрин данных.
- 🛠 Создавать прототипы витрин с использованием SQL, Java, Python, Spark.
- 🧪 Разрабатывать алгоритмы тестирования.
- 📑 Документировать разрабатываемые компоненты ПО.
- 🔧 Устранять дефекты, анализировать и исправлять инциденты в рамках 3-й линии поддержки.
- 🏃♂️ Работать в SCRUM спринтах.
Наши ожидания:
- ✅ Знание SQL (подтверждается прохождением теста).
- 📈 Опыт в бизнес и системном анализе не менее 2 лет: выявление, фиксация, согласование требований, постановка задач разработке, разработка проектной и сопроводительной системной документации.
- 👥 Опыт командной разработки с использованием Jira и Confluence; знание BitBucket будет плюсом.
- 🧩 Умение формализовывать задачи в виде четких и понятных алгоритмов.
- 🎓 Высшее образование.
- 💬 Отличные коммуникативные навыки, самостоятельность, внимательность к деталям, обязательность, ответственность.
Будет преимуществом:
- 📚 Опыт работы с Hadoop и знания его архитектуры.
- 🖥 Знание Hive, Java, Python, Spark.
- 🏃 Опыт работы в Agile.
- 📜 Знание и умение работы с wiki-системой Confluence и трекинговыми системами (Jira, Redmine и т.д.).
- 🏦 Знание банковской предметной области.
Мы предлагаем:
- 📄 Официальное оформление и стабильный, прозрачный доход.
- 🏆 Все льготы и преимущества работы в аккредитованной ИТ-компании.
- 🎁 Партнерские программы и скидки для сотрудников.
- 🏢 Гибридный формат работы.
Если вы хотите развиваться в динамичной компании и работать над интересными проектами в сфере больших данных, мы будем рады видеть вас в нашей команде!
🙋🏼♀️По всем вопросам к @BekhterevaElena
#вакансия #de #dataengineer #etl #sql #hadoop #spark
Data Engineer для агротехнологических проектов
При отклике на вакансию сразу присылайте резюме @echeveria_woman
Отклики без резюме рассматриваться не будут!
Ключевые обязанности:
- Разработка и поддержка ETL-процессов
- Управление базами и хранилищами данных
- Интеграция данных из разных источников (сенсоры, спутниковые снимки,
IoT устройства, и тд, и тп)
- Оптимизация систем обработки данных
Ключевые требования:
- 3+ лет опыта в Data Engineering
- Уверенное владение SQL и базами данных (PostgreSQL, MySQL, NoSQL)
- Опыт работы с ETL-инструментами (Apache Airflow, Talend, Informatica, и тд)
- Знание облачных платформ (AWS, GCP, Azure)
- Навыки программирования (Python/Java)
- Опыт с big data (Hadoop, Spark)
- Понимание DevOps и CI/CD
Будет преимуществом:
- Опыт в агросфере
- Знание GIS-технологий
- Опыт с Docker и Kubernetes
Мы предлагаем:
- Вилку 3.5-5 тысяч долларов в месяц
- Гибкий график
- Работу в команде профессионалов
- Возможности для роста
- Участие в значимых агропроектах
Data Engineer для агротехнологических проектов
При отклике на вакансию сразу присылайте резюме @echeveria_woman
Отклики без резюме рассматриваться не будут!
Ключевые обязанности:
- Разработка и поддержка ETL-процессов
- Управление базами и хранилищами данных
- Интеграция данных из разных источников (сенсоры, спутниковые снимки,
IoT устройства, и тд, и тп)
- Оптимизация систем обработки данных
Ключевые требования:
- 3+ лет опыта в Data Engineering
- Уверенное владение SQL и базами данных (PostgreSQL, MySQL, NoSQL)
- Опыт работы с ETL-инструментами (Apache Airflow, Talend, Informatica, и тд)
- Знание облачных платформ (AWS, GCP, Azure)
- Навыки программирования (Python/Java)
- Опыт с big data (Hadoop, Spark)
- Понимание DevOps и CI/CD
Будет преимуществом:
- Опыт в агросфере
- Знание GIS-технологий
- Опыт с Docker и Kubernetes
Мы предлагаем:
- Вилку 3.5-5 тысяч долларов в месяц
- Гибкий график
- Работу в команде профессионалов
- Возможности для роста
- Участие в значимых агропроектах
#вакансия #удалённо #parttime #преподаватель #Kafka #spark #ML #MLOps
Время делиться знаниями!
OTUS – образовательная платформа. У нас авторские курсы разной степени сложности, вступительное тестирование для студентов и преподаватели-практики из крупнейших компаний. 7 лет мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия преподаватель на онлайн-курсы:
- Machine Learning Advanced
- Apache Kafka
- Data Engineer
- Spark developer
- MLOps
Требуется практический опыт по темам курса. Можно без опыта преподавания, мы поможем вам освоить практики преподавания.
Преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия проводятся c 20:00 до 21:30. Можно выбирать комфортную нагрузку и темы из программы курса. Материалы к занятиям есть.
С нами вы сможете ✅
- структурировать свой опыт и знания;
- прокачать софт-скиллы;
- получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- можно приглашать лучших выпускников к себе на работу;
- воркшопы и конференции для наших преподавателей.
Обсудить подробнее: @HR_Nikita
Время делиться знаниями!
OTUS – образовательная платформа. У нас авторские курсы разной степени сложности, вступительное тестирование для студентов и преподаватели-практики из крупнейших компаний. 7 лет мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия преподаватель на онлайн-курсы:
- Machine Learning Advanced
- Apache Kafka
- Data Engineer
- Spark developer
- MLOps
Требуется практический опыт по темам курса. Можно без опыта преподавания, мы поможем вам освоить практики преподавания.
Преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия проводятся c 20:00 до 21:30. Можно выбирать комфортную нагрузку и темы из программы курса. Материалы к занятиям есть.
С нами вы сможете ✅
- структурировать свой опыт и знания;
- прокачать софт-скиллы;
- получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- можно приглашать лучших выпускников к себе на работу;
- воркшопы и конференции для наших преподавателей.
Обсудить подробнее: @HR_Nikita
#DataScience #МашинноеОбучение #ML #Python #АналитикаДанных #BigData #Spark #УдаленнаяРабота #MachineLearning #FullTime #Senior
Вакансия: Data Scientist (Senior)
Грейд: Senior
Локация: РФ
Занятость: Полная (Full Time)
Зарплата: 300-400 тыс руб
📌Чем предстоит заниматься:
Разрабатывать и улучшать модель прогнозирования спроса для торговых точек компании (как долгосрочного, так и краткосрочного).
📌Наши ожидания:
▪️Опыт работы в Data Science не менее 4 лет, участие как минимум в двух успешных проектах.
▪️Профильное образование или специализированные курсы (технических факультетов крупных вузов; техническая специальность - математика, физика, программная инженерия, компьютерные науки, науки о данных. )
▪️Опыт в классическом машинном обучении (модели предсказания, работа с большими данными) и уверенные навыки работы с такими технологиями, как Spark, Git, Python (numpy, pandas, matplotlib).
▪️Рассматриваются кандидаты с опытом работы в Data Science, аналитике данных и Data Engineering.
📌Мы предлагаем:
▪️Оформление по ИП
▪️Удалённый формат работы
▪️Участие в масштабных и интересных проектах с возможностью профессионального роста
▪️Гибкий график работы, позволяющий сохранять баланс между работой и личной жизнью
▪️Доступ к передовым инструментам и технологиям для реализации ваших идей
▪️Работа в команде высококлассных специалистов и экспертов в области Data Science
✉️ Резюме - @Elena_Bekhtereva
Вакансия: Data Scientist (Senior)
Грейд: Senior
Локация: РФ
Занятость: Полная (Full Time)
Зарплата: 300-400 тыс руб
📌Чем предстоит заниматься:
Разрабатывать и улучшать модель прогнозирования спроса для торговых точек компании (как долгосрочного, так и краткосрочного).
📌Наши ожидания:
▪️Опыт работы в Data Science не менее 4 лет, участие как минимум в двух успешных проектах.
▪️Профильное образование или специализированные курсы (технических факультетов крупных вузов; техническая специальность - математика, физика, программная инженерия, компьютерные науки, науки о данных. )
▪️Опыт в классическом машинном обучении (модели предсказания, работа с большими данными) и уверенные навыки работы с такими технологиями, как Spark, Git, Python (numpy, pandas, matplotlib).
▪️Рассматриваются кандидаты с опытом работы в Data Science, аналитике данных и Data Engineering.
📌Мы предлагаем:
▪️Оформление по ИП
▪️Удалённый формат работы
▪️Участие в масштабных и интересных проектах с возможностью профессионального роста
▪️Гибкий график работы, позволяющий сохранять баланс между работой и личной жизнью
▪️Доступ к передовым инструментам и технологиям для реализации ваших идей
▪️Работа в команде высококлассных специалистов и экспертов в области Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
#вакансия #удалённо #parttime #преподаватель #Kafka #spark #MLOps
Время делиться знаниями!
OTUS – образовательная платформа. У нас авторские курсы разной степени сложности, вступительное тестирование для студентов и преподаватели-практики из крупнейших компаний. 8 лет мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия преподаватель на онлайн-курсы:
- MLOps
- Apache Kafka
- Data Engineer
- Spark developer
Требуется практический опыт по темам курса. Можно без опыта преподавания, мы поможем вам освоить практики преподавания.
Преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия проводятся c 20:00 до 21:30. Можно выбирать комфортную нагрузку и темы из программы курса. Материалы к занятиям есть.
С нами вы сможете ✅
- структурировать свой опыт и знания;
- прокачать софт-скиллы;
- получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- можно приглашать лучших выпускников к себе на работу;
- воркшопы и конференции для наших преподавателей.
Обсудить подробнее: @HR_Nikita
Время делиться знаниями!
OTUS – образовательная платформа. У нас авторские курсы разной степени сложности, вступительное тестирование для студентов и преподаватели-практики из крупнейших компаний. 8 лет мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия преподаватель на онлайн-курсы:
- MLOps
- Apache Kafka
- Data Engineer
- Spark developer
Требуется практический опыт по темам курса. Можно без опыта преподавания, мы поможем вам освоить практики преподавания.
Преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия проводятся c 20:00 до 21:30. Можно выбирать комфортную нагрузку и темы из программы курса. Материалы к занятиям есть.
С нами вы сможете ✅
- структурировать свой опыт и знания;
- прокачать софт-скиллы;
- получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- можно приглашать лучших выпускников к себе на работу;
- воркшопы и конференции для наших преподавателей.
Обсудить подробнее: @HR_Nikita
#вакансия #удалённо #parttime #преподаватель #Kafka #spark
Время делиться знаниями!
OTUS – образовательная платформа. У нас авторские курсы разной степени сложности, вступительное тестирование для студентов и преподаватели-практики из крупнейших компаний. 8 лет мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия преподаватель на онлайн-курсы:
- Apache Kafka
- Spark developer
Требуется практический опыт по темам курса. Можно без опыта преподавания, мы поможем вам освоить практики преподавания.
Преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия проводятся c 20:00 до 21:30. Можно выбирать комфортную нагрузку и темы из программы курса. Материалы к занятиям есть.
С нами вы сможете ✅
- структурировать свой опыт и знания;
- прокачать софт-скиллы;
- получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- можно приглашать лучших выпускников к себе на работу;
- воркшопы и конференции для наших преподавателей.
Обсудить подробнее: @HR_Nikita
Время делиться знаниями!
OTUS – образовательная платформа. У нас авторские курсы разной степени сложности, вступительное тестирование для студентов и преподаватели-практики из крупнейших компаний. 8 лет мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия преподаватель на онлайн-курсы:
- Apache Kafka
- Spark developer
Требуется практический опыт по темам курса. Можно без опыта преподавания, мы поможем вам освоить практики преподавания.
Преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия проводятся c 20:00 до 21:30. Можно выбирать комфортную нагрузку и темы из программы курса. Материалы к занятиям есть.
С нами вы сможете ✅
- структурировать свой опыт и знания;
- прокачать софт-скиллы;
- получать от 4000 до 6000 руб. за один вебинар (полтора часа) + от 300 до 400 руб. за одно проверенное домашнее задание.
Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- можно приглашать лучших выпускников к себе на работу;
- воркшопы и конференции для наших преподавателей.
Обсудить подробнее: @HR_Nikita
#вакансия #lead #DataEngineer #DWH #hadoop #spark #airflow #clickhouse #SODA #remote
Ищу к себе в команду DWH в AliExpress Lead Data Engineer
Стек: Hadoop, Spark, Airflow, ClickHouse, SODA (DQ).
Удаленка, возможность оформления вне РФ.
Зона ответственности команды DWH - качественные и своевременные данные в удобном для аналитики виде. За платформу данных и подключение источников к озеру данных отвечает отдельная платформенная команда. Объемы данных в компании исчисляются петабайтами.
Чем предстоит заниматься:
- Оптимизация производительности сложных процессов загрузки данных (Spark);
- Развитие используемых в команде практик и подходов (доработки CI/CD, мониторингов, внутренних библиотек)
- Разработка NRT пайплайнов (Kafka, Spark Structured Streaming, CH);
- Разработка витрин данных (Spark);
- Менторинг разработчиков и контроль за соблюдением стандартов.
Мы ожидаем от Вас:
- Опыт работы со Spark и глубокое понимание его устройства;
- Опыт работы с Python или Java от 3-х лет;
- Опыт работы c ClickHouse;
- Опыт написания дата пайплайнов, опыт работы с Airflow;
- Понимание подходов к организации разработки (CI/CD, DevOps).
Будет плюсом:
- Опыт разработки потоковой обработки данных;
- Опыт работы с форматом iceberg;
- Опыт управления небольшой командой.
По вопросам и с резюме: @shh1_01
Ищу к себе в команду DWH в AliExpress Lead Data Engineer
Стек: Hadoop, Spark, Airflow, ClickHouse, SODA (DQ).
Удаленка, возможность оформления вне РФ.
Зона ответственности команды DWH - качественные и своевременные данные в удобном для аналитики виде. За платформу данных и подключение источников к озеру данных отвечает отдельная платформенная команда. Объемы данных в компании исчисляются петабайтами.
Чем предстоит заниматься:
- Оптимизация производительности сложных процессов загрузки данных (Spark);
- Развитие используемых в команде практик и подходов (доработки CI/CD, мониторингов, внутренних библиотек)
- Разработка NRT пайплайнов (Kafka, Spark Structured Streaming, CH);
- Разработка витрин данных (Spark);
- Менторинг разработчиков и контроль за соблюдением стандартов.
Мы ожидаем от Вас:
- Опыт работы со Spark и глубокое понимание его устройства;
- Опыт работы с Python или Java от 3-х лет;
- Опыт работы c ClickHouse;
- Опыт написания дата пайплайнов, опыт работы с Airflow;
- Понимание подходов к организации разработки (CI/CD, DevOps).
Будет плюсом:
- Опыт разработки потоковой обработки данных;
- Опыт работы с форматом iceberg;
- Опыт управления небольшой командой.
По вопросам и с резюме: @shh1_01