#вакансия #fulltime #СПБ #python #Spark #офис
Вакансия: Middle/Senior Big Data Engineer (Python)
Компания: КА gethead
Формат работы: Удаленка (на время пандемии) дальше офис
Зарплата: 150-260 000 руб. на руки (больше готовы смотреть, в зависимости от опыта)
О проекте:
Проект для американской компании, занимающейся мобильной рекламой. Разработка конвейеров данных для передачи больших объемов данных (более 20 ТБ в месяц) между системами.
Стек:
- Python
- SQL;
- Spark;
- Kafka;
- AWS Kinesis.
Задачи:
- Разработка сложных и эффективных решений для распределенного преобразования данных;
- Разработка ML-моделей;
- Аналитика больших данных.
Мы ждем:
- Опыт разработки на Python (Big Data);
- Опыт работы с потоковыми системами: Spark, Kafka, Kinesis;
- Аналитика больших данных;
- Знание английского на уровне Upper-Intermediate и выше.
Мы предлагаем:
- Участие в крупном международном проекте;
- Возможность работать удаленно на время пандемии;
- Релокационный бонус;
- Программа корпоративных льгот;
- ДМС с первого рабочего дня;
- Активная корпоративная жизнь;
- Возможность длительных командировок в США;
- Корпоративный английский с носителями.
Контакты для связи: @mariasamborskaya
Вакансия: Middle/Senior Big Data Engineer (Python)
Компания: КА gethead
Формат работы: Удаленка (на время пандемии) дальше офис
Зарплата: 150-260 000 руб. на руки (больше готовы смотреть, в зависимости от опыта)
О проекте:
Проект для американской компании, занимающейся мобильной рекламой. Разработка конвейеров данных для передачи больших объемов данных (более 20 ТБ в месяц) между системами.
Стек:
- Python
- SQL;
- Spark;
- Kafka;
- AWS Kinesis.
Задачи:
- Разработка сложных и эффективных решений для распределенного преобразования данных;
- Разработка ML-моделей;
- Аналитика больших данных.
Мы ждем:
- Опыт разработки на Python (Big Data);
- Опыт работы с потоковыми системами: Spark, Kafka, Kinesis;
- Аналитика больших данных;
- Знание английского на уровне Upper-Intermediate и выше.
Мы предлагаем:
- Участие в крупном международном проекте;
- Возможность работать удаленно на время пандемии;
- Релокационный бонус;
- Программа корпоративных льгот;
- ДМС с первого рабочего дня;
- Активная корпоративная жизнь;
- Возможность длительных командировок в США;
- Корпоративный английский с носителями.
Контакты для связи: @mariasamborskaya
#Вакансия #Аналитик #SAP #Hadoop #BI #Spark #Москва
В компанию Детский Мир нужен аналитик. Зп до 300 т.р
Функционал:
- Взаимодействие с внутренними заказчиками, сбор требований на новые/изменяемые функциональности в аналитических системах;
- Анализ и формализация требований заказчиков на формирование аналитической отчетности;
- Подготовка и согласование проектной документации
- Участие в проектах развития хранилищ аналитических данных (SAP BW, HANA, Hadoop, Spark) и BI-систем (SAP BO Analysis, Grafana, QlikView);
- Тестирование выполненных разработок хранилищ данных, отчетов в BI
Наши ожидания:
- Опыт работы в роли аналитика на проектах по построению/развитию аналитических систем и хранилищ данных от 3 лет;
- Понимания принципов и процессов проектирования DWH, ETL, OLAP и отчётности;
- Умение самостоятельно искать ответы в источниках данных и исследовать данные источников, искать зависимости, выстраивать модели данных;
- Опыт работы в роли аналитика или консультанта одной из систем (SAP BW on HANA, Hadoop)
- Желательный опыт работы с BI-системами QlikView, Grafana.
Мы предлагаем:
- Официальное оформление в соответствии с ТК РФ
- Полная стабильность
- Отсутствие бюрократии и плоская организационная структура
- Действительно высокий уровень дохода, полностью "белый" оклад и годовая премия
- Гибкий график работы, но 5/2, полный день, Офис- м/мцд Окружная или корп.транспорт 7 минут от м.Петровско-Разумовская
- Расширенный полис ДМС
- до 20% скидка на продукцию компании
- Спортивные и развлекательные мероприятия (крупные спортивные соревнования и веселые корпоративы
Контакты: Алина @Sae_fr12
В компанию Детский Мир нужен аналитик. Зп до 300 т.р
Функционал:
- Взаимодействие с внутренними заказчиками, сбор требований на новые/изменяемые функциональности в аналитических системах;
- Анализ и формализация требований заказчиков на формирование аналитической отчетности;
- Подготовка и согласование проектной документации
- Участие в проектах развития хранилищ аналитических данных (SAP BW, HANA, Hadoop, Spark) и BI-систем (SAP BO Analysis, Grafana, QlikView);
- Тестирование выполненных разработок хранилищ данных, отчетов в BI
Наши ожидания:
- Опыт работы в роли аналитика на проектах по построению/развитию аналитических систем и хранилищ данных от 3 лет;
- Понимания принципов и процессов проектирования DWH, ETL, OLAP и отчётности;
- Умение самостоятельно искать ответы в источниках данных и исследовать данные источников, искать зависимости, выстраивать модели данных;
- Опыт работы в роли аналитика или консультанта одной из систем (SAP BW on HANA, Hadoop)
- Желательный опыт работы с BI-системами QlikView, Grafana.
Мы предлагаем:
- Официальное оформление в соответствии с ТК РФ
- Полная стабильность
- Отсутствие бюрократии и плоская организационная структура
- Действительно высокий уровень дохода, полностью "белый" оклад и годовая премия
- Гибкий график работы, но 5/2, полный день, Офис- м/мцд Окружная или корп.транспорт 7 минут от м.Петровско-Разумовская
- Расширенный полис ДМС
- до 20% скидка на продукцию компании
- Спортивные и развлекательные мероприятия (крупные спортивные соревнования и веселые корпоративы
Контакты: Алина @Sae_fr12
#вакансия #DataScientist #Senior #Middle #python #spark #SQL
Привет! Rubbles в поисках Middle | Senior Data Scientist до 500К
Проект систем прогнозирования спроса на товары в ритейле.
Обязанности:
• Моделирование и обработка данных на Python для извлечения бизнес-ценности из данных;
• Глубокое обсуждение задач и методов их решения совместно с коллегами и бизнес-заказчиками;
• Построение воспроизводимых и переиспользуемых решений для работы с данными и моделями;
Наши ожидания:
• Опыт использования ML библиотек на Python (бустинг, нейронные сети и др.) и понимание особенностей реализации различных аспектов алгоритмов в коде;
• Опыт работы на позиции, связанной с промышленной разработкой;
• Понимание методов машинного обучения с точки зрения математики и умение адаптировать их под конкретные задачи;
• Опыт работы с Spark, Pyspark, Pandas, SQL, Hive и др.;
• Опыт проработки задачи от бизнес-постановки до математической формулировки и реализации в коде;
• Опыт автоматизации пайплайнов работы с данными (Airflow и др.) и навыки devops (Docker, Kubernetes и др.);
У нас:
• Официальное оформление, белая ЗП, регулярные индексации
• ДМС, включая стоматологию
• Профильные курсы, митапы
• Офис М. Сухаревская
• Гибкий график
• Удаленный формат работы, как на период изоляции, так и после, по желанию
Контакты:
Анастасия - @mahounistyle - [email protected]
Привет! Rubbles в поисках Middle | Senior Data Scientist до 500К
Проект систем прогнозирования спроса на товары в ритейле.
Обязанности:
• Моделирование и обработка данных на Python для извлечения бизнес-ценности из данных;
• Глубокое обсуждение задач и методов их решения совместно с коллегами и бизнес-заказчиками;
• Построение воспроизводимых и переиспользуемых решений для работы с данными и моделями;
Наши ожидания:
• Опыт использования ML библиотек на Python (бустинг, нейронные сети и др.) и понимание особенностей реализации различных аспектов алгоритмов в коде;
• Опыт работы на позиции, связанной с промышленной разработкой;
• Понимание методов машинного обучения с точки зрения математики и умение адаптировать их под конкретные задачи;
• Опыт работы с Spark, Pyspark, Pandas, SQL, Hive и др.;
• Опыт проработки задачи от бизнес-постановки до математической формулировки и реализации в коде;
• Опыт автоматизации пайплайнов работы с данными (Airflow и др.) и навыки devops (Docker, Kubernetes и др.);
У нас:
• Официальное оформление, белая ЗП, регулярные индексации
• ДМС, включая стоматологию
• Профильные курсы, митапы
• Офис М. Сухаревская
• Гибкий график
• Удаленный формат работы, как на период изоляции, так и после, по желанию
Контакты:
Анастасия - @mahounistyle - [email protected]
#teamlead #Москва #DataPlatform #Hadoop #Spark #Kafka
Team Lead Data Platform в Актион-Технологии
Расположение: Москва
Формат: full-time, работа в офисе + удалёнка
Зарплатная вилка: 250-350 тысяч на руки
Кто мы?
Мы большой медиахолдинг с более, чем 25-летней историей, миллиардной выручкой, и гигантскими планами по развитию компании!
Мы разрабатываем полезные сервисы и продукты для 15 профессиональных аудиторий.
В 2020 году мы вошли в ТОП-10 EdTech компаний по мнению РБК.
И для этого нам не хватает только тебя - человека, которому полностью сможем доверить направление Data Platform
Что уже успели поделать:
- Мы подготовили инфраструктуру на базе Hadoop и GreenPlum для загрузки, обработки и построения витрин данных
- Описали и загрузили данные нескольких продуктов холдинга и приступили к описанию и загрузке следующих
И на этом все не заканчивается, но для вводной о том, что мы не совсем дилетанты в работе с данными, пожалуй, достаточно)
И у нас еще много планов - будем развивать и масштабировать инфраструктуру, запускать потоковое получение данных и увеличивать количество подключенных источников и доверие к данным
Что планируем сделать
- Сбор данных real time - строим click-stream платформу
- Третий уровень хранилища, описав в нем все сущности, для работы аналитиков
- Структурировать хранилище, все сущности должны наименоваться по одному стандарту и быть понятными пользователям, удобными для навигации
- Доработать систему сверок, начать проливать данные, методически доведя расхождения до нуля
А еще у нас есть задачи на стыке DWH и ML
- подготовка данных для обучения разнообразных моделей (у нас тут громадьё планов)
- написание веб-сервисов для интеграции данных, полученных от ML с продуктами холдинга
Что для нас важно в тебе
- Базовые знания SQL
- Любой язык программирования (но лучше python))
- Опыт работы с системами контроля версий (Git)
- Умение организовать процесс загрузки, обработки и доставки обработанных данных конечным потребителям
- Высокий уровень самообучения
- Умение поддержать и дотюнить существующий процесс
Не обязательно, но будет очень здорово, если
- Знаешь Open Source фреймворки Big Data: (Hadoop, MapReduce, Spark & Spark Streaming, Hive, Kafka)
- Знаком с Apache Nifi и Apache Airflow
Что есть у нас и чем готовы делиться
- Белая, своевременная и конкурентоспособная заработная плата
- ДМС (включая стоматологию)
- Удобное место для работы и современное “железо” (хочешь с яблоком, хочешь без)
- Гибкий график. Начало работы с 8 до 11
- У нас не нужно приходить 5 дней в неделю в офис. Мы внутри команд сами определяем, когда туда приехать
- Профессиональный рост (у нас есть внутреннее обучение, возможность посещать конференции и митапы, мы спонсируем))
- Корпоративная библиотека (огромное количество профессиональной литературы - бери, читай, наслаждайся)
- Мы понимаем, что переезд - штука непростая, поэтому мы готовы всячески помочь уже сейчас) Мы оплатим билеты для тебя и твоего багажа, услуги риэлтора для поиска жилья и первый месяц арендной платы. Мы же команда)
Звучит здорово? Откликается?)
Напиши нам обязательно, давай обсудим)
Для этого нам всего-то нужно твое CV, а начать коммуникацию можем тут, Telegram - @brauerone
p.s. если ты еще не Team Lead, но уже готов и очень хочешь сделать следующий шаг, или ты из разработки, но очень хотел бы немного сменить направление - абсолютно точно пиши нам, мы готовы научить!)
Team Lead Data Platform в Актион-Технологии
Расположение: Москва
Формат: full-time, работа в офисе + удалёнка
Зарплатная вилка: 250-350 тысяч на руки
Кто мы?
Мы большой медиахолдинг с более, чем 25-летней историей, миллиардной выручкой, и гигантскими планами по развитию компании!
Мы разрабатываем полезные сервисы и продукты для 15 профессиональных аудиторий.
В 2020 году мы вошли в ТОП-10 EdTech компаний по мнению РБК.
И для этого нам не хватает только тебя - человека, которому полностью сможем доверить направление Data Platform
Что уже успели поделать:
- Мы подготовили инфраструктуру на базе Hadoop и GreenPlum для загрузки, обработки и построения витрин данных
- Описали и загрузили данные нескольких продуктов холдинга и приступили к описанию и загрузке следующих
И на этом все не заканчивается, но для вводной о том, что мы не совсем дилетанты в работе с данными, пожалуй, достаточно)
И у нас еще много планов - будем развивать и масштабировать инфраструктуру, запускать потоковое получение данных и увеличивать количество подключенных источников и доверие к данным
Что планируем сделать
- Сбор данных real time - строим click-stream платформу
- Третий уровень хранилища, описав в нем все сущности, для работы аналитиков
- Структурировать хранилище, все сущности должны наименоваться по одному стандарту и быть понятными пользователям, удобными для навигации
- Доработать систему сверок, начать проливать данные, методически доведя расхождения до нуля
А еще у нас есть задачи на стыке DWH и ML
- подготовка данных для обучения разнообразных моделей (у нас тут громадьё планов)
- написание веб-сервисов для интеграции данных, полученных от ML с продуктами холдинга
Что для нас важно в тебе
- Базовые знания SQL
- Любой язык программирования (но лучше python))
- Опыт работы с системами контроля версий (Git)
- Умение организовать процесс загрузки, обработки и доставки обработанных данных конечным потребителям
- Высокий уровень самообучения
- Умение поддержать и дотюнить существующий процесс
Не обязательно, но будет очень здорово, если
- Знаешь Open Source фреймворки Big Data: (Hadoop, MapReduce, Spark & Spark Streaming, Hive, Kafka)
- Знаком с Apache Nifi и Apache Airflow
Что есть у нас и чем готовы делиться
- Белая, своевременная и конкурентоспособная заработная плата
- ДМС (включая стоматологию)
- Удобное место для работы и современное “железо” (хочешь с яблоком, хочешь без)
- Гибкий график. Начало работы с 8 до 11
- У нас не нужно приходить 5 дней в неделю в офис. Мы внутри команд сами определяем, когда туда приехать
- Профессиональный рост (у нас есть внутреннее обучение, возможность посещать конференции и митапы, мы спонсируем))
- Корпоративная библиотека (огромное количество профессиональной литературы - бери, читай, наслаждайся)
- Мы понимаем, что переезд - штука непростая, поэтому мы готовы всячески помочь уже сейчас) Мы оплатим билеты для тебя и твоего багажа, услуги риэлтора для поиска жилья и первый месяц арендной платы. Мы же команда)
Звучит здорово? Откликается?)
Напиши нам обязательно, давай обсудим)
Для этого нам всего-то нужно твое CV, а начать коммуникацию можем тут, Telegram - @brauerone
p.s. если ты еще не Team Lead, но уже готов и очень хочешь сделать следующий шаг, или ты из разработки, но очень хотел бы немного сменить направление - абсолютно точно пиши нам, мы готовы научить!)
#вакансия #scala #spark #oozie
Senior Data Engineer
Формат #удалёнка
ТК РФ вилка 320-400 на руки для senior
250-280 для middle
Требования:
• опыт работы с hadoop стэк(hive, hdfs, spark, oozie, tez)
• Хорошие знания Scala 2.10-2.11
• Хорошие знания алгоритмов и умение разбираться в самописных.
• Опыт работы с kafka, kafka streaming, ksql
обязанности
• разбор работы и сбоев при работе spark job, tez job
• Помощь разработчикам с переносом с 2 спаркам на 3 job
• Разбор и дебагинг job на предмет нарушения SLA по времени исполнения
• Оптимизация всем хранения и просто хранения данных (на данный момент у нас 25 пб данных)
контакт @erzentd
Senior Data Engineer
Формат #удалёнка
ТК РФ вилка 320-400 на руки для senior
250-280 для middle
Требования:
• опыт работы с hadoop стэк(hive, hdfs, spark, oozie, tez)
• Хорошие знания Scala 2.10-2.11
• Хорошие знания алгоритмов и умение разбираться в самописных.
• Опыт работы с kafka, kafka streaming, ksql
обязанности
• разбор работы и сбоев при работе spark job, tez job
• Помощь разработчикам с переносом с 2 спаркам на 3 job
• Разбор и дебагинг job на предмет нарушения SLA по времени исполнения
• Оптимизация всем хранения и просто хранения данных (на данный момент у нас 25 пб данных)
контакт @erzentd
#вакансия #NLP #Hadoop #Spark #Machinelearning #ML #СанктПетербург #СПБ #PyTorch #Kafka
Вакансия: Machine Learning Engineer
Локация: Санкт-Петербург
Компания: Mail.ru group
Юла
Высоконагруженный сервис объявлений, который обслуживается сотнями серверов в нескольких дата-центрах и ежедневно помогает миллионам пользователей.
Под капотом у Юлы современный стек технологий. Основа бэкенда и API реализована на PHP и Go, для управления данными и их хранения используется MongoDB, Tarantool и Redis, поисковая система работает на базе Elasticsearch. В качестве диспетчера сообщений настроен Apache Kafka, данные хранятся в Hadoop и Clickhouse.
Занятость: полная (удаленка или комбинированный формат)
Зарплатная вилка: высокая (зависит от уровня кандидата)
Для связи: tg: @Dreifys или почта [email protected]
Наш стек:
✅Языки: Python, Java, Scala;
✅Технологии которые часто используем в работе: PyTorch, DVC, MlFlow, Hadoop,Spark, Airflow, Kafka.
Примеры того, чем мы занимаемся:
☑️Модерацией в Юле;
☑️Детекцией ботов, мошенников, используя графовые, поведенческие данные и контентные признаки;
☑️Автоматизация восстановления профиля на основе распознавания лиц и жестов;
☑️Поиск дубликатов объявлений;
☑️ML инфраструктурой и процессами.
Требования:
🔸Уверенные навыки в программирования на Python и хотя бы одном статически типизированном языке;
🔸Хорошие знания базового ML;
🔸Представление о современном состоянии NLP, умение использовать базовые вещи(word2vec, cnn, эмбеддинги, faiss);
🔸Работа с современным BigData стеком (Hadoop/Spark/Airflow).
Будет плюсом:
🔺Опыт оптимизации DL решений на инференс;
🔺Уметь прочитать, а затем воспроизвести в коде статью;
🔺Опыт промышленной разработки на Java/Scala/Python;
🔺Опыт разработки промышленных AI сервисов;
🔺Опыт применения DevOps практик в контексте разработки ML моделей;
🔺Опыт применения ML в cybersecurity и общее представление об этой сфере.
Для связи:
tg: @dreifys или почта [email protected]
Вакансия: Machine Learning Engineer
Локация: Санкт-Петербург
Компания: Mail.ru group
Юла
Высоконагруженный сервис объявлений, который обслуживается сотнями серверов в нескольких дата-центрах и ежедневно помогает миллионам пользователей.
Под капотом у Юлы современный стек технологий. Основа бэкенда и API реализована на PHP и Go, для управления данными и их хранения используется MongoDB, Tarantool и Redis, поисковая система работает на базе Elasticsearch. В качестве диспетчера сообщений настроен Apache Kafka, данные хранятся в Hadoop и Clickhouse.
Занятость: полная (удаленка или комбинированный формат)
Зарплатная вилка: высокая (зависит от уровня кандидата)
Для связи: tg: @Dreifys или почта [email protected]
Наш стек:
✅Языки: Python, Java, Scala;
✅Технологии которые часто используем в работе: PyTorch, DVC, MlFlow, Hadoop,Spark, Airflow, Kafka.
Примеры того, чем мы занимаемся:
☑️Модерацией в Юле;
☑️Детекцией ботов, мошенников, используя графовые, поведенческие данные и контентные признаки;
☑️Автоматизация восстановления профиля на основе распознавания лиц и жестов;
☑️Поиск дубликатов объявлений;
☑️ML инфраструктурой и процессами.
Требования:
🔸Уверенные навыки в программирования на Python и хотя бы одном статически типизированном языке;
🔸Хорошие знания базового ML;
🔸Представление о современном состоянии NLP, умение использовать базовые вещи(word2vec, cnn, эмбеддинги, faiss);
🔸Работа с современным BigData стеком (Hadoop/Spark/Airflow).
Будет плюсом:
🔺Опыт оптимизации DL решений на инференс;
🔺Уметь прочитать, а затем воспроизвести в коде статью;
🔺Опыт промышленной разработки на Java/Scala/Python;
🔺Опыт разработки промышленных AI сервисов;
🔺Опыт применения DevOps практик в контексте разработки ML моделей;
🔺Опыт применения ML в cybersecurity и общее представление об этой сфере.
Для связи:
tg: @dreifys или почта [email protected]
#Вакансия #job #it #fulltime #полный_день #remote #удаленная_работа #DSE #Big_Data #Java #Scala #Python #Spark #AWS #SQL
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 200 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 250 000 рублей на руки (сильно зависит от квалификации);
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 200 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 250 000 рублей на руки (сильно зависит от квалификации);
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
#Вакансия #job #it #fulltime #полный_день #remote #удаленная_работа #DSE #Big_Data #Java #Scala #Python #Spark #AWS #SQL
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 300 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 300 000 рублей на руки (зависит от квалификации) + KPI по результатам работы;
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
Должность: Data Engineer
Название компании: PLAYKOT (https://playkot.com/)
Город: Санкт-Петербург
Занятость: полная, удаленная работа
Заработная плата: от 300 000 рублей на руки
Контакты: Елена Цыбаева, 89138532542 (telegram @Elena_Tcybaeva, wa), [email protected]
Playkot – российская игровая компания, 10 лет успешно развивающаяся в области разработки мобильных и социальных игр и создающая мировые хиты. Наши флагманские проекты: Age of Magic, Суперсити, Tropic Storm, Титаны.
Наша команда – это 200+ специалистов, работающих в Санкт-Петербурге, на Кипре и удаленно по всему миру.
Ежедневно мы аккумулируем огромное количество данных: сотни тысяч игровых событий, метрики маркетинговых кампаний, параметры операционной деятельности и многое другое.
В связи с масштабированием бизнеса в будущем планируется рост объемов и усложнение структур данных. Мы стремимся к тому, чтобы аналитика была неотъемлемой частью всех наших процессов и являлась опорой для принятия важных для компании решений.
Именно поэтому сейчас мы ищем в команду профессионального Data Engineer, который возьмет на себя задачи выстраивания процессов управления данными в компании.
⛳️Задачи, которые предстоит решать:
• выстраивание и развитие процессов обработки данных в компании;
• реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
• построение надежных и оптимальных пайплайнов обработки данных;
• интеграция с новыми источниками данных;
• оптимизация вычислений;
• организация и реализация процесса совершенствования Data Quality.
⛳️Наши ожидания от кандидата:
• опыт работы на позиции Data Engineer или аналогичной не менее трех лет;
• умение строить ETL на Apache Spark (2.4 -> 3 версия, мы работаем с упором на SQL API + Scala/Java API);
• навыки реализации оркестрации на Apache Airflow;
• глубокие знания SQL и умение разобраться в Python-коде;
• опыт плотной работы с AWS, а именно: S3, iam, GLUE;
• опыт работы с БД и оптимизацией запросов;
• знание BI инструментов (Tableau/Superset/Metabase/PowerBI);
• знания в области построения витрин данных.
⛳️Мы предлагаем:
• Заработная плата от 300 000 рублей на руки (зависит от квалификации) + KPI по результатам работы;
• Официальное трудоустройство по ТК РФ, полностью «белая» заработная плата;
• Корпоративный пакет ДМС;
• Возможность работать полностью удаленно или в нашем дизайнерском офисе в историческом центре Санкт-Петербурга (ул. Кропоткина, 1И);
• Гибкое начало рабочего дня, отсутствие тайм-трекинга;
• Возможность практически «с нуля» организовать работу в области big data в крупной компании;
• Команда профессионалов, готовых помогать и делиться лучшими практиками;
• Гибкий менеджмент, развитая корпоративная культура, поощрение инициативы, сплоченный и дружный коллектив, насыщенная корпоративная жизнь.
Playkot
Home / Playkot
Making games is just as fun as playing them.
#Вакансия #DataEngineer #Удаленно #Scala #Python #SQL #Spark
Должность: Data Engineer
Вилка: 150’000 — 220’000 руб.
Город: удаленно
Занятость: full time
Контакты: @valdavydov
❗️Приглашаем присоединиться к международной быстрорастущей компании в области Big Data.
🔹Мы:
🔹Рассчитываем, что ты:
🔹Тебе предстоит:
🔹Ты сможешь:
Должность: Data Engineer
Вилка: 150’000 — 220’000 руб.
Город: удаленно
Занятость: full time
Контакты: @valdavydov
❗️Приглашаем присоединиться к международной быстрорастущей компании в области Big Data.
🔹Мы:
•
Опытная и динамичная команда с головным офисом в Канаде, г. Торонто. •
Разрабатываем платформу, которая в корне меняет то, как компании работают с большими данными. •
Среди наших клиентов крупнейшие компании финансовой индустрии Северной Америки.🔹Рассчитываем, что ты:
•
Имеешь опыт работы от 2-х лет в роли Data Engineer. •
Прекрасно знаешь Scala. •
Знаком с SQL и Python. Если не знаешь Python, научим. Главное — Scala. •
Уверенно разрабатываешь на Apache Spark и глубоко понимаешь методы оптимизации Spark приложений. •
Умеешь пользоваться AWS EMR. •
Имеешь опыт в построении Data Warehouse и Data Lake. •
Понимаешь, что Lakehouse — это не “дом у озера”, а, возможно, лучшая архитектура управления данными.🔹Тебе предстоит:
•
Разрабатывать инновационные решения для обработки больших данных. •
Формировать автоматизированные ETL пайплайны. •
Оптимизировать Spark приложения. •
Выстраивать архитектуру управления данными.🔹Ты сможешь:
•
Приобрести уникальный опыт работы в сильной международной команде. •
Расти и развиваться вместе с компанией. •
Реализовать свои самые смелые идеи обработки больших данных.