#вакансия #python #fulltime #СПб #DataScience #Junior #Middle
🎯 Вакансия для начинающих Data Science
💰 ЗП 150-250
О компании и команде:
Офис в Санкт-Петербурге, работа фулл тайм в офисе
Проект: построение и внедрение моделей для поддержки направления финансового мониторинга Банка
Функциональные обязанности:
- Построение моделей для поддержки направления финансового мониторинга Банка
- Поддержка внедрения и мониторинга разработанных моделей
- Написание документации о результатах моделирования
- Работа с заинтересованными подразделениями для обеспечения соблюдения нормативных требований и внутренних политик
- Взаимодействие с командами ИТ и управления данными в части контроля качества данных
Ожидания от кандидата:
- Опыт работы в роли Data Scientist от 1 года
- Знание статистики и методов анализа данных: логистическая регрессия, дерево решений, сэмплинг, градиентный бустинг
- Понимание практического применения статистических моделей в задачах бизнеса
- Опыт написания документации о разработке прогнозных моделей будет являться преимуществом
- Желателен опыт в банковской сфере или финтехе
Условия работы:
- Оформление по ТК РФ и стабильную работу в крупном федеральном банке
- ДМС со стоматологией
- Уникальный портфель бенефитов по программе софинансирования (фитнес, школа ин. языков на выбор, скидки на продукты банка и партнеров)
- Внутренние спортивные мероприятия, материальная поддержка в различных жизненных ситуациях, скидки на страховые коробочные продукты банка и партнеров и многое другое
- Развитие экспертизы: оплачиваем профессиональные тренинги и внешние образовательные курсы, организуем IT-активности (митапы, хакатоны, юконы)
- Полугодовая аттестация с возможностью пересмотра заработной платы и грейда позиции
- А ещё: комфорт, свобода, минимум бюрократии, гибкое начало и завершение рабочего дня, отсутствие дресс-кода
пишите @KEKatarina
🎯 Вакансия для начинающих Data Science
💰 ЗП 150-250
О компании и команде:
Офис в Санкт-Петербурге, работа фулл тайм в офисе
Проект: построение и внедрение моделей для поддержки направления финансового мониторинга Банка
Функциональные обязанности:
- Построение моделей для поддержки направления финансового мониторинга Банка
- Поддержка внедрения и мониторинга разработанных моделей
- Написание документации о результатах моделирования
- Работа с заинтересованными подразделениями для обеспечения соблюдения нормативных требований и внутренних политик
- Взаимодействие с командами ИТ и управления данными в части контроля качества данных
Ожидания от кандидата:
- Опыт работы в роли Data Scientist от 1 года
- Знание статистики и методов анализа данных: логистическая регрессия, дерево решений, сэмплинг, градиентный бустинг
- Понимание практического применения статистических моделей в задачах бизнеса
- Опыт написания документации о разработке прогнозных моделей будет являться преимуществом
- Желателен опыт в банковской сфере или финтехе
Условия работы:
- Оформление по ТК РФ и стабильную работу в крупном федеральном банке
- ДМС со стоматологией
- Уникальный портфель бенефитов по программе софинансирования (фитнес, школа ин. языков на выбор, скидки на продукты банка и партнеров)
- Внутренние спортивные мероприятия, материальная поддержка в различных жизненных ситуациях, скидки на страховые коробочные продукты банка и партнеров и многое другое
- Развитие экспертизы: оплачиваем профессиональные тренинги и внешние образовательные курсы, организуем IT-активности (митапы, хакатоны, юконы)
- Полугодовая аттестация с возможностью пересмотра заработной платы и грейда позиции
- А ещё: комфорт, свобода, минимум бюрократии, гибкое начало и завершение рабочего дня, отсутствие дресс-кода
пишите @KEKatarina
#вакансия #middle #senior #python #dev #postgresql #ml #math #models #sql
Всем привет!
Мы Axenix (ex. Accenture) находимся в поисках Python Developer на проект разработки продукта In.Plan (платформа интегрированного планирования)
🔎 Мы ищем Middle/Senior Python Developer
Формат работы: гибрид, удаленка (РФ/Армения/Казахстан)
💰 обсуждается после тех. интервью
Чем предстоит заниматься:
🔸 Разработка решений для платформы интегрированного планирования производства
🔸 Участие в написании модулей прогнозирования спроса, календарного планирования и производственного планирования, модуля оптимизации складских запасов
🔸 Работа с PostgreSQL как источником данных. Задачи включают написание компонентов по чтению/записи данных из БД, обработке (очистка, проверка качества, сглаживание и т.д.) данных, формулировке задач мат. оптимизации для солверов, написание ML модулей для прогнозирования.
Здорово, если ты:
🔹 Знаешь алгоритмы и структуры данных
🔹 Имеешь опыт коммерческой разработки на Python
🔹 Понимаешь и применял нотации Big O для оценки сложности алгоритмов
🔹 Знаешь паттерны ООП и принципы проектирования вычислительных решений
🔹 Имеешь опыт написания тестов, понимание отличий и целей разных типов тестов
🔹 Имеешь опыт работы с SQL базами данных
🔹 Знаешь Git
Мы предлагаем:
▪️ Работу в Аккредитованной ИТ-компании
▪️ Конкурентоспособный уровень дохода, годовые бонусы и регулярное повышение по результатам Performance Review
▪️ Культуру непрерывного обучения: сертификация, online и offline обучение в России, менторство в профессиональном развитии;
▪️ ДМС с первого месяца работы, включая стоматологию, в лучших клиниках Москвы и МО для cотрудника и его семьи (жена/муж, дети до 18 лет);
▪️ Возможность оформления по ИП
Контакт для связи: @masha_axenix
Всем привет!
Мы Axenix (ex. Accenture) находимся в поисках Python Developer на проект разработки продукта In.Plan (платформа интегрированного планирования)
🔎 Мы ищем Middle/Senior Python Developer
Формат работы: гибрид, удаленка (РФ/Армения/Казахстан)
💰 обсуждается после тех. интервью
Чем предстоит заниматься:
🔸 Разработка решений для платформы интегрированного планирования производства
🔸 Участие в написании модулей прогнозирования спроса, календарного планирования и производственного планирования, модуля оптимизации складских запасов
🔸 Работа с PostgreSQL как источником данных. Задачи включают написание компонентов по чтению/записи данных из БД, обработке (очистка, проверка качества, сглаживание и т.д.) данных, формулировке задач мат. оптимизации для солверов, написание ML модулей для прогнозирования.
Здорово, если ты:
🔹 Знаешь алгоритмы и структуры данных
🔹 Имеешь опыт коммерческой разработки на Python
🔹 Понимаешь и применял нотации Big O для оценки сложности алгоритмов
🔹 Знаешь паттерны ООП и принципы проектирования вычислительных решений
🔹 Имеешь опыт написания тестов, понимание отличий и целей разных типов тестов
🔹 Имеешь опыт работы с SQL базами данных
🔹 Знаешь Git
Мы предлагаем:
▪️ Работу в Аккредитованной ИТ-компании
▪️ Конкурентоспособный уровень дохода, годовые бонусы и регулярное повышение по результатам Performance Review
▪️ Культуру непрерывного обучения: сертификация, online и offline обучение в России, менторство в профессиональном развитии;
▪️ ДМС с первого месяца работы, включая стоматологию, в лучших клиниках Москвы и МО для cотрудника и его семьи (жена/муж, дети до 18 лет);
▪️ Возможность оформления по ИП
Контакт для связи: @masha_axenix
#vacancy #SQL #Python #ClickHouse #DWH #Lead
🤟
Должность: Data Team Lead
Формат работы: удаленный (из любой точки мира)
Занятость: #полная, #fulltime
Зарплатная вилка: до 500 000 руб. на руки
🧙♀️ Компания создает высоконагруженное решение на базе Golang с микросервисной архитектурой и множеством интеграций. Команда воплощает в жизнь самые амбициозные проекты, используя передовые методы и инструменты разработки. В компании нет места для бюрократии и лишних апруверов - только крутые специалисты, готовые воплощать свои идеи в жизнь и изменять мир вместе с нами. Присоединяйтесь к компании, чтобы вместе создавать инновационные решения и участвовать в увлекательных проектах!
🤕 Что компания гарантирует потенциальному коллеге:
— Конкурентоспособный уровень заработной платы;
— Комфортное трудоустройство по ИП;
— Постоянная индексация дохода;
— Удобный гибкий график работы 5/2 с плавающим началом дня;
— Специальные бенефиты: компенсация спортивного зала, проведение корпоративных мероприятий для команды, питание в офисе;
— Перспективы карьерного роста - обрети новые возможности;
— Минимум бюрократии и прозрачное взаимодействие - открытость и понимание для каждого сотрудника;
— Тесное общение с профессионалами отрасли - работай с лучшими, достигай больших результатов.
⬆️ Чем предстоит заниматься:
— Участвовать в проектировании и управлении платформой данных в компании;
— Организовывать взаимодействие DWH с источниками данных и поддержкой ETL процессов;
— Проектировать оптимальные модели данных для бизнес-требований;
— Разрабатывать процедуры формирования детального слоя данных и слоя витрин.
🌟 Компания ожидает от кандидата:
— Опыт от 3 лет в построении или управлении DWH;
— Опыт работы с колоночными базами данных (ClickHouse).
— Опыт участия в проектировании/внедрении хранилища данных с применением практик и технологий Data management, DWH/BI, Big Data и Data streaming;
— Владение языками программирования (SQL и Python на уровне не ниже Middle);
⭐️ Пиши! Я всегда на связи - @recruiter_it_24
Должность: Data Team Lead
Формат работы: удаленный (из любой точки мира)
Занятость: #полная, #fulltime
Зарплатная вилка: до 500 000 руб. на руки
— Конкурентоспособный уровень заработной платы;
— Комфортное трудоустройство по ИП;
— Постоянная индексация дохода;
— Удобный гибкий график работы 5/2 с плавающим началом дня;
— Специальные бенефиты: компенсация спортивного зала, проведение корпоративных мероприятий для команды, питание в офисе;
— Перспективы карьерного роста - обрети новые возможности;
— Минимум бюрократии и прозрачное взаимодействие - открытость и понимание для каждого сотрудника;
— Тесное общение с профессионалами отрасли - работай с лучшими, достигай больших результатов.
— Участвовать в проектировании и управлении платформой данных в компании;
— Организовывать взаимодействие DWH с источниками данных и поддержкой ETL процессов;
— Проектировать оптимальные модели данных для бизнес-требований;
— Разрабатывать процедуры формирования детального слоя данных и слоя витрин.
— Опыт от 3 лет в построении или управлении DWH;
— Опыт работы с колоночными базами данных (ClickHouse).
— Опыт участия в проектировании/внедрении хранилища данных с применением практик и технологий Data management, DWH/BI, Big Data и Data streaming;
— Владение языками программирования (SQL и Python на уровне не ниже Middle);
Please open Telegram to view this post
VIEW IN TELEGRAM
#вакансия
Data Engineer в VK Adtech, Москва
Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.
Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.
У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.
Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.
Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.
Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.
✍️ Отправить CV и по всем вопросам: https://yangx.top/olkony
#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
Data Engineer в VK Adtech, Москва
Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.
Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.
У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.
Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.
Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.
Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.
✍️ Отправить CV и по всем вопросам: https://yangx.top/olkony
#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
#вакансия
Data analyst / Data scientist, Москва
VK Реклама — одно из ключевых подразделений в VK. Ежедневно наши сервисы охватывают более 140 млн пользователей в России и странах СНГ. Более 100 тыс. рекламодателей каждый день запускают рекламные кампании у нас и находят своих клиентов. Мы — команда ML внутри VK Рекламы, отвечаем за её качество, чтобы пользователи могли увидеть наиболее подходящую им рекламу, а рекламодатели потратить свои бюджеты наиболее эффективно.
Основная задача нашего направления — проверять гипотезы, искать инсайты и точки роста эффективности и впоследствии внедрять их в прод. У нас идёт полный ML-цикл от проработки гипотезы до проведения экспериментов и внедрения фич в продакшен. Результаты нашей работы напрямую влияют на эффективность такого большого продукта, как VK Реклама.
Команда ad hoc аналитики занимается проверкой гипотез и поиском точек роста. Тестирует гипотезы в реальных экспериментах и оценивает изменения. Мы ищем в команду сильных аналитиков, совместными усилиями будем проводить различные аналитические исследования для повышения эффективности нашего продукта.
Задачи:
• Анализ больших данных для поиска потенциальных точек роста и выдвижения гипотез;
• ad hoc аналитика, поиски зависимостей в данных;
• проверка гипотез, поиск узких мест, донесение результатов до прода;
• оптимизация моделей рекламного аукциона и моделей ранжирования пользователей;
• проведение и статоценка экспериментов;
• разработка и автоматизация отчётности;
• сбор, обработка и дальнейшее использование больших данных.
Требования:
• Хорошее знание SQL (сложные запросы, порядок выполнения операций) — нужно написать не просто запрос, а оптимальный запрос, который сможет отработать на действительно больших данных;
• знание Python для анализа данных; библиотеки Pandas, Numpy — нужно будет сделать анализ данных, проработать гипотезы и правильно их визуализировать. Недостаточно просто найти какой-то паттерн — нужно его правильно представить наружу;
• работа с системами больших данных будет большим плюсом (Hadoop, PySpark);
• хорошее понимание матстатистики;
• анализ данных с учётом сезонности, поиски аномалий и выбросов в данных.
Будет плюсом:
• Опыт работы с ClickHouse, Hadoop, Git, Jenkins;
• работа с инструментами BI-отчётности, понимание ETL-инструментов (делаем автоматические отчёты, готовим для них данные, настраиваем выгрузки и другое).
✍️ Отправить CV и по всем вопросам: https://yangx.top/olkony
#ds #adhoc #analytics #ml #mailru #vk #adtech #sql #python #pandas #numpy #pysprak #hadoop #mathstat #clickhouse #гибрид #remote #middle #senior
Data analyst / Data scientist, Москва
VK Реклама — одно из ключевых подразделений в VK. Ежедневно наши сервисы охватывают более 140 млн пользователей в России и странах СНГ. Более 100 тыс. рекламодателей каждый день запускают рекламные кампании у нас и находят своих клиентов. Мы — команда ML внутри VK Рекламы, отвечаем за её качество, чтобы пользователи могли увидеть наиболее подходящую им рекламу, а рекламодатели потратить свои бюджеты наиболее эффективно.
Основная задача нашего направления — проверять гипотезы, искать инсайты и точки роста эффективности и впоследствии внедрять их в прод. У нас идёт полный ML-цикл от проработки гипотезы до проведения экспериментов и внедрения фич в продакшен. Результаты нашей работы напрямую влияют на эффективность такого большого продукта, как VK Реклама.
Команда ad hoc аналитики занимается проверкой гипотез и поиском точек роста. Тестирует гипотезы в реальных экспериментах и оценивает изменения. Мы ищем в команду сильных аналитиков, совместными усилиями будем проводить различные аналитические исследования для повышения эффективности нашего продукта.
Задачи:
• Анализ больших данных для поиска потенциальных точек роста и выдвижения гипотез;
• ad hoc аналитика, поиски зависимостей в данных;
• проверка гипотез, поиск узких мест, донесение результатов до прода;
• оптимизация моделей рекламного аукциона и моделей ранжирования пользователей;
• проведение и статоценка экспериментов;
• разработка и автоматизация отчётности;
• сбор, обработка и дальнейшее использование больших данных.
Требования:
• Хорошее знание SQL (сложные запросы, порядок выполнения операций) — нужно написать не просто запрос, а оптимальный запрос, который сможет отработать на действительно больших данных;
• знание Python для анализа данных; библиотеки Pandas, Numpy — нужно будет сделать анализ данных, проработать гипотезы и правильно их визуализировать. Недостаточно просто найти какой-то паттерн — нужно его правильно представить наружу;
• работа с системами больших данных будет большим плюсом (Hadoop, PySpark);
• хорошее понимание матстатистики;
• анализ данных с учётом сезонности, поиски аномалий и выбросов в данных.
Будет плюсом:
• Опыт работы с ClickHouse, Hadoop, Git, Jenkins;
• работа с инструментами BI-отчётности, понимание ETL-инструментов (делаем автоматические отчёты, готовим для них данные, настраиваем выгрузки и другое).
✍️ Отправить CV и по всем вопросам: https://yangx.top/olkony
#ds #adhoc #analytics #ml #mailru #vk #adtech #sql #python #pandas #numpy #pysprak #hadoop #mathstat #clickhouse #гибрид #remote #middle #senior
❇️Вакансия: Machine Learning Engineer Middle
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная
Оплата: до 350 000₽ /проект или до 2500₽ /час
Subscale AI - специализируемся на разработке и внедрении AI/ML-решений
🔸Необходимые навыки:
- RAG (LangChain, LlamaIndex, OpenAI Assistant)
- Fine-tuning (TensorFlow, PyTorch, HF Transformers)
- Базы данных (MySQL, PostgreSQL, ClickHouse)
- API (REST API, FastAPI)
- Деплой (AWS, Azure, Google Cloud)
🔸Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком
🔸Направления нашей работы:
- Внедрение ИИ в Отделы Продаж, Маркетинга, HR и др.
- Создание функциональных ИИ-Ассистентов
- Обучение ИИ-моделей с помощью RAG и Fine-tuning
- Разработка ИИ-продуктов(SaaS)
🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду
💬Сразу отправляйте резюме/CV: @subscale_ai
#вакансия #vacancy #удаленка #remote #мидл #middle #ai #ии #ml #мл #llm #nlp #langchain #datascientist #mlengineer #python
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная
Оплата: до 350 000₽ /проект или до 2500₽ /час
Subscale AI - специализируемся на разработке и внедрении AI/ML-решений
🔸Необходимые навыки:
- RAG (LangChain, LlamaIndex, OpenAI Assistant)
- Fine-tuning (TensorFlow, PyTorch, HF Transformers)
- Базы данных (MySQL, PostgreSQL, ClickHouse)
- API (REST API, FastAPI)
- Деплой (AWS, Azure, Google Cloud)
🔸Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком
🔸Направления нашей работы:
- Внедрение ИИ в Отделы Продаж, Маркетинга, HR и др.
- Создание функциональных ИИ-Ассистентов
- Обучение ИИ-моделей с помощью RAG и Fine-tuning
- Разработка ИИ-продуктов(SaaS)
🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду
💬Сразу отправляйте резюме/CV: @subscale_ai
#вакансия #vacancy #удаленка #remote #мидл #middle #ai #ии #ml #мл #llm #nlp #langchain #datascientist #mlengineer #python
#вакансия #backend #python
Senior/Middle Backend developer
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: full-time/part-time на проект
Оплата: до 350 000₽ или почасовая
(уточняется при собеседовании)
Мы ищем опытного Backend-разработчика на проектную деятельность в команду Subscale AI для реализации собственного AI-сервиса
Стек технологий:
- Язык: Python(Django, Flask)
- Базы данных: PostgreSQL, MySQL, MongoDB, Redis
- API: REST, GraphQL
- Docker, Kubernetes
- AWS, Google Cloud, Azure
Задачи и навыки:
- Разработка и интеграция с API различных сервисов
- Реализация логики тарифных планов и ограничения запросов
- Управление базами данных пользователей и их запросов
- Работа с контейнерами и оркестраторами для развертывания и управления микросервисами
- Понимание принципов масштабируемости и высоконагруженных систем
- Умение работать в команде и решать сложные задачи
Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком
Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов бренда на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот, которые легко вольются в нашу молодую команду
Сразу отправляйте резюме/CV: @subscale_ai
Senior/Middle Backend developer
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: full-time/part-time на проект
Оплата: до 350 000₽ или почасовая
(уточняется при собеседовании)
Мы ищем опытного Backend-разработчика на проектную деятельность в команду Subscale AI для реализации собственного AI-сервиса
Стек технологий:
- Язык: Python(Django, Flask)
- Базы данных: PostgreSQL, MySQL, MongoDB, Redis
- API: REST, GraphQL
- Docker, Kubernetes
- AWS, Google Cloud, Azure
Задачи и навыки:
- Разработка и интеграция с API различных сервисов
- Реализация логики тарифных планов и ограничения запросов
- Управление базами данных пользователей и их запросов
- Работа с контейнерами и оркестраторами для развертывания и управления микросервисами
- Понимание принципов масштабируемости и высоконагруженных систем
- Умение работать в команде и решать сложные задачи
Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком
Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов бренда на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот, которые легко вольются в нашу молодую команду
Сразу отправляйте резюме/CV: @subscale_ai
#вакансия #работа #remote #ds #python 👋
Ищем:
DS-разработчик
Что нужно:
Python, pandas, numpy, sklearn, Понимание основ статистики: p-value, дисперсия, и пр., Умение общаться и доносить гипотезы в понятном бизнесу виде, Опыт работы с временными рядами как плюс
Задачи:
Прогнозирование спроса на товары, Работа с временными рядами, Подготовка данных и обучение линейных моделей (проект ~3мес, скорее всего с продлением)
Занятость: проектная
Тип: удаленный
Оплата: по договоренности от 1000р/час
Контакты: @olegvongola
Дополнительно:
Ищем начинающих ML/DS разработчиков на стажировку для задач, связанных с чатботами и файнтюнами.
Ищем:
DS-разработчик
Что нужно:
Python, pandas, numpy, sklearn, Понимание основ статистики: p-value, дисперсия, и пр., Умение общаться и доносить гипотезы в понятном бизнесу виде, Опыт работы с временными рядами как плюс
Задачи:
Прогнозирование спроса на товары, Работа с временными рядами, Подготовка данных и обучение линейных моделей (проект ~3мес, скорее всего с продлением)
Занятость: проектная
Тип: удаленный
Оплата: по договоренности от 1000р/час
Контакты: @olegvongola
Дополнительно:
Ищем начинающих ML/DS разработчиков на стажировку для задач, связанных с чатботами и файнтюнами.
#вакансия #ds
Мы в Циан 🏘 ищем сильного Senior Data Scientist-а в команду CRM.
Локация - Полная удаленка внутри РФ. Если есть желание ходить в офис, у нас есть замечательные современные офисы в Москве, Питере и Новосибе.
Вилка - от 350 до 500 гросс, готовы обсуждать
О нас
В Циан большая команда ML. В команде настроены процессы перфоманс ревью, регулярного обмена опытом, выделяем время на исследовательскую работу!
Команда CRM занимается прямыми коммуникациями с клиентами (пуши, емейлы, смски и тд)
Наш стек
● Python (Numpy, SciPy, Pandas, sklearn, PyTorch);
● Экосистема Hadoop (PySpark, Hive, Kafka);
● Airflow;
Задачи:
● Повышение эффективности пуш-уведомлений, емейлов и других каналов прямых коммуникаций с клиентами;
● Оптимизация коммуникационной нагрузки, выбор оптимального канала коммуникации, выбор оптимального времени отправки;
Требования к кандидату
● Опыт: Не менее 3х лет релевантного опыта на позиции DS в продуктовой компании
● Python: пишет легко читаемый и поддерживаемый код
● SQL (оконные функции, оптимизация запросов)
● Apache стек: HDFS/Kafka/Spark (DF API)
● Классический ML: бустинги, линейные модели.
● Базовые знания в NLP и CV: трансформеры, TF-IDF
● DL: PyTorch.
Плюшки:
ДМС с первого дня (стоматология, госпитализация, полис ВЗР), Кафетерий льгот Benefactory, 5 day off в год, помимо основного отпуска.
Пишите в ЛС рекрутеру / мне (@DANAlina95 / @kgavrilchik) или скидывайте свои резюме на [email protected]
#Python #Numpy #SciPy #Pandas #sklearn #PyTorch #Hadoop #PySpark #Hive #Kafka #Airflow
Мы в Циан 🏘 ищем сильного Senior Data Scientist-а в команду CRM.
Локация - Полная удаленка внутри РФ. Если есть желание ходить в офис, у нас есть замечательные современные офисы в Москве, Питере и Новосибе.
Вилка - от 350 до 500 гросс, готовы обсуждать
О нас
В Циан большая команда ML. В команде настроены процессы перфоманс ревью, регулярного обмена опытом, выделяем время на исследовательскую работу!
Команда CRM занимается прямыми коммуникациями с клиентами (пуши, емейлы, смски и тд)
Наш стек
● Python (Numpy, SciPy, Pandas, sklearn, PyTorch);
● Экосистема Hadoop (PySpark, Hive, Kafka);
● Airflow;
Задачи:
● Повышение эффективности пуш-уведомлений, емейлов и других каналов прямых коммуникаций с клиентами;
● Оптимизация коммуникационной нагрузки, выбор оптимального канала коммуникации, выбор оптимального времени отправки;
Требования к кандидату
● Опыт: Не менее 3х лет релевантного опыта на позиции DS в продуктовой компании
● Python: пишет легко читаемый и поддерживаемый код
● SQL (оконные функции, оптимизация запросов)
● Apache стек: HDFS/Kafka/Spark (DF API)
● Классический ML: бустинги, линейные модели.
● Базовые знания в NLP и CV: трансформеры, TF-IDF
● DL: PyTorch.
Плюшки:
ДМС с первого дня (стоматология, госпитализация, полис ВЗР), Кафетерий льгот Benefactory, 5 day off в год, помимо основного отпуска.
Пишите в ЛС рекрутеру / мне (@DANAlina95 / @kgavrilchik) или скидывайте свои резюме на [email protected]
#Python #Numpy #SciPy #Pandas #sklearn #PyTorch #Hadoop #PySpark #Hive #Kafka #Airflow
#вакансия #hadoop #sql #java #hive #spark #python #scrum #agile
🚀 Вакансия: Старший разработчик Hadoop 🚀
Локация: Санкт-Петербург/Москва (гибридный формат)
Вилка: 250 - 350К
✈️ Готовы обсудить релокационный пакет для кандидата не из Санкт-Петербурга и Москвы.
О нас:
Мы — ведущий банк России, активно развивающий свои цифровые продукты и услуги. Сейчас мы ищем опытного и амбициозного Старшего разработчика Hadoop, который присоединится к нашей команде для работы над инновационными проектами в области данных и аналитики.
Что вам предстоит делать:
- 🤝 Взаимодействовать с бизнес-заказчиками, понимать и структурировать их требования.
- ✍️ Разрабатывать функциональные требования для построения витрин данных.
- 🛠 Создавать прототипы витрин с использованием SQL, Java, Python, Spark.
- 🧪 Разрабатывать алгоритмы тестирования.
- 📑 Документировать разрабатываемые компоненты ПО.
- 🔧 Устранять дефекты, анализировать и исправлять инциденты в рамках 3-й линии поддержки.
- 🏃♂️ Работать в SCRUM спринтах.
Наши ожидания:
- ✅ Знание SQL (подтверждается прохождением теста).
- 📈 Опыт в бизнес и системном анализе не менее 2 лет: выявление, фиксация, согласование требований, постановка задач разработке, разработка проектной и сопроводительной системной документации.
- 👥 Опыт командной разработки с использованием Jira и Confluence; знание BitBucket будет плюсом.
- 🧩 Умение формализовывать задачи в виде четких и понятных алгоритмов.
- 🎓 Высшее образование.
- 💬 Отличные коммуникативные навыки, самостоятельность, внимательность к деталям, обязательность, ответственность.
Будет преимуществом:
- 📚 Опыт работы с Hadoop и знания его архитектуры.
- 🖥 Знание Hive, Java, Python, Spark.
- 🏃 Опыт работы в Agile.
- 📜 Знание и умение работы с wiki-системой Confluence и трекинговыми системами (Jira, Redmine и т.д.).
- 🏦 Знание банковской предметной области.
Мы предлагаем:
- 📄 Официальное оформление и стабильный, прозрачный доход.
- 🏆 Все льготы и преимущества работы в аккредитованной ИТ-компании.
- 🎁 Партнерские программы и скидки для сотрудников.
- 🏢 Гибридный формат работы.
Если вы хотите развиваться в динамичной компании и работать над интересными проектами в сфере больших данных, мы будем рады видеть вас в нашей команде!
🙋🏼♀️По всем вопросам к @BekhterevaElena
🚀 Вакансия: Старший разработчик Hadoop 🚀
Локация: Санкт-Петербург/Москва (гибридный формат)
Вилка: 250 - 350К
✈️ Готовы обсудить релокационный пакет для кандидата не из Санкт-Петербурга и Москвы.
О нас:
Мы — ведущий банк России, активно развивающий свои цифровые продукты и услуги. Сейчас мы ищем опытного и амбициозного Старшего разработчика Hadoop, который присоединится к нашей команде для работы над инновационными проектами в области данных и аналитики.
Что вам предстоит делать:
- 🤝 Взаимодействовать с бизнес-заказчиками, понимать и структурировать их требования.
- ✍️ Разрабатывать функциональные требования для построения витрин данных.
- 🛠 Создавать прототипы витрин с использованием SQL, Java, Python, Spark.
- 🧪 Разрабатывать алгоритмы тестирования.
- 📑 Документировать разрабатываемые компоненты ПО.
- 🔧 Устранять дефекты, анализировать и исправлять инциденты в рамках 3-й линии поддержки.
- 🏃♂️ Работать в SCRUM спринтах.
Наши ожидания:
- ✅ Знание SQL (подтверждается прохождением теста).
- 📈 Опыт в бизнес и системном анализе не менее 2 лет: выявление, фиксация, согласование требований, постановка задач разработке, разработка проектной и сопроводительной системной документации.
- 👥 Опыт командной разработки с использованием Jira и Confluence; знание BitBucket будет плюсом.
- 🧩 Умение формализовывать задачи в виде четких и понятных алгоритмов.
- 🎓 Высшее образование.
- 💬 Отличные коммуникативные навыки, самостоятельность, внимательность к деталям, обязательность, ответственность.
Будет преимуществом:
- 📚 Опыт работы с Hadoop и знания его архитектуры.
- 🖥 Знание Hive, Java, Python, Spark.
- 🏃 Опыт работы в Agile.
- 📜 Знание и умение работы с wiki-системой Confluence и трекинговыми системами (Jira, Redmine и т.д.).
- 🏦 Знание банковской предметной области.
Мы предлагаем:
- 📄 Официальное оформление и стабильный, прозрачный доход.
- 🏆 Все льготы и преимущества работы в аккредитованной ИТ-компании.
- 🎁 Партнерские программы и скидки для сотрудников.
- 🏢 Гибридный формат работы.
Если вы хотите развиваться в динамичной компании и работать над интересными проектами в сфере больших данных, мы будем рады видеть вас в нашей команде!
🙋🏼♀️По всем вопросам к @BekhterevaElena