#вакансия #vacancy #fulltime #dataengineer #data
▫️Data engineer в крупную производственную компанию
▫️Оплата: от 160.000 на руки
▫️Требуемый опыт работы: от 1 года
▫️Занятость: Полная занятость, полный день
▫️Формат: гибрид
▫️Локация: Санкт-Петербург
▫️Основные задачи:
- Управление ETL-процессами;
- Очистка информации от лишних дублей, устранение ошибок;
- Проектирование и разработка пайплайнов (ETL-процессов).
- Поддержка существующих баз данных;
- Написание функций и хранимых процедур для преобразования и агрегации данных, создание витрин;
- Анализ существующих SQL запросов с целью их оптимизации;
- Обновление и поддержка используемых инструментов и приложений;
- Подготовка данных для анализа;
- Помощь в подготовке дэшбордов и анализе данных.
▫️Ожидание от кандидата:
- Опыт работы с системами: PostgreSQL, ClickHouse, MS SQL, Arenadata;
- Владение SQL (PostgreSQL/ClickHouse), Python (Pandas, Numpy, SQLAlchemy);
- Умение организовывать ETL-процессы, опыт разработки пайплайнов в NiFi;
- Английский язык на уровне чтения технической документации.
▫️Что готовы предложить:
- Гибридный формат работы;
- Добровольное медицинское страхование и страхование жизни от несчастных случаев;
- Льготное питание;
- Профессиональное развитие и обучение;
- Корпоративные занятия спортом.
- Уровень заработной платы обсуждается с финальными кандидатами.
Контакт: @polina_albova
▫️Data engineer в крупную производственную компанию
▫️Оплата: от 160.000 на руки
▫️Требуемый опыт работы: от 1 года
▫️Занятость: Полная занятость, полный день
▫️Формат: гибрид
▫️Локация: Санкт-Петербург
▫️Основные задачи:
- Управление ETL-процессами;
- Очистка информации от лишних дублей, устранение ошибок;
- Проектирование и разработка пайплайнов (ETL-процессов).
- Поддержка существующих баз данных;
- Написание функций и хранимых процедур для преобразования и агрегации данных, создание витрин;
- Анализ существующих SQL запросов с целью их оптимизации;
- Обновление и поддержка используемых инструментов и приложений;
- Подготовка данных для анализа;
- Помощь в подготовке дэшбордов и анализе данных.
▫️Ожидание от кандидата:
- Опыт работы с системами: PostgreSQL, ClickHouse, MS SQL, Arenadata;
- Владение SQL (PostgreSQL/ClickHouse), Python (Pandas, Numpy, SQLAlchemy);
- Умение организовывать ETL-процессы, опыт разработки пайплайнов в NiFi;
- Английский язык на уровне чтения технической документации.
▫️Что готовы предложить:
- Гибридный формат работы;
- Добровольное медицинское страхование и страхование жизни от несчастных случаев;
- Льготное питание;
- Профессиональное развитие и обучение;
- Корпоративные занятия спортом.
- Уровень заработной платы обсуждается с финальными кандидатами.
Контакт: @polina_albova
#вакансия #СанктПетербург #fulltime #гибрид #удаленка #DATAENGINEER #ДатаИнженер
🌐Ведущий дата-инженер/Data Engineer (Санкт-Петербург)
Гибрид или удалённый формат работы (для кандидатов из других регионов)
🌐 Наши пожелания:
-высшее техническое образование
-опыт работы на позиции Data Engineer/SQL Developer/BI Developer от 3-х лет
- знание Microsoft SQL Server (SSAS, T-SQL, SSRS), опыт работы с многомерными моделями в SSAS
- знание Python, JavaScript
🌐 Задачи:
- Проектирование, разработка, поддержка объектов DWH, структур данных, оптимизированных под задачи BI
- Оптимизация и управление потоками данных вокруг DWH
- Развитие и поддержка ETL процессов
- Формирование требований, контроль качества, приемка результатов у подрядчиков и их перенос в промышленную среду
🌐Вас ждут:
- Привлекательный уровень зарплаты (оклад+премии)
- Расширенный соц. пакет (ДМС, компенсация питания и другие блага) - Официальное трудоустройство и полное соблюдение ТК РФ
💻За подробностями обращайтесь ко мне: @Natalia_Ryabinina
🌐Ведущий дата-инженер/Data Engineer (Санкт-Петербург)
Гибрид или удалённый формат работы (для кандидатов из других регионов)
🌐 Наши пожелания:
-высшее техническое образование
-опыт работы на позиции Data Engineer/SQL Developer/BI Developer от 3-х лет
- знание Microsoft SQL Server (SSAS, T-SQL, SSRS), опыт работы с многомерными моделями в SSAS
- знание Python, JavaScript
🌐 Задачи:
- Проектирование, разработка, поддержка объектов DWH, структур данных, оптимизированных под задачи BI
- Оптимизация и управление потоками данных вокруг DWH
- Развитие и поддержка ETL процессов
- Формирование требований, контроль качества, приемка результатов у подрядчиков и их перенос в промышленную среду
🌐Вас ждут:
- Привлекательный уровень зарплаты (оклад+премии)
- Расширенный соц. пакет (ДМС, компенсация питания и другие блага) - Официальное трудоустройство и полное соблюдение ТК РФ
💻За подробностями обращайтесь ко мне: @Natalia_Ryabinina
#вакансия #de #dataengineer #etl #sql #hadoop #spark
Data Engineer для агротехнологических проектов
При отклике на вакансию сразу присылайте резюме @echeveria_woman
Отклики без резюме рассматриваться не будут!
Ключевые обязанности:
- Разработка и поддержка ETL-процессов
- Управление базами и хранилищами данных
- Интеграция данных из разных источников (сенсоры, спутниковые снимки,
IoT устройства, и тд, и тп)
- Оптимизация систем обработки данных
Ключевые требования:
- 3+ лет опыта в Data Engineering
- Уверенное владение SQL и базами данных (PostgreSQL, MySQL, NoSQL)
- Опыт работы с ETL-инструментами (Apache Airflow, Talend, Informatica, и тд)
- Знание облачных платформ (AWS, GCP, Azure)
- Навыки программирования (Python/Java)
- Опыт с big data (Hadoop, Spark)
- Понимание DevOps и CI/CD
Будет преимуществом:
- Опыт в агросфере
- Знание GIS-технологий
- Опыт с Docker и Kubernetes
Мы предлагаем:
- Вилку 3.5-5 тысяч долларов в месяц
- Гибкий график
- Работу в команде профессионалов
- Возможности для роста
- Участие в значимых агропроектах
Data Engineer для агротехнологических проектов
При отклике на вакансию сразу присылайте резюме @echeveria_woman
Отклики без резюме рассматриваться не будут!
Ключевые обязанности:
- Разработка и поддержка ETL-процессов
- Управление базами и хранилищами данных
- Интеграция данных из разных источников (сенсоры, спутниковые снимки,
IoT устройства, и тд, и тп)
- Оптимизация систем обработки данных
Ключевые требования:
- 3+ лет опыта в Data Engineering
- Уверенное владение SQL и базами данных (PostgreSQL, MySQL, NoSQL)
- Опыт работы с ETL-инструментами (Apache Airflow, Talend, Informatica, и тд)
- Знание облачных платформ (AWS, GCP, Azure)
- Навыки программирования (Python/Java)
- Опыт с big data (Hadoop, Spark)
- Понимание DevOps и CI/CD
Будет преимуществом:
- Опыт в агросфере
- Знание GIS-технологий
- Опыт с Docker и Kubernetes
Мы предлагаем:
- Вилку 3.5-5 тысяч долларов в месяц
- Гибкий график
- Работу в команде профессионалов
- Возможности для роста
- Участие в значимых агропроектах
#DataEngineer #ContractPosition #Remote #GCP #Snowflake #dbt #Fintech #API #Airflow #GitHub
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://yangx.top/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://yangx.top/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?