SQL JOBS канал вакансий
728 subscribers
7 photos
1 video
2 files
77 links
#job - вакансия #employee - кандидат
加入频道
Forwarded from Kate
Вот подробнее, если можно было бы дополнить а то вопросы у публики)

#вакансии #devops #PostgreSQL #АдминистраторБД #Databaseadministrator #DBA

Автор для разработки текстового курса по администрированию PostgreSQL, Pangolin
Компания: Standard Data
Город: Москва
Зарплата: от 25000р до 70000р (net)
Формат работы: удаленка

⚡️Ищем Автора для разработки асинхронного курса по администрированию PostgreSQL, Pangolin.

Кто подходит: Database administrator уровня middle или senior.

Ожидания от кандидата:
• опыт от 3 лет администрирования реляционных СУБД;
• опыт от 1 года администрирования PostgreSQL и его российских аналогов.

Что нужно делать:
•  разрабатывать уроки и задачи для курса по администрированию PostgreSQL и его российских аналогов (DBA2, DBA3);
•  создавать текстовые материалы и задания;
•  работать в команде с техлидом, редактором и дизайнером.

Что мы предлагаем:
формат работы - удаленный.
вознаграждение за один урок (3-5 страниц текста в Google Документах): 7000 ₽ - 12000 ₽ ;

Для связи: 📱 @KaterinkaGl
🥴7😁5🤡2
Forwarded from Ислам
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы

Data-инженер
💰 Зарплата: от 300 000 до 350 000 ₽ на руки
📍 Локация: можно удалённо / гибрид / офис в Алматы
Тип занятости: полный рабочий день

🔹 Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt

🔹Описание вакансии
Мы строим платформу данных нового поколения с нуля - и ищем опытного Data Engineer, который станет ключевым участником этого процесса. У нас амбициозные цели: обеспечить надежную и масштабируемую архитектуру, построить лучшие в отрасли практики работы с данными, и внедрить современный DataOps-подход.
Если вы готовы влиять на архитектуру и процессы - присоединяйтесь.

🔹Чем предстоит заниматься:
• Участвовать в проектировании и создании масштабируемой платформы данных с нуля.
• Разрабатывать надежное и высокопроизводительное хранилище данных на базе ClickHouse.
• Строить гибкие и отказоустойчивые ETL/ELT пайплайны.
• Выстраивать процессы Data Quality и обеспечивать Data Observability.
• Активно развивать и внедрять DataOps-подходы.
• Проводить менторство, код-ревью, участвовать в техническом развитии команды.
• Сотрудничать с системными аналитиками, разработчиками, DevOps-инженерами, принимая участие в архитектурных решениях

🔹Что мы ожидаем:
• 5+ лет опыта в области Data Engineering.
• Экспертиза в ClickHouse (глубокое понимание архитектуры, шардинг, репликация и оптимизация).
• Отличное знание SQL, Python, опыт написания production-ready кода.
• Практический опыт работы с dbt, Kafka, Kafka Connect, Debezium.
• Уверенные навыки работы с Airflow или аналогами.
• Опыт работы с CI/CD.
• Знание и практическое применение принципов Data Observability.
• Понимание DataOps-процессов.
• Понимание методологий проектирования хранилищ данных.
• Отличные навыки коммуникации и умение работать в команде.
• Будет плюсом опыт работы с Docker, Kubernetes.

🔹Что мы предлагаем:
• Гибкий формат работы: удаленно или в современном офисе в Алматы.
• Работа с современным стеком и возможность внедрять лучшие практики.
• Работа с миллионной аудиторией пользователей и большим разнообразием данных.
• Возможность внедрять лучшие индустриальные практики и видеть реальный результат своей работы.

Контакты: @islam14_hr
1