Описание вакансии: в Greenplum

IT-направление

@datajobschannel 03.04.2026 20:17 Рекрутер: @sautinI

Описание вакансии: Senior Data Engineer (Greenplum) — Hamkorbank, Ташкент Hamkorbank — один из крупнейших банков Узбекистана. В 2025 году мы запустили масштабную программу развития data-платформы: строим современный DWH с нуля, самостоятельно выбирая архитектуру и инструменты. Никакого legacy — только осознанные технические решения. Сейчас ищем Senior Data Engineer в команду Greenplum. Это критически важная роль: вам предстоит построить DDS-слой (детальное доменное хранилище) — фундамент всей аналитической платформы банка. ━━━ Что вы будете делать ━━━ • Проектировать и разрабатывать DDS-слой в Greenplum: доменные сущности (Клиент, Счёт и другие), связи, правила загрузки и историчность данных • Настраивать и оптимизировать распределение данных по сегментам, управлять resource groups под разные типы нагрузки • Обеспечивать надёжную загрузку данных из Kafka (CDC через Debezium) и batch-источников • Описывать трансформации через dbt, поддерживать DAG-оркестрацию в Apache Airflow • Мониторить и поддерживать работу платформы совместно с командой инженеров • Взаимодействовать с аналитиками-инженерами, которые строят витрины поверх GP ━━━ Наш стек ━━━ Хранилище: Greenplum (основной), ClickHouse (вспомогательный) Трансформации: dbt Оркестрация: Apache Airflow Потоки / CDC: Apache Kafka + Debezium Метаданные и качество: OpenMetadata BI: Apache Superset, Power BI В планах: Spark, MinIO / S3, ML-сервер (JupyterLab + mlflow), Vector DB ━━━ Что мы ищем ━━━ • Опыт коммерческой разработки в Greenplum: дистрибуция таблиц, сегменты, resource groups / queues — обязательно • Понимание MPP-архитектуры: distribution keys, skew, AO vs heap таблицы, partitioning • Опыт проектирования детального слоя DWH: 3NF, Data Vault или аналоги; знание SCD-типов • Практический опыт с dbt: модели, материализации (table / incremental / view), ref(), тесты • Опыт работы с потоковыми данными: Kafka, CDC, паттерны загрузки delta-данных • Знание Apache Airflow: DAG-и, зависимости, мониторинг • Уверенный SQL: оконные функции, планы выполнения, оптимизация запросов Будет плюсом: опыт в банковской или финтех-сфере; знание OpenMetadata или аналогов (DataHub, Amundsen) ━━━ Что мы предлагаем ━━━ • Работу над современным data-стеком, который строится с нуля — без переделки legacy • Сильную команду: тех-лид GP, архитектор, CDO из инженерии • Технический рост: в планах векторные БД, агентные сценарии, ML-платформа • Офис в Ташкенте; для кандидатов из других городов — поддержка при релокации (2–3 недели на переезд) • Конкурентный уровень компенсации — обсуждается индивидуально ━━━ Формат работы ━━━ Офис (гибрид), Ташкент. Релокация Контакт для связи: @sautinI

Похожие вакансии

После первого сообщения

Не теряйте контекст по этой вакансии: сначала отправьте короткий отклик, затем через 3–5 дней сделайте follow-up, если ответа не было.