Обязанности:
Реализация ETL/ELT-пайплайнов на dev/test-стендах с использованием Airflow, Spark, SQL
Создание и оптимизация скриптов для сбора данных, формирования витрин.
Проведение нагрузочного тестирования, валидация качества данных.
Подготовка решений к переносу на prod-среды (совместно с DevOps).
Внедрение контролей качества данных на этапе всех этапах движения данных между системами.
Ведение технической документации по ETL-процессам и объектам DWH.
Участие в Data Governance (техническая реализация стандартов).
Оптимизация производительности текущих решений.
Участвовать в обсуждении и принятии решений в архитектурных решениях работы с данными и построении конечных витрин данных для пользователей
Решение инцидентов, связанных с данными на prod-средах с точки зрения тестирования и поиска багов

Требования:
Экспертные знания SQL (диалект Oracle) для разработки/оптимизации ETL-скриптов, создания витрин.
Опыт работы с Airflow, Spark; знание Informatica PowerCenter, Greenplum — как ключевое преимущество.
Знание языка Python на хорошем уровне. (работа с библиотеками Spark/PySpark/pandas/numpy)
Глубокое понимание архитектуры Big Data-платформ (включая DWH, Data Lakes), принципов работы ETL/ELT.
Опыт оптимизации запросов и пайплайнов (на уровне кода и инфраструктуры).
Уверенное владение Git, CI/CD-инструментами
Умение быстро погрузиться в новый стек технологий при необходимости
Работа с Jira, Confluence для трекинга задач и документации.
Знание подходов к тестированию данных (unit-тесты, валидация качества).
Умение интерпретировать технические требования от бизнес-аналитиков.
Понимание банковской специфики данных (регламенты, безопасность, структура продуктов).
Базовые навыки делового общения для синхронизации с командами.
Системное мышление, умение декомпозировать задачи.
Опыт работы в банковской сфере
Английский язык (чтение технической документации)

Условия:
Стабильный и прозрачный доход: размер заработной платы обсуждается по итогам собеседования + квартальная премия по результатам KPI
Полную удалёнку или гибрид на выбор, а также уютный ИТ-хаб в Москве, Санкт-Петербурге, Екатеринбурге и сезонный коворкинг в Сочи
Сложные и интересные задачи, современный стек технологий
Заботу о вашем здоровье: программа ДМС с первых дней работы, куда входит стоматология, обслуживание в лучших клиниках города, страхование и полная компенсация 10-ти дней больничного
Возможность вертикального и горизонтального карьерного роста: регулярно проходят тренинги, вебинары, митапы и демо-дни
Доступ к бесплатным корпоративным библиотекам Alpina Digital, MyBook и бизнес-изданий
Предложения от Банка только для сотрудников: собственные спортзалы (Москва, Санкт-Петербург, Екатеринбург), а также скидки на услуги туристических агентств, продукты питания, в рестораны, бары, магазины

Реализация ETL/ELT-пайплайнов на dev/test-стендах с использованием Airflow, Spark, SQL Создание и оптимизация скриптов для сбора данных, формирования витрин. Проведение нагрузочного тестирования, валидация качества данных. -Подготовка решений к переносу на prod-среды (совместно с DevOps). -Внедрение контролей качества данных на этапе всех этапах движения данных между системами. -Ведение технической документации по ETL-процессам и объектам DWH. -Участие в Data Governance (техническая реализация стандартов). -Оптимизация производительности текущих решений. -Участвовать в обсуждении и принятии решений в архитектурных решениях работы с данными и построении конечных витрин данных для пользователей -Решение инцидентов, связанных с данными на prod-средах с точки зрения тестирования и поиска багов Экспертные знания SQL (диалект Oracle) для разработки/оптимизации ETL-скриптов, создания витрин. Опыт работы с Airflow, Spark; знание Informatica PowerCenter, Greenplum — как ключевое преимущество. Знание языка Python на хорошем уровне. (работа с библиотеками Spark/PySpark/pandas/numpy) Глубокое понимание архитектуры Big Data-платформ (включая DWH, Data Lakes), принципов работы ETL/ELT. Опыт оптимизации запросов и пайплайнов (на уровне кода и инфраструктуры). Уверенное владение Git, CI/CD-инструментами Умение быстро погрузиться в новый стек технологий при необходимости Работа с Jira, Confluence для трекинга задач и документации. -Знание подходов к тестированию данных (unit-тесты, валидация качества). -Умение интерпретировать технические требования от бизнес-аналитиков. -Понимание банковской специфики данных (регламенты, безопасность, структура продуктов). -Базовые навыки делового общения для синхронизации с командами. -Системное мышление, умение декомпозировать задачи. -Опыт работы в банковской сфере -Английский язык (чтение технической документации) Стабильный и прозрачный доход: размер заработной платы обсуждается по итогам собеседования + квартальная премия по результатам KPI Полную удалёнку или гибрид на выбор, а также уютный ИТ-хаб в Москве, Санкт-Петербурге, Екатеринбурге и сезонный коворкинг в Сочи -Сложные и интересные задачи, современный стек технологий -Заботу о вашем здоровье: программа ДМС с первых дней работы, куда входит стоматология, обслуживание в лучших клиниках города, страхование и полная компенсация 10-ти дней больничного -Возможность вертикального и горизонтального карьерного роста: регулярно проходят тренинги, вебинары, митапы и демо-дни -Доступ к бесплатным корпоративным библиотекам Alpina Digital и бизнес-изданий -Предложения от Банка только для сотрудников: собственные спортзалы (Москва, Санкт-Петербург, Екатеринбург), а также скидки на услуги туристических агентств, продукты питания, в рестораны, бары, магазины