Обязанности:

  • Проектирование и развитие data-пайплайнов для обработки событий кибербезопасности.
  • Нормализация и обогащение событий безопасности.
  • Проектирование и оптимизация аналитического хранилища данных (ClickHouse / StarRocks / аналоги).
  • Подготовка витрин данных под быстрые запросы и аналитику.
  • Эксплуатация data-сервисов в Kubernetes: деплой, ресурсы, отказоустойчивость, масштабирование.
  • Обеспечение наблюдаемости и качества данных (метрики, алерты, replay/backfill).
  • Участие в разборе инцидентов и оптимизации производительности data-платформы.

Требования:

  • Опыт построения и эксплуатации data pipelines (ETL, ELT и/или streaming) в production-среде.
  • Уверенный SQL, включая оптимизацию запросов и анализ производительности.
  • Опыт работы с OLAP-СУБД (ClickHouse / StarRocks / Druid / Pinot или аналоги).
  • Понимание принципов потоковой обработки данных (идемпотентность, дедупликация, обработка ошибок).
  • Опыт проектирования и оптимизации витрин и схем хранения данных.
  • Уверенные знания Kubernetes и опыт эксплуатации сервисов в production-среде.
  • Понимание принципов надежности, масштабирования и наблюдаемости data-систем.