Основные задачи:
- Автоматизация инфраструктурных задач Data Science.
- Разработка и оптимизация архитектуры для обработки больших данных (Hadoop, Spark, Kafka).
- Внедрение и развитие CI/CD процессов.
- Интеграция и сопровождение решений на Kubernetes (Kubeflow)
- Разработка и поддержка ETL-процессов (Airflow, Spark).
- Настройка и поддержка аналитических инструментов и сред (JupyterHub, Hadoop ecosystem)
Требования:
- Глубокое понимание реляционной и событийной логики данных.
- Опыт работы с распределёнными системами хранения и map-reduce фреймворками.
- Знание архитектуры DWH (stage, ods, dds).
- Уверенное владение SQL, Python и Scala.
- Понимание Java-зависимостей в ETL.
- Практический опыт работы с Hadoop (HDFS, Ranger/Sentry, Zookeeper).
- Опыт промышленной эксплуатации Airflow и CI/CD пайплайнов.
Что мы предлагаем:
- Кредиты для сотрудников по выгодной ставке;
- Депозиты "ДЛЯ СВОИХ" с повышенной ставкой;
- Ежемесячные лимиты на спорт, здоровье, саморазвитие или на заботу о семье;
- Отсутствие дресс-кода;
- Стабильную зарплату дважды в месяц и ежеквартальные KPI (бонусы).
Задайте вопрос работодателю
Он получит его с откликом на вакансию
Где предстоит работать
Алматы, Абая, Алатау, Байконур, Театр имени Ауэзова, улица Зеина Шашкина, 1/1
Вакансия опубликована 26 ноября 2025 в Алматы