Просмотр вакансии

Сегодня 13-08-2025 07:39
12.08.2025, 12:27

Data Engineer / Инженер данных

Работодатель: KazInSys

KazInSys

Город: Астана
Занятость: Полная занятость, Полный день
Опыт работы: От 1 года до 3 лет

О проекте:

Мы реализуем проект по созданию аналитических кейсов и дашбордов для принятия управленческих решений на основе данных.
Работаем с 120+ интеграциями в рамках системы SDU, подключаем базы данных госорганов и квазигосударственного сектора, используем Apache Superset как основной инструмент визуализации, а также PostgreSQL, Clickhouse, Apache Airflow для обработки и интеграции данных.

Задачи:

  • Интеграция источников данных в SDU (Smart Data Ukimet) в соответствии с регламентами (Приложение 2 ТС).

  • Разработка и оптимизация ETL/ELT-пайплайнов с использованием Apache Airflow, Pentaho, Python, SQL.

  • Проектирование и настройка витрин данных нулевого и первого уровня (PostgreSQL, Clickhouse).

  • Обеспечение качества данных: валидация, проверка полноты, уникальности, актуальности.

  • Автоматизация обновления данных в аналитических кейсах.

  • Подготовка датафлоу, ER-диаграмм, спецификаций витрин и бизнес-правил.

  • Взаимодействие с бизнес-аналитиком и менеджером проекта для уточнения требований и источников.

  • Поддержка разработки визуализаций в Apache Superset (подключение к витринам, оптимизация запросов).

Технологический стек:

  • Базы данных: PostgreSQL, Clickhouse, MS SQL, MySQL.

  • ETL/ELT: Apache Airflow, Pentaho Data Integration, Python (pandas, SQLAlchemy).

  • Визуализация: Apache Superset (базовые навыки интеграции и оптимизации запросов).

  • Инструменты: Git, DBeaver, Knime, REST API, JSON, XML.

  • Методологии: работа с регламентами интеграции, проектирование DWH.

Требования:

  • Опыт работы Data-инженером или в смежных ролях от 2 лет.

  • Уверенное владение SQL (оптимизация запросов, индексы, партиционирование).

  • Опыт интеграции данных из различных источников (API, файлы, БД).

  • Навык построения ETL/ELT-процессов, автоматизации загрузок.

  • Опыт работы с PostgreSQL и одной из колонночных БД (Clickhouse будет плюсом).

  • Понимание архитектуры DWH и принципов построения витрин данных.

  • Базовые навыки работы с BI-платформами (Superset, Power BI, Tableau и др.).

  • Понимание принципов проверки качества данных.

Будет плюсом:

  • Опыт работы в государственных или квазигосударственных проектах.

  • Знание регламентов интеграции БД в SDU или аналогичные системы.

  • Навыки написания документации (датафлоу, схемы, методики расчета).

  • Опыт в автоматизации тестирования качества данных.

  • Опыт работы с большими объемами данных (Big Data, Kafka, Spark).

 

Откликнуться на вакансию

Дата
12.08 13.08
USD
2.9807 2.9779
EUR
3.4698 3.4566
RUB
3.7158 3.7166
UAH
7.2125 7.162
CHF
3.6819 3.6723
GBP
4.0087 4.0082
PLN
8.1576 8.1128
Минск
Утром: °C
Днем: °C
Вечером: °C
Ночью: °C

Сейчас: Скорость ветра: 5-7 м/c Атм. давление: 758 мм.рт.ст Влажность: 90%

Спецпредложения