Пошук роботи на robota.uaukraine
Віддалена робота

BI/AI Data Developer

4 тижні тому
08 січня 2026
Київ
Віддалена робота
Гібридна
Повна зайнятість
Компенсація навчання
Компенсація спортзалу
Медичне страхування
Корпоративні заходи
Курси іноземної мови

Ми динамічна технологічна компанія, що працює з високими навантаженнями даних. Ми шукаємо висококваліфікованого BI / AI Data Developer рівня Mid-Senior для формування наступного покоління data-driven рішень. Кандидат буде відповідальний за архітектуру даних, яка забезпечує як бездоганну фінансову звітність та бізнес-аналітику, так і надійну інфраструктуру для наших інноваційних систем на базі LLM.

Наш технологічний стек та середовище: Ми сформована й технічно сильна BI-команда, яка працює з масштабованою аналітичною інфраструктурою. У нашому стеку Vertica як основне високопродуктивне дата-сховище, Kafka з великою кількістю топіків для стрімінгу подій, Trino як шар віртуалізації для роботи з різними джерелами, MinIO як об'єктне сховище для холодних даних, а також Tableau як ключова платформа візуалізації з розгалуженою мережею дашбордів, джерел даних та моделей. Ми підтримуємо великий обсяг бізнес-процесів, маємо стабільні пайплайни, якісний моніторинг, чітко організовані ETL-процеси та продакшн-середовище з високим навантаженням. Зараз ми вступили у фазу трансформації: переходимо на MAS-архітектуру, стандартизуємо моделювання через dbt, розвиваємо стрімінгові сценарії, тестуємо та інтегруємо AI/LLM-рішення у BI-процеси та готуємо нашу платформу до сучасних AI-driven підходів у прийнятті рішень. Це не побудова з нуля це розвиток і підсилення вже існуючої зрілої екосистеми, яка виходить на новий рівень.

Цілі та вплив ролі: Ви будете ключовим інженером, який активно сприятиме еволюції нашої Data-платформи. Ваша роль полягає у безпосередній розробці та оптимізації процесів, які гарантують консистентність, надійність та масштабованість даних. Ви будете застосовувати глибоку інженерну експертизу для забезпечення потреб як традиційної BI-звітності, так і для створення інфраструктури, необхідної для роботи передових AI/LLM-застосувань. Ця позиція вимагає сильної технічної бази, архітектурного розуміння та здатності перетворювати дані на бізнес-цінність.

Що очікуємо від кандидата: 

Обов'язкова технічна кваліфікація (Must-Have):

  • Мінімум 3+ роки досвіду в ролі Data Developer/Engineer у високо-навантажених (high-load) аналітичних середовищах.
  • Глибоке знання SQL (3+ роки) та досвід роботи з масивно-паралельними аналітичними базами даних та шарами віртуалізації, включаючи оптимізацію складних запитів.
  • Професійне володіння Python (2+ роки) для розробки скриптів, API та автоматизації ETL процесів.
  • Практичний досвід роботи з Apache Airflow для оркестрації ETL пайплайнів, включаючи інтеграцію з dbt, Kafka та ключовими сховищами даних.
  • Обов'язковий практичний досвід роботи з dbt для стандартизованого моделювання та трансформації даних.
  • Досвід роботи зі стрімінговими даними, включаючи конфігурацію та оптимізацію Kafka топіків.
  • Практичний досвід побудови Data Lakehouse архітектури та роботи з об'єктними сховищами (MinIO).
  • Розуміння архітектури LLM, знання концепцій NLP, Information Retrieval та досвід роботи з фреймворками для трасування (наприклад, LangFuse).


Додаткова перевага (Preferred Qualifications):

  • Знайомство з альтернативними BI/AI технологіями Microsoft, такими як Azure AI, Fabric, та Power BI.
  • Досвід роботи з Data Catalog / Data Governance інструментами (наприклад, DataHub), особливо в інтеграції з Vertica.
  • Практичний досвід роботи з ключовими технологіями нашого стеку: Vertica, Trino, MinIO, Kafka.
  • Досвід роботи з платформами візуалізації Tableau.
  • Знайомство з концепціями dbt для стандартизованого моделювання даних.
  • Досвід моделювання даних для BI-систем (наприклад, Tableau) та розуміння семантичного шару.
  • Розуміння MAS-архітектури та підходів до розвитку платформи.
  • Досвід у сфері векторних пошуків, LLM orchestration та використання фреймворків для трасування.


Майбутні задачі: 

  • Проєктування та розвиток MAS-архітектури: модулі доступу до даних, сервіси для LLM, шар аналітики.
  • Інтеграція LLM для обробки промптів: OpenAI, Azure AI, локальні моделі, маршрутизація запитів.
  • Використання LangFuse для логування промптів, трасування та оцінки якості.
  • Управління та розвиток Data Catalog (наприклад, DataHub) для забезпечення прозорості даних, Data Governance та підтримки self-service аналітики.
  • Автоматизація та оркестрація складних ETL та AI-конвеєрів за допомогою Apache Airflow.
  • Розробка та оптимізація ETL процесів у Vertica, Trino, MinIO з використанням dbt.
  • Розробка скриптів та API на Python, забезпечення надійності та автоматизації процесів.
  • Налаштування потокових даних та побудова Data Sources.
  • Конфігурація та оптимізація Kafka топіків, стрімінгових потоків даних.
  • Побудова надійних Data Sources для Tableau та AI-моделей з використанням dbt: моделювання, агрегація, партиціонування, інтеграція з MinIO/Trino.
  • Забезпечення цілісності та якості даних, моніторинг потоків та логування.
  • Підтримка структури даних для роботи з LLM та промпт-системами, забезпечення швидкого доступу до інформації.

Компанія пропонує:

  • Розвиток у міжнародній IT-компанії.
  • Програму професійного менторства та адаптації.
  • Стабільний дохід з прив'язкою до курсу $.
  • Оплачувану відпустку та лікарняний.
  • Компенсацію 50% спорта, психолога, курсів іноземної мови, дитячих гуртків,
  • медичного страхування, занять творчістю.
  • Команда, яка буде для тебе підтримкою та натхненням.

Алла