Opis projektu
- Budowa i utrzymanie architektury OT→IT data pipelines (batch + streaming) w środowisku produkcyjnym.
- Implementacja Unified Namespace (UNS) zgodnie z ISA-95/88 jako centralnego modelu danych.
- Integracja systemów SCADA, MES, Historian z chmurą (Azure/AWS/GCP) i systemami enterprise.
- Obsługa real-time data ingestion (MQTT, Event Hubs) oraz klasycznych integracji (API, SFTP, EIB).
- Praca w środowisku regulowanym prawnie z naciskiem na data governance, lineage i compliance.
- Współpraca z zespołami OT, IT, Data i biznesem (czyli wszyscy czegoś chcą 😉).
Zadania
- Projektowanie i rozwój pipelineów danych e2e (streaming + batch).
- Integracja systemów przemysłowych (OPC UA, MQTT, Modbus) z platformami IT i API.
- Modelowanie danych i wdrażanie UNS.
- Optymalizacja storage'u (SQL/NoSQL) pod kątem wydajności i kosztów.
- Implementacja security (authN/authZ, szyfrowanie, segregacja sieci) i mechanizmów HA.
- Praca w modelu DevOps: Git, CI/CD, code review, dokumentacja architektury i przepływów danych.
Wymagania
- Doświadczenie w data engineering / integracjach (mile widziane OT/industrial).
- Znajomość protokołów: OPC UA, MQTT (lub chęć wejścia w OT stack bez bólu 😉).
- Doświadczenie z chmurą (Azure/AWS/GCP) i systemami streamingowymi (Event Hubs/Kafka).
- Praktyka w modelowaniu danych, UNS lub podobnych architekturach (data mesh/event-driven).
- Znajomość SQL/NoSQL, API, integracji batch/streaming oraz zasad data governance.
- Świadomość security i reliability + doświadczenie z Git, CI/CD i dokumentacją techniczną.