Nabídka práce
Datový inženýr – Budování datové platformy (Microsoft Fabric)
Místo výkonu: Praha nebo BratislavaUrčeno pro: nezdravotnické profese
O nás
Jsme datový tým skupiny AGEL a.s., který staví moderní datovou platformu pro reporting a pokročilou analytiku v prostředí Microsoft Fabric. Naše zdroje sahají od nemocničních informačních systémů a HR aplikací až po controlling, účetnictví i obchodní data.
Tvoje práce bude začínat tam, kde data poprvé přicházejí – v bronzové vrstvě – a budeš jedním z hlavních lidí, kdo zajišťuje, že se z heterogenních zdrojů stanou spolehlivá, kvalitní a bezpečná data pro další vrstvy.
Co budeš dělat?
- Navrhovat, stavět a spravovat datové toky z on-prem systémů (Oracle, MS SQL, HR systémy, účetnictví, interní aplikace) do Microsoft Fabric.
- Zpracovávat a transformovat data v bronzové a částečně i stříbrné vrstvě (včetně spolupráce na návrhu architektury ve stříbrné vrstvě společně s BI inženýry).
- Vytvářet a udržovat ETL/ELT procesy pomocí Apache Airflow a Fabric Pipelines.
- Programovat datové transformace v Pythonu, PySpark a TSQL a testovat je.
- Spolupracovat s BI inženýry, analytiky a IT na tom, aby data byla dostupná, bezpečná a kvalitní.
- Automatizovat opakující se úlohy a zefektivňovat datové toky pomocí CI/CD nástrojů.
- Spravovat monitorování a alerting datových toků, včetně logování chyb a výkonnostních metrik
- Obstarávat zabezpečení dat a přístupů podle principů DevSecOps, včetně správy klíčů a oprávnění.
- Spolupracovat s IT na integraci a správě spravované platformy, řešení incidentů, upgrade komponent a škálování.
- Dokumentovat řešení (Confluence), verzovat kód (GitHub) a pracovat v plánování úkolů (Jira, Scrumban).
Co od tebe očekáváme:
- Zkušenost s datovým inženýrstvím min. 2 - 4 roky na podobné pozici.
- Praktická znalost Microsoft Fabric nebo zkušenost s podobnými cloudovými datovými platformami (Azure Synapse, Databricks apod.).
- Python na produkční úrovni (ETL skripty, datové transformace).
- Znalost SQL (MS SQL / TSQL) a PySpark.
- Znalost PL/SQL výhodou.
- Zkušenost s Apache Airflow (on-prem nebo cloud).
- Schopnost pracovat s různými databázovými technologiemi (Oracle, SQL Server).
- Základní orientace v principech Data Lakehouse a medailové architektury (bronze/silver/gold).
- Zájem o datovou kvalitu, bezpečnost a optimalizaci výkonu.
- Samostatnost, ale i schopnost fungovat v malém agilním týmu.
- Znalost dbt je výhodou.
Těšit se můžeš na:
- Kompletní zázemí pro práci s nejmodernějšími datovými technologiemi v reálném prostředí zdravotnictví i dalších odvětví.
- Práci na viditelných projektech pro nejvyšší vedení společnosti.
- Možnost podílet se na budování platformy od základů.
- Práci na plný úvazek.
- 25 dnů dovolené + 3 dny volna navíc (po roce v zaměstnání).
- Příspěvek na životní a penzijní pojištění (po roce zaměstnání).
- Stravenkovou kartu, Multisport kartu, cafeterii a mnoho dalších firemních benefitů.
Místo výkonu práce:
- Praha nebo Bratislava.