Budujeme novou celofiremní datovou platformu, která propojí data napříč všemi týmy a umožní rychlou a efektivní práci s nimi. Naše řešení stavíme na technologii Snowflake Data Cloud a analytické platformě Keboola, které zajišťují škálovatelné zpracování velkých objemů dat a podporují samoobslužnou analytiku napříč firmou. 

 Postupně nahrazujeme stávající interně vyvinutý analytický nástroj založený na Hadoop technologiích, jako jsou Spark a Hive. Pracujeme také s technologiemi pro streamové zpracování dat, jako jsou Kafka a Flink. Součástí transformace je i integrace nástrojů pro orchestraci a vizualizaci dat, například Airflow, Tableau nebo Superset. Kromě technického rozvoje klademe důraz na data governance a rozvoj data literacy, abychom podpořili kulturu rozhodování založenou na datech. 

 Jsme osmičlenný tým složený z vývojářů, datových inženýrů, analytiků a produktového manažera. Aktivně spolupracujeme s týmy napříč firmou v rámci přístupu data mesh a společně budujeme otevřený datový ekosystém, který umožní snadný a bezpečný přístup k datům přesně v momentě, kdy jsou potřeba. 

Co vás denně čeká 

  • Navrhování a vývoj škálovatelných řešení pro moderní datovou platformu postavenou na technologii Snowflake Data Cloud, která zpracovává velké objemy dat. 
  • Integrace a optimalizace datových toků s využitím big data technologií jako Spark, Hive, Kafka a Flink pro efektivní dávkové i streamové zpracování dat. 
  • Automatizace datových procesů prostřednictvím návrhu a správy workflow v Apache Airflow a vývoj CI/CD pipeline pro hladký a bezpečný deployment. 
  • Monitorování a optimalizace výkonu platformy pomocí nástrojů jako Prometheus a Grafana, a řešení provozních incidentů s cílem zajistit plynulý chod datových služeb. 
  • Nasazování a správa kontejnerizovaných služeb v prostředí Docker a Kubernetes s využitím ArgoCD pro automatizované deploymenty a správu verzí. 
  • Spolupráce s analytiky, inženýry a produktovými týmy na návrhu a rozvoji datových řešení podle principů data mesh. 
  • Integrace nových datových zdrojů a podíl na nastavování a prosazování pravidel data governance a bezpečnosti dat (data security). 
  • Vylepšování interních API a nástrojů pro efektivní práci s daty a podporu ostatních týmů napříč firmou. 
  • Účast na code reviews a mentoring týmu, sdílení best practices a podpora technologického růstu méně zkušených kolegů. 

Co budete potřebovat za znalosti/dovednosti 

  • Praxi s big data technologiemi: Zkušenost s nástroji jako Spark, Hive, Kafka a Flink pro dávkové i streamové zpracování dat. 
  • Znalost databázových technologií: Praktická zkušenost s relačními databázemi a optimalizací dotazů. 
  • Pokročilou znalost programování: Výborná orientace v jazycích jako Python, Scala nebo Java pro vývoj backendových a datových aplikací. 
  • Zkušenosti s automatizací a orchestrace datových procesů: Znalost nástrojů jako Apache Airflow a schopnost navrhovat a spravovat CI/CD pipeline. 
  • Znalost kontejnerizace a správy infrastruktury: Zkušenosti s Dockerem a Kubernetes, včetně nástrojů pro automatizované deploymenty jako ArgoCD. 
  • Znalost monitoringu a optimalizace: Schopnost pracovat s nástroji Prometheus a Grafana pro sledování a optimalizaci výkonu. 
  • Povědomí o data governance a bezpečnosti dat: Základní znalost principů data governance, data security a správy přístupových práv. 
  • Analytické a systémové myšlení: Schopnost navrhnout robustní, efektivní a škálovatelná řešení pro zpracování velkých objemů dat. 
  • Zkušenosti s agilním vývojem: Orientace v agilních metodikách (Scrum, Kanban) a schopnost spolupracovat v rámci multidisciplinárního týmu. 
  • Výhodou: Zkušenost s cloudovými datovými platformami jako Snowflake Data Cloud, Redshift nebo BigQuery a návrhem interních API či datových integračních procesů. 

Na co se můžete těšit 

  • Práci na klíčové celofiremní platformě, která stojí na moderním data stacku a významně ovlivňuje datově podložené rozhodování napříč firmou. 
  • Moderní technologie a nástroje – budete pracovat s Snowflake Data Cloud, Keboola, Apache Spark, Kafka, Flink, Airflow, Docker, Kubernetes a ArgoCD. 
  • Technické výzvy a smysluplné projekty – čeká vás práce s velkými objemy dat, optimalizace datových toků a vývoj škálovatelných řešení. 
  • Možnost ovlivnit technologické směřování – prostor přicházet s vlastními nápady a podílet se na výběru a zavádění nových technologií. 
  • Přátelský a neformální tým – spolupráce v osmičlenném týmu rozprostřeném mezi Prahou, Brnem a Bratislavou, kde si všichni tykáme, sdílíme know-how a společně řešíme technické výzvy. 
  • Spolupráce napříč firmou – budete součástí otevřeného ekosystému, kde úzce spolupracujeme s analytiky, inženýry i produktovými týmy v rámci data mesh. 
  • Flexibilní pracovní doba a možnost home office – práce z kanceláře i z domova podle vašich preferencí. 
  • Podpora vzdělávání a osobního rozvoje – účast na odborných školeních, konferencích, interních meetupech a přístup k odborným materiálům. 
  • Zázemí stabilní české firmy – žádné zbytečné formality, žádný dress code, moderní kanceláře v Praze, Brně i Bratislavě a skvělé kafe k tomu. 

Seznam.cz, a.s.