Functieomschrijving

Voor het Kadaster zijn wij op zoek naar een senior data engineer. Voor een recent opgestart team zijn wij op zoek naar een Senior Data Engineer. Het team Generieke Data Componenten (GDC) komt voort uit het programma Geo Data Plein (GDP) en zal zich richten op de ontsluiting en ontwikkeling van service vanuit de Kadaster DataHub. De Data Hub is een multi-tenant platform, waarop diensten hun objectenregistraties op een hoogwaardige manier kunnen beheren en beschikbaar kunnen stellen aan andere diensten via verschillende interfaces. Het team Generieke Data Componenten volgt de DevOps filosofie en is verantwoordelijk voor zowel de ontwikkeling, voortbrenging als het beheer van de applicatie. De dienst borduurt voort op een rijk palet aan interfaces, zoals GraphQL (voor operationele toepassingen) en Delta Tables / Apache Spark (voor bulk / analytische toepassingen). Binnen het GDC team zullen diverse services ontwikkeld worden op basis van behoeften van interne klanten.
Als Senior Data Engineer werk je aan het opstarten en doorontwikkelen van de dienst GDC. Met je team plan je twee wekelijkse sprints, de backlog wordt bijgehouden in Jira. Je bent in staat om zelfstandig te werken aan de diverse services en levert kwalitatief hoogwaardige software op. Je kent de belangen van generieken componenten en standaardisatie.

Taken
  • Werken in een Agile / DevOps omgeving
  • Sparren over ontwerpkeuzes / oplossingen
  • Peer-reviewing en borgen van kennis (documentatie en kennisdeling)
  • Actief ontwikkelen aan de verschillende componenten van het platform
  • Actief beheren en monitoren van hoog beschikbare componenten
Competenties
  • Teamspeler
  • Proactief
  • Klantgericht
  • Resultaatgericht
  • Kwaliteitsgericht
  • In staat om zelfstandig binnen een scrumteam te werken
  • Analytisch vermogen

Functie eisen

  • Aantoonbaar HBO werk- en denkniveau, verkregen op basis van een afgeronde opleiding IT
  • Minimaal 3 jaar ervaring met DevOps en Data Enginering in een CI/CD omgeving
  • Taalniveau Nederlands minimaal B2
  • Minimaal 5 jaar ervaring met de volgende technieken en tools: o Java (waarvan minimaal 1 jaar ervaring met Java 11); PostgreSQL database (of vergelijkbaar) en Python
  • Minimaal 2 jaar ervaring met de volgende tools en technieken: Apache Spark, Container technologie (Docker/Kubernetes), Linux / shell scripting, CI/CD Tooling (Git/Gitea, Jenkins, Maven)
  • Aantoonbare ervaring met: Apache Airflow, Azure Databricks, Enterprise integration patterns, Cloud(-native) concepten, Security risks & best practices, Profiling & performance testing

Functie wensen

Geen.

Extra informatie

  • Plaats Apeldoorn
  • Opleidingsniveau HBO/WO
  • Aantal uur 36-40 uur per week
  • Startdatum 2-1-2023
  • Geschikt voor ZZP? Ja
  • Thuiswerken mogelijk? N.t.b.