Wil je werken met ervaren data experts en de nieuwste technologieën om data inzichtelijk te maken? Uitdagende projecten aanpakken en je vaardigheden optimaal inzetten terwijl je bijdraagt aan een groeiend succes? Dan is dit de vacature voor jou!
Wat ga je doen?Als Data Engineer bij OptimaData Interim werk je dedicated voor 1 van onze klanten. Als Data Engineer heb je een belangrijke rol binnen de omgeving van de klant. Jouw taken bestaan onder andere uit het oplossen van complexe puzzels, implementeren van analytics producten en het ontsluiten en verzorgen van databronnen zodat ze goed toegankelijk en begrijpelijk zijn. Je bouwt niet alleen datawarehouses, maar denkt ook mee over het ontwerp en de implementatie van deze dataplatformen. Je bent dagelijks bezig met zaken als infrastructure as code, containerization, monitoring, and deployment procedures.
Daarnaast ben je als Data Engineer ook verantwoordelijk voor het analyseren van nieuwe technologiën en het beoordelen van de toepasbaarheid daarvan. Je adviseert en helpt mee aan de doorontwikkeling van het dataplatform bij de klant.
Na je dagelijkse rek- en strekoefeningen, een douche, kop koffie en een stevig ontbijt, zet je je computer aan. Je dag begint meestal met een (online) standup met je team. Je spreekt over wat je hebt gedaan, wat je gaat doen en waar je eventueel nog graag over wilt sparren. Je luistert goed of je ergens kunt bijspringen.
Daarna ga je verder waar je gister bent gebleven met je set aan pipelines. Een collega pingt je op Slack of je naar zijn laatste Terraform deployment script kunt kijken want hij krijgt iets niet aan de praat. Ondertussen werk je Github bij met jouw bijdragen aan een intern project en lees je je in op de nieuw aangeleverde databronnen die middels ETL gekoppeld gaan worden.
Zó, die tijd ging snel, het is alweer lunch-tijd. Snel een broodje grijpen en dan lekker even naar buiten.
Na de lunch een meeting met de solutions architect en de productowner, die willen graag jouw visie horen over welke Azure tooling structureel gebruikt gaat worden en zal worden vrijgegeven voor de developers. We hebben onze eigen DevOps tooling en procedures, besluiten om wel Databricks verder uit te rollen maar Azure DevOps vooralsnog niet primair in te zetten.
Vorige week is na een uitvoerige POC besloten om Cloud-NativePG (Kubernetes Operator for Postgres van EDB) te gaan gebruiken voor het PostgreSQL platform. Je hebt contact met EDB over support afspraken en wil nog wat quick wins horen voor de eerste deployment.
Het Terraform deployment script van je collega werkt! Dankzij jouw input weer een stap verder gekomen. Oef, drukke dag, tis alweer tijd om te gaan! Vanavond nog maar even gaan zitten voor je Azure Data Engineer certificering, die staat voor volgende week gepland!