Elke dag komt er een enorme berg data binnen. Zo groot dat je het bijna niet kunt bevatten. Van klantgedrag tot machine-logs, van financiële transacties tot realtime sensorgegevens. Een vloedgolf aan info dus! Werken in zo'n wereld betekent dat je blijft groeien, nieuwe tools leert kennen en samenwerkt met mensen die net zo gek zijn op data als jij.
Hoe fixen ze dat hier?
Ze bouwen data pipelines die niet alleen razendsnel zijn, maar ook altijd foutloos lopen. Ze zorgen ervoor dat die berg data veilig en soepel binnenkomt, en maken het direct bruikbaar voor iedereen die er écht iets mee wil, van analisten tot managers.
Complexe data pipelines? Challenge accepted. Big data-projecten die echt impact maken? Check. Wil jij aan de slag bij een bedrijf dat je skills serieus neemt en je elke dag uitdaagt? Dit is jouw volgende stap.
En mijn rol?
Je haalt data uit allerlei bronnen - denk aan API's, databases en misschien live datafeeds - en bouwt robuuste pipelines die die data netjes en op tijd binnenhalen. Daarbij filter en transformeer je de ruwe gegevens zodat ze klaar zijn voor analyses en dashboards, precies zoals je zou doen bij een organisatie die end-to-end dataproducten ontwikkelt. Jij zorgt dat de ETL-stap foutloos draait, verrijkt de data waar nodig en bouwt een dataopslag die razendsnel reageert. Dat doe je bijvoorbeeld met slimme partitioning en indexing, zodat analisten actuele inzichten kunnen ophalen.
Je werkt nauw samen met data scientists en analisten: zij leveren modelideeën aan, jij vertaalt dat naar een dataflow die betrouwbaar functioneert en altijd up-to-date is. En als er ergens iets hapert, zit jij al te sleutelen aan de oplossing. Je monitort continu de performance, ziet het vroeg als een bepaalde pipeline structureel vertraagt of meer kosten veroorzaakt, en grijpt in om de boel op orde te houden. O, en ja: je bent niet alleen goed met techniek, maar ook iemand die houdt van een potje sporten (of gewoon het drankje daarna), eerlijk is en een passie heeft voor technologie.
Kan ik het ook?
Zeker weten! Jij hebt een bachelor of master, of je hebt ondertussen gewoon genoeg meters gemaakt om dat in te halen. Minimaal 4 jaar ervaring als (big) data engineer? Mooi! Of je bent gewoon zo snel dat je die ervaring in een mum van tijd oppikt. Je krijgt energie van grote datatransformaties in de cloud en je kent je weg in programmeertalen en orchestration tools. Jouw Nederlands en Engels? Jij kunt je prima redden.
Jij kan en hebt:
- Data pipelines bouwen die schaalbaar, snel en foutloos draaien
- Ervaring met tools zoals Airflow, dbt of Kafka
- Kennis van Snowflake, BigQuery of Redshift
- Skills in data cleaning, testing en validatie
- Netjes werken met Git en CI/CD
- Denken in schaalbare oplossingen
- Ervaring met agile werken in een team
Voor niks gaat de zon op...
Met dit maandsalaris schijnt de zon vanzelf! Je verdient hier tussen de € 7.000,- en € 11.000,- per maand, afhankelijk van jouw ervaring en skills. Daarbovenop krijg je flexibele vakantiedagen, een pensioen waar je later blij van wordt, en een team vol data-experts die jou begrijpen. En omdat werken ook leuk moet zijn, organiseren ze elke maand iets gezelligs samen. Klinkt als een maand waar je echt zin in hebt, toch? Solliciteer nu en voor je het weet zitten we koffie te drinken.
142000