Let’s debrief : data & AI | januari 2026

We blijven graag op de hoogte.

Met nieuws, productlanceringen en alles wat er gebeurt op het gebied van data en AI, delen we vaak updates in onze Slack-kanalen en proberen we nieuwe dingen uit zodra ze beschikbaar zijn in onze regio.

In plaats van die updates weg te stoppen in interne berichten, realiseerden we ons dat het mensen tijd zou besparen om één plek te hebben waar ze die informatie kunnen vinden, samen met een paar gefundeerde gedachten van mensen die in het veld werken.

Er is altijd wel iets nieuws dat de moeite waard is om aandacht aan te besteden.

‘Let’s debrief’ is precies dat, en nu is het aan jou om te lezen.

Wat viel er deze maand op?

Verschillende veranderingen richten zich op delen van de datastack: rapportage, dashboardprestaties en de eerste stappen van het gebruik van AI in dagelijkse workflows. Op elk gebied worden de tools explicieter over hoe ze naar verwachting zullen worden gebruikt.

Keuzes die voorheen gemakkelijk konden worden uitgesteld, zijn nu moeilijker te negeren, zoals hoe rapporten worden onderhouden, van welke dashboards wordt verwacht dat ze snel blijven en wat er moet zijn voordat AI-functies betrouwbaar werken.

Power BI: verbeterd rapportformaat (PBIR)

Power BI stapt vanaf deze maand(januari 2026) over op het verbeterde rapportformaat (PBIR) als standaard voor nieuwe rapporten. Bestaande rapporten worden automatisch geconverteerd zodra ze worden bewerkt en opgeslagen. Power BI Desktop volgt later dit jaar.

PBIR introduceert een meer gestructureerd bestandsformaat, met ondersteuning voor versiebeheer en deployment workflows. De rapportage begint te lijken op software die evolueert en steeds meer wordt behandeld als iets dat zorg, eigendom en onderhoud nodig heeft.

Gedeelde rapporten blijven werken zoals altijd. Op het moment dat je er een opent om een wijziging aan te brengen, wordt de structuur eronder zichtbaar. Nu zijn gewoonten die vroeger uit het zicht bleven, opeens moeilijker te negeren.

Houd je kansen voor procesverfijning dus goed in de gaten!

Sneeuwvlok: Interactieve tafels en Interactieve magazijnen

Snowflake introduceerde Interactieve Tabellen naast Interactieve Magazijnen, die continu draaien en alleen tabellen bevragen die er expliciet aan gekoppeld zijn. Eenmaal ingesteld, blijven dashboards snel, zelfs als veel mensen ze tegelijkertijd gebruiken.

Die opzet werkt goed voor dashboards die de hele dag door worden gecontroleerd. Het wordt moeilijker om weergaven te rechtvaardigen die eens per week worden gebruikt of voor ad-hoc analyses die een korte wachttijd kunnen verdragen. In de praktijk wordt dit onderscheid zelden herzien. Dashboards worden op dezelfde opstelling geplaatst omdat ze daar al bestaan, niet omdat iemand een nieuwe keuze heeft gemaakt.

Het resultaat is in principe overal snelle dashboards en een infrastructuur die altijd draait, of dat nu nodig is of niet.

Databricks: Agent Bricks en AI model updates

Databricks blijft de toegang tot AI-functionaliteit uitbreiden met de algemene beschikbaarheid van Agent Bricks: Knowledge Assistant en ondersteuning voor OpenAI GPT-5.1 Codex modellen via Mosaic AI Model Serving.

Deze updates maken het eenvoudiger om AI-assistenten in te zetten bovenop je interne documenten en om code-gerelateerde workflows te ondersteunen met gespecialiseerde modellen. De technische drempel om te experimenteren is merkbaar lager dan zelfs een jaar geleden.

Tegelijkertijd zijn deze mogelijkheden sterk afhankelijk van hoe je informatie is georganiseerd. Waar documentatie gefragmenteerd is of eigendom onduidelijk, hebben AI-assistenten de neiging om die onzekerheid op schaal te reproduceren. Daarom presteren de modellen niet altijd zoals je hoopt.

Rond dezelfde tijd als deze updates waren we bij i-spark bezig om een analytische AI-assistent in productie te nemen op Databricks. En we liepen al snel tegen beperkingen aan door structuur, eigenaarschap en orkestratie.

Het herbouwen van het systeem als een multi-agent opstelling veranderde wat mogelijk was, maar het maakte ook heel duidelijk dat de meeste uitdagingen niet over AI zelf gingen. Ze hadden te maken met technische discipline, domeinkennis en operationele keuzes waarvan de tool veronderstelt dat ze al aanwezig zijn.

We hebben een apart, diepgaand stuk geschreven over hoe die reis er in de praktijk uitzag, inclusief wat kapot ging, wat ons verraste en wat het uiteindelijk heeft gehaald.

Een multi-agent AI-systeem bouwen: wat er echt nodig is om naar productie te gaan

Klipfolio: Multi-factor authenticatie controles

Klipfolio maakt al heel lang deel uit van ons werk.

Bijna 10 jaar nu.

Lang genoeg om te zien hoe de verwachtingen rond analytics zijn verschoven naar betrouwbaarheid, veiligheid en gedeelde verantwoordelijkheid.

Als kleine update heeft Klipfolio deze maand de optie geïntroduceerd om multi-factor authenticatie af te dwingen voor alle e-mail gebaseerde aanmeldingen en om meerdere vertrouwde apparaten per gebruiker te onthouden.

Op het eerste gezicht is dit een bescheiden update.

In feite weerspiegelt het de toenemende verwachtingen rond de beveiliging van analyses, met name in omgevingen waar dashboards extern worden gedeeld of toegankelijk zijn over verschillende organisatorische grenzen heen (bijvoorbeeld tussen verschillende afdelingen die een dieper inzicht in governance vereisen).

Een perspectief dat de moeite waard is

Naast de updates van tools op het gebied van data en AI worden, zoals gezegd, de onderwerpen #verantwoordelijkheid, #governance en ethisch gebruik van data steeds urgenter.

Er verschijnen meningen en er worden steeds meer LinkedIn posts over geschreven. We kunnen wel raden dat je er al meer dan één op je feed hebt gezien.

Een paar maanden geleden hebben we nagedacht over wat er nodig is om data- en AI-oplossingen te bouwen in omgevingen waar fouten echte gevolgen hebben voor mensen. Ons perspectief komt van een recent project waar vertragen en het maken van zorgvuldige keuzes een grotere prioriteit hadden dan snelheid.

De volledige beschouwing gaat dieper in op de vraag waarom ethiek niet als bijzaak kan worden behandeld bij data- en AI-werk en wat het betekent om verantwoordelijkheid te verankeren in zowel technologie als organisatorische processen.

→ Waarom wij geloven dat elke data- en AI-oplossing een ethisch fundament nodig heeft

En aan het eind een vraag voor jou

Afsluiten met een vraag en ruimte laten voor reflectie past bij hoe we binnen het i-spark team omgaan met nieuwe updates en uitdagingen. We vragen meestal eerst waarom en als het nodig is, wenden we ons tot de badeend of een collega om dingen door te spreken.

Dus pak je badeendje en voer dat gesprek. Een innerlijke monoloog, als je wilt.

Of neem een collega mee voor een kop koffie en bespreek het samen:

Wat voelt vandaag als een gereedschapskwestie, maar gaat eigenlijk over hoe dingen zijn opgezet?

Inhoud

Zijn jullie data klaar voor de toekomst?
Flexibele dataoplossingen die met je meegroeien

Eén-op-één ontmoeting met dashboardontwerp en de wil om te creëren

(Persoonlijke blog) Als je een lege witte pagina voor je hebt, besef je hoe intimidatie voelt. Waar moet ik beginnen? Wat moet ik ontwerpen? En...

Let’s debrief : data & AI | januari 2026

We blijven graag op de hoogte. Met nieuws, productlanceringen en alles wat er gebeurt op het gebied van data en AI, delen we vaak updates...

De oorzaken van een overbelast datateam en wantrouwen in gegevens

Een paar maanden geleden hebben we met 5 dataprofessionals gesproken over de uitdagingen en ambities die ze tegenkomen in verschillende sectoren en datatypes. Wat we...