Neem een kantoorgebouw op een willekeurige ochtend.
Op de derde verdieping bouwt een data-engineer een transformatiemodel in dbt. Ze heeft een AI-tool openstaan naast haar code-editor en het helpt haar om sneller en schoner te schrijven. Ze heeft het het afgelopen jaar bij elk project gebruikt. Haar manager weet het. De klant met wiens gegevens ze werkt niet.
Een verdieping hoger bereidt een consultant zich voor op een presentatie. Hij heeft ChatGPT gebruikt om na te denken over de framing: verschillende invalshoeken, het argument en het uitwerken van welke versie van het verhaal het beste klinkt. Het heeft hem twee uur bespaard en tegelijkertijd is het niet bij hem opgekomen om het te vermelden.
En in een kantoor bovenin het gebouw is het hoofd gegevens in gesprek met een leverancier over het rechtstreeks aansluiten van een LLM op het datawarehouse van het bedrijf.
Drie mensen in hetzelfde gebouw, op dezelfde ochtend, met drie fundamenteel verschillende relaties met AI. En naar alle waarschijnlijkheid geen gezamenlijk gesprek hierover.
Dit is waar de meeste bedrijven zich nu bevinden. AI is snel in de datastack terechtgekomen en het begrip van wat dat eigenlijk betekent, in termen van governance, risico en infrastructuur, heeft geen gelijke tred gehouden.
Niet alle AI-gebruik is gelijk
De drie mensen in dat gebouw doen niet hetzelfde met AI, ook al lijkt dat misschien zo aan de buitenkant.
De verschillen tussen hun use cases zitten in volwassenheid, infrastructuur, risico en governance. Ze behandelen als variaties van hetzelfde levert precies het soort vaag, one-size-fits-all denken op dat leidt tot slechte beslissingen.
Bij i-spark beschouwen we deze verschillen in drie verschillende categorieën, omdat een duidelijk begrip een veel bruikbaarder uitgangspunt is voor elk bedrijf dat weloverwogen keuzes maakt over waar en hoe AI in hun werk past.
Categorie één: ideeën en tekst
Dit is waar de meeste bedrijven beginnen en waar veel bedrijven nog steeds zijn.
Een LLM gebruiken als denkpartner: een manier om ideeën te testen, argumenten te toetsen, iets sneller op te stellen of tot een betere versie van een document te komen. De interactie is conversationeel en ongestructureerd, en de waarde is direct genoeg dat de meeste mensen die het een keer proberen het blijven gebruiken. Het heeft zich grotendeels op eigen kracht verspreid, waarbij mensen het individueel hebben overgenomen lang voordat een formeel beleid hen inhaalde.
De implicaties voor de governance op dit niveau zijn relatief licht, op voorwaarde dat er geen gevoelige gegevens in prompts terechtkomen. Om te beginnen moet een team zich bewust zijn van en begrijpen wat gepast is om in een prompt te zetten en wat niet.
Dat is een gesprek dat vroeg moet worden gevoerd, maar het is niet ingewikkeld. De drempel om ervan te profiteren is laag en voor de meesten wordt de waarde al gerealiseerd, of iemand het nu officieel heeft goedgekeurd of niet.
Categorie twee: codegeneratie en AI-ondersteunde ontwikkeling
Op dit niveau verandert de aard van wat AI doet aanzienlijk en wordt het gesprek over governance zowel complexer als belangrijker.
AI-tools zijn direct geïntegreerd in de ontwikkelomgeving zelf en werken samen met engineers terwijl ze dbt-modellen schrijven, SQL genereren, Power BI-code beoordelen en door complexe gegevenspijplijnen navigeren met een snelheid en nauwkeurigheid die anders moeilijk te bereiken zouden zijn geweest.
Tools zoals Claude Code hebben dit nog verder doorgedreven, verder dan het genereren van geïsoleerde stukjes code naar actief werken binnen een hele codebase, het begrijpen van de context in meerdere bestanden en het suggereren van wijzigingen om de oplevering te versnellen.
Hier heeft de AI-tool toegang tot veel meer om zijn output te leveren.
Wanneer een AI-tool in je codebase werkt, leest het je architectuur, je bedrijfslogica, je naamgevingsconventies en in veel gevallen waarden die de grens tussen code en gegevens vervagen op manieren die gemakkelijk over het hoofd te zien zijn. Een Power BI-bestand in de importmodus kan feitelijke gegevenswaarden direct in het bestand insluiten. Een opmerking in een dbt-model kan verwijzen naar een klantnaam, een interne bedrijfsregel of een configuratiedetail dat nooit bedoeld was om uw omgeving te verlaten. Dit zijn algemene kenmerken van echte repositories, die in bijna elk gegevensproject voorkomen.
De beslissing over de infrastructuur die aan elk werk in deze categorie voorafgaat, verdient daarom serieuze aandacht. Voordat een AI-tool wordt aangesloten op een codebase, moet je weten of het binnen of buiten je data-ecosysteem opereert. Dit heeft gevolgen voor de vraag of je code en alles wat erin is opgenomen binnen je controle blijft.
Categorie drie: directe gegevenstoegang
Op dit niveau verandert de relatie tussen AI en je gegevens volledig.
LLM’s zijn rechtstreeks verbonden met live gegevens, bevragen databases, interpreteren resultaten en genereren inzichten in realtime zonder dat een menselijke analist de vertaalslag hoeft te maken tussen een zakelijke vraag en een technische zoekopdracht. De toepassingen zijn werkelijk fascinerend: een natuurlijke taalinterface naar je datawarehouse, een AI-agent die zelfstandig pijplijnen bewaakt en afwijkingen aan het licht brengt voordat een mens ze zou hebben opgemerkt, een systeem dat binnen enkele seconden operationele vragen kan beantwoorden. Bedrijven beginnen te onderzoeken wat er mogelijk is als de barrière tussen het stellen van een vraag en het krijgen van een datagestuurd antwoord wordt gereduceerd tot een gesprek.
Op dit niveau staat er meer op het spel dan in de voorgaande categorieën en zijn de gevolgen van een verkeerde aanpak zichtbaarder.
Gegevens worden actief verwerkt, geïnterpreteerd en in veel architecturen verzonden via services en infrastructuur waarover u mogelijk geen directe controle hebt. Begrijpen waar die verwerking plaatsvindt, onder welke juridische jurisdictie het valt en welk niveau van toegangscontrole erop van toepassing is, zijn fundamentele vragen die moeten worden beantwoord voordat de implementatie begint.
Als je bedrijf zich in deze richting beweegt zonder dat er al een governance-raamwerk aanwezig is, neem je risico’s die zelden zichtbaar zijn totdat er al iets mis is gegaan.
De rode draad die alle drie verbindt: controle
In alle drie de categorieën is de technologie zelf bijna ondergeschikt aan de vraag naar controle en in het bijzonder hoeveel controle een bedrijf behoudt naarmate AI dieper in de gegevensstapel wordt geïntegreerd.
Een datastack is een keten van codeopslagplaatsen, transformatietools, visualisatielagen, orkestratieplatforms en in toenemende mate AI-tools, en elke schakel in die keten heeft zijn eigen juridische en juridische profiel.
De meeste grote dataplatforms zoals Databricks of Snowflake zijn producten van Amerikaanse bedrijven. Sommige bieden opties voor het verblijf van gegevens in de EU, andere niet. En zelfs infrastructuur die fysiek wordt ingezet in de EU door een bedrijf met het hoofdkantoor in de VS kan onderworpen blijven aan Amerikaanse wettelijke eisen onder wetgeving zoals de CLOUD Act, een detail dat bedrijven met echte vereisten voor gegevensinwonerschap niet kunnen veroorloven als een formaliteit te behandelen.
Als je goed over deze vragen nadenkt, moet je weten of je Databricks-workspace LLM-oproepen binnen de grenzen van de EU verwerkt of ze via Amerikaanse servers routeert. Het betekent het praktische verschil begrijpen tussen een Power BI-bestand in directe querymodus, waarbij de gegevens in Snowflake blijven, en een bestand in importmodus, waarbij het mogelijk kan worden gecommit naar een git-repo.
Het betekent het bouwen van een datastack met voldoende zichtbaarheid in elk van de componenten, zodat je de governancevragen die je klanten en toezichthouders uiteindelijk zullen stellen, kunt beantwoorden voordat ze ze stellen.
Een opmerking over hoe wij, als i-spark, dit aanpakken
i-spark gebruikt AI-tools actief en met overtuiging. Claude Code maakt deel uit van onze manier van werken en we geloven dat het ons zinvol beter maakt in wat we doen. We schrijven dit niet vanuit een afwachtende houding ten opzichte van AI, integendeel.
Waar we voorzichtig mee zijn, is de kloof tussen acceptatie en begrip die zo kenmerkend is voor de manier waarop AI momenteel in de sector wordt gebruikt. Stilte is niet hetzelfde als veiligheid. Governancegesprekken vinden vaak te laat plaats, met minder context en minder controle voor alle betrokkenen.
Wij zijn van mening dat klanten het verdienen om te begrijpen welke tools in hun projecten worden gebruikt, waartoe deze tools toegang hebben en wat de implicaties voor de governance zijn.
Omdat weloverwogen beslissingen betere beslissingen zijn en omdat een partner die goed nadenkt over deze vragen voordat ze problemen worden, een fundamenteel ander soort partner is dan iemand die ze achteraf ontdekt.
De drie bovenstaande categorieën vormen een kaart; weten waar je bent en waar je naartoe wilt is het startpunt om AI helder en met vertrouwen in je datastack te gebruiken.