Dataprodukter som fundament for AI

08.02.2026 | 5 min lesetid
Emneknagger: #dataprodukter, #AI-klare data, #agentic BI, #semantisk lag, #data governance

Hvorfor analytics-klar ikke er det samme som AI-klar, og hva som må på plass.

AI endrer hvem som bruker dataene

Et dataprodukt har historisk hatt én type bruker: et menneske med kontekst. En analytiker som vet at “ordre” ekskluderer testkunder, at “aktiv kunde” har en spesiell definisjon i Q3-rapporten, og at det var en kjent feil i pipeline 12.-14. mars.

Denne brukergruppen er i ferd med å bli en minoritet.

LLM-agenter leser dokumentasjonen deres som autoritativ. De har ingen kollega å spørre, ingen Slack-historikk å bla gjennom, og ingen magefølelse for hva som er feil. Manglende beskrivelser fylles med modellens egne slutninger. Ingen feilmeldinger, bare feil som vokser seg stadig større.

Tristan Handy (dbt Labs) har spådd at agent-initierte spørringer vil bli mer vanlige enn menneskelige innen 12 måneder. Selv om tallet er optimistisk, peker retningen mot at porteføljen dere bygger nå skal tjene en brukergruppe som i dag ikke er hovedkonsumenten.

Analytics-klar er ikke det samme som AI-klar

To ulike dimensjoner, to ulike investeringer:

Analytics-klarAI-klar
StrukturStjerne-skjema, pre-aggregertSemantisk rik, kontekstuell
OppdateringDaglig oppdatering holderHyppig oppdatering foretrukket
MetadataValgfritt, hjelper analytikerenObligatorisk - er konteksten
GranularitetAggregertFullt detaljnivå med kontekst
ForretningsreglerI hodet til analytikerenEksplisitt kodet

De fleste norske dataplattformer er bygd for det første, ikke det andre. Det betyr ikke at dere må bygge alt om. Det betyr at dere må vite hvilke dataprodukter som må bli AI-klare, og investere i å bygge kontekst for disse.

Innhenting vs resonnering

David Effiong (Data Cult) skiller mellom to ulike krav:

  • Innhenting: får vi riktig tall fra riktig sted? Løses av dataplattformen pluss et rent semantisk lag. De fleste moderne teknologi-stacks er gode her.
  • Resonnering: vet AI hva tallene betyr, når de kan stoles på, og hva de ikke må forveksles med? Dette løses med kontekstlaget, og de færreste har bygget noe her ennå.

Et AI-system kan hente churn_rate for forrige kvartal. Men for å svare på hvorfor, trenger AI definisjonen, vite om definisjonen nylig endret seg, ha oversikt over kjente datakvalitetsproblemer, og eventuelle eksterne faktorer. Uten dette produserer det alltid et svar - men ikke nødvendigvis et riktig svar.

“Tenk på det semantiske laget som en kontrakt mellom teamet ditt og AI-agenten. Den kontrakten må være langt mer fullstendig enn da hovedkonsumenten var et menneske.” - David Effiong

Det mest effektive tiltaket: dokumentere det teamet vet

Et kontrollert eksperiment fra Data Cult (Opeyemi Fabiyi, 2026) testet 13 forretningsspørsmål mot en AI-agent og la til ett kontekstlag om gangen, uten å bytte modell:

IterasjonNøyaktighet
Råkilder, ingen kontekst0%
Modellert tabell, ingen berikelse0%
+ rike kolonnebeskrivelser15%
+ forretningsregler77%
+ metrikker, eksempler, evaluering92%
Søylediagram med fem iterasjoner: 0 prosent (råkilder), 0 prosent (modellert tabell), 15 prosent (rike kolonnebeskrivelser), 77 prosent (forretningsregler), 92 prosent (metrikker og eksempler).
Hele nøyaktighetsforbedringen kommer fra konteksten, ikke fra en bedre modell. Data: Fabiyi (2026), Data Cult.

Modellen ble aldri byttet. Hele forbedringen kom fra konteksten. Den største forbedringen kom fra å skrive ned forretningsregler som levde i hodene til analytikerne.

Et felt slot_status med verdiene Open og Filled fikk agenten til å filtrere på slot_status = 'Available', en verdi som ikke finnes i dataene. Spørringen returnerte null. Ingen feil. Et galt svar, som var vanskelig å oppdage. En beskrivelse som forklarte at Open betyr tilgjengelig, løste det umiddelbart.

Ni dimensjoner for AI-modenhet

Modern Data 101 (Camila Barreto Lima) har utviklet et 9-dimensjoners rammeverk for å vurdere AI-modenheten til enkelt-dataprodukter. Det utvider de praktiske kravene fra kapittel 1 til 7:

#DimensjonSpørsmålet AI-agenten ikke kan stille selv
1DiscoverabilityEr produktet søkbart i en katalog?
2AddressabilityHar det en stabil identifikator som ikke endres?
3TrustworthinessEr kvalitet og freshness dokumentert?
4Self-describingnessKan en konsument forstå produktet uten å spørre noen?
5InteroperabilityKan det konsumeres på tvers av systemer uten skreddersøm?
6SecurityEr tilgangskontroll designet og integrert i løsningen, og ikke hektet på?
7ValueHvem bruker dette til hva?
8AutonomyEies det av et domene-team uten sentralisert flaskehals?
9UnderstandabilityForstår konsumenten hva de faktisk får, inkludert begrensninger?

To dimensjoner er spesielt kritiske for AI-konsum: Understandability (agenten kan ikke spørre en kollega) og Trustworthiness (agenten gir ingen feilmelding for utdaterte data - bare gale svar levert med selvsikkerhet).

Forhåndssjekk før agentbasert analyse

Et dataprodukt med lav score på 1, 2 og 9 (ikke synlig, ingen stabil identifikator, uklar semantikk) gir inkonsistente AI-resultater. Bruk matrisen til å rangere porteføljen og prioritere innsats:

  • Lav Discoverability og Trustworthiness blokkerer steget mot dataprodukter.
  • Lav Self-describingness og Understandability blokkerer steget mot agentbasert analyse.

Modenhetsmatrisen henter samme spørsmål inn i en strukturert form, som lar dere velge hvilke produkter som skal AI-modnes.

Hva dette betyr for dere som bygger

Dere trenger ikke gjøre om alt. Disse tre tiltakene gir best kost/nytte i en AI-verden:

TiltakHva det betyr i praksisEffekt
Kolonnebeskrivelser med betydning“Open betyr at slottet er tilgjengelig for booking”, ikke “varchar(20)”Det mest effektive tiltaket i Fabiyi-eksperimentet
Forretningsregler eksplisitt kodetStandardfiltre, kjente unntak, definisjoner som varierer mellom domener - det en ny analytiker lærer i måned 1+62 prosentpoeng nøyaktighet i samme eksperiment
Kontekstlag versjonert som kodeNår en metrikk-definisjon endres, endres dokumentasjonen med denForhindrer at foreldet dokumentasjon genererer feil i stor skala uten at noen ser det

Disse er ikke nye dataprodukter. De er det dere allerede gjør i kapittel 1 til 7, gjort tydelig nok til at en agent kan lese det.

Neste steg er å håndtere endringer i et produkt som flere - inkludert agenter - bygger på: Endring og utfasing.



author image

Magne Bakkeli

Magne Bakkeli er medgründer og seniorrådgiver i Glitni. Han har over 25 års erfaring med dataplattformer, data governance og dataarkitektur, og ledet Data & Analytics-teamet i PwC Consulting i 12 år. Han har bygget og modernisert dataplattformer i kraft, FMCG, finans og media.