Sunday, March 1, 2026

Is AI transformation made by mandat or relational? - Influence or authority?

Do you need formal authority to move AI forward? A mandat? Usaully, in businesses it is IT owns infrastructure, legal owns compliance and business owns budgets. But, really, who owns AI transformation in organisations, often it is no one.

It is still possible to make progress happens as long as someone:

  • Translates complexity
  • Reduces fear
  • Connects AI to real problems
  • Builds trust across silos

You can’t order people to change how they think about AI. You can’t force teams to take risk seriously. You can’t mandate responsibility.

Real influence in AI transformation is not positional. It’s relational. Meaning it's built in conversations, by the coffee machine, at seminars, in listening and building credibility over time. Taht is when one can start using the expression "Responsible transformation". When people actually want to follow not when they have to.

That is called influencing without authority.


Wednesday, February 25, 2026

Not Building Skynet: Making Governance Operational

Have you ever seen organizations create policies, principles and ethical guidelines. Well, I have.

Beautiful documents with almost no operational impact.

Governance becomes good or real when:

  • Risk is discussed during planning meetings
  • Data decisions are visible
  • Trade-offs are explicit
  • Accountability is clear

People need to face the reality. It is nice to hear responsible AI and governance but hey, what do you do with it... Responsible AI is not about slowing innovation.

It’s about making good decisions visible.

And governance is not control.

It’s maturity.

Let's make governance operational. How?

  • Teams know when to escalate
  • Product trios discuss risk naturally
  • Data quality is visible, not assumed or crap but fine
  • Human in the loop is actually designed
It's about clarity! It makes responsability visible. It distribute awareness. It reduces fear.

No secrets, make sure we don’t accidentally build Skynet while trying to automate expense reports...muah ha ha :)


#ResponsibleAI #Governance #ProductLeadership




Saturday, February 21, 2026

Human-in-the-loop (for å lede an AI transformasjon)

"Human-in-the-loop" er en tilnærming der mennesker er aktiv integrert i AI-utviklingsprosessen for å kvalitetssikre at resultater bli etisk og praktisk riktig. På denne måten sørger vi for at avgjørelser ikke er helautomatiserte, men holdes under kontroll, under menneskelig kontroll.

KI blir en kjernekomponent i arbeidsverktøyene vÃ¥re. Team, agentic Teams jobber mer effektivt nÃ¥r AI hjelper dem,  feks. med innsikt og prioritering. 
Det gjør at de menneskelige rollene kan fokusere på strategi og relasjoner.

Kjente roller føles kanskje irrelevant. Fordi AI-verktøy overtar en del av oppgavene (prosessforbedring, flaskehals-analyse osv.).

Så hva skal vi kalle denne personnen som er en katalysator for både menneskelig og AI-sentrert utvikling? Og hva skal katalysator gjøre?

Vi kan oppgradere navnet til for eksempel "AI-Enabled Transformation Coach" eller "Human-AI Collaboration Coach" eller "AI Endringsleder"...

Organisasjoner har behov for folk som kan hjelpe organisasjoner Ã¥ integrere nye AI-prosesser, samtidig som folkene i organisasjonen holdes sentralt i fokus.

Organisasjoner har behov for folk som kan skape harmoniske samarbeid mellom mennesker og intelligente agenter, og som veileder teamene til Ã¥ utnytte AI pÃ¥ en mÃ¥te som gir mening i hverdagen.

Noen som hjelper organisasjoner med Ã¥ gjøre AI-ambisjon til styrt og mÃ¥lbar transformasjon. Som gjør etikk operasjonell. Som har strategisk dømmekraft. Som forstÃ¥r ikke bare AI – men tør ogsÃ¥ Ã¥ stille de vanskelige spørsmÃ¥lene, utfordre etablerte tankesett og drive innovasjon pÃ¥ en ansvarlig mÃ¥te.

Uansett navn, er essensen at bedrifter trenger Human in the loop, muliggjørere for Ã¥ lede an AI transformasjon. 

Wednesday, February 18, 2026

AI-transformasjon handler ikke først og fremst om verktøy – men om mennesker, retning og ansvar

I dag, etter at jeg holdt en presentasjon om grunnen til Ã¥ promotere nye roller fikk jeg lyst til Ã¥ snakke om tankesett og hvorfor AI-transformasjon handler om mennesker, retning og ansvar.  



AI-transformasjon feiler sjelden pÃ¥ teknologi. 
Den feiler på kultur, frykt og manglende retning.

AI-transformasjon kan også bli en lang og saktig prosess uten reelt engasjement.
Den visner pÃ¥ nÃ¥r AI blir et “ja selvfølgelig” – men ingen endrer hvordan de faktisk jobber.

AI-adopsjon er ikke et teknisk prosjekt,  nÃ¥ kommer et konkret eksempel: 
NÃ¥r en stor offentlig virksomhet bestemte seg for Ã¥ “satse pÃ¥ AI”. Ledelsen er antakelig entusiastisk. Kjøper lisenser.
Hva kan skje etter 3 måneder, 12 måneder?

  • Noen fÃ¥ ansatte brukte AI aktivt
  • Flertallet hadde testet én gang
  • Mellomledere visste ikke hva de skulle forvente
  • Ingen hadde gjort noe “feil”. Men heller ingen hadde gjort noe helhetlig.

Derfor trenger vi nye typer lederskap.
Lederskap med strategisk dømmekraft.
Som gjør governance og risiko konkret i teamets hverdag.
Og som evner Ã¥ pÃ¥virke gjennom relasjoner – ikke bare gjennom mandat.

Neste gang vil jeg gjerne snakke om konkrete praksiser, eller hvordan vi kan bevege oss fra "Kan vi?" til "Burde vi?".

Ciao :)