AI endrer styrearbeidet – fra kontroll til kontinuerlig læring og kritisk vurdering
Tradisjonelt har styrets rolle vært forankret i økonomi, kontroll, strategi og etterlevelse. Kunstig intelligens er imidlertid i ferd med å endre både forretningsmodeller, risikobilder og forventninger fra omverdenen. For norske styrer betyr dette at rammene for god styring ikke lenger bare handler om økonomi, kontroll og strategi – men også i større grad om teknologi, etikk, samfunnsansvar og kultur. AI gjør styrerollen mer fremoverskuende, mer datadrevet og betydelig mer kompleks.
Når virksomheter tar i bruk AI, får styret et tydelig ansvar for å sikre at teknologien brukes på en måte som er etisk forsvarlig, transparent og i tråd med virksomhetens verdier. Dette handler ikke bare om å unngå feil – det handler om å bygge og bevare tillit.
Styret må derfor sikre at virksomheten har etiske retningslinjer for AI som inkluderer prinsipper for databruk, algoritmisk rettferdighet, transparens og ansvarlighet. Retningslinjene bør være like tydelige som virksomhetens øvrige etiske rammeverk.
Med økende bruk av AI blir dette bildet mer komplekst. Teknologien påvirker ikke bare effektivitet og beslutningsstøtte, men også arbeidsmiljø, kompetansebehov og relasjonen mellom virksomheten og omgivelsene. AI kan endre arbeidsoppgaver, skape nye roller og gjøre andre overflødige.
AI‑verktøy kan være kraftige, men de er ikke ufeilbarlige. Språkmodeller kan “hallusinere” – dvs. generere feilaktig informasjon med stor selvtillit. Dette kan gi et falskt inntrykk av presisjon og objektivitet, mens datagrunnlaget kan være mangelfullt eller direkte feil. Store mengder syntetisk innhold kan gjøre det vanskeligere for brukere å orientere seg og skille mellom ekte og kunstig informasjon. Dårlige data gir dårlige beslutninger, selv om algoritmen er avansert.
AI‑systemer kan filtrere, prioritere eller generere informasjon. Dette gir muligheter, men også risiko som at algoritmer kan påvirke hvilke stemmer som blir hørt. For eksempel kan automatiserte modereringsverktøy feilaktig fjerne legitime ytringer eller forsterke enkelte perspektiver på bekostning av andre. Det er grunn til å være observant på at AI i noen tilfeller kan undergrave, snarere enn forsvare, demokratiske verdier. Når styret arbeider med bærekraft og samfunnsansvar bør de ha et bevisst forhold til hvilke AI-verktøy virksomheten benytter seg av og hvordan.
Styret må forstå hvordan teknologien påvirker arbeidsmiljø, kompetansebehov og kundetillit. En viktig del av styreansvaret er å utøve sunn skepsis. Automatiserte beslutningssystemer kan være vanskelige å etterprøve, og manglende transparens gjør det utfordrende for styret å vurdere kvaliteten på beslutningsgrunnlaget. Styret kan derfor ikke ukritisk legge AI-genererte analyser eller anbefalinger til grunn for beslutninger. Tvert imot må styret stille spørsmål ved hvordan innsikten er fremkommet, hvilke data som ligger bak, og hvilke begrensninger som finnes. Kritisk vurdering og refleksjon blir en kjernekompetanse i møte med økt bruk av AI.
AI må integreres i virksomhetens rapportering og vurderinger, ikke som et tillegg, men som en naturlig del av helheten. Hvordan teknologien brukes, vil i økende grad påvirke virksomhetens legitimitet og tillit i markedet. En relevant problemstilling kan også være hvordan man skal forholde seg til et politiske bildet. Den senere tid har det eksempelvis pågått flere boikottkampanjer. En voksende protestbevegelse oppfordrer f.eks. folk til å kansellere ChatGPT-abonnementene sine etter at OpenAI inngikk en avtale med det amerikanske forsvaret. Dette er ikke nødvendigvis noe alle selskaper må forholde seg til, men styret må være åpen for å ta slike diskusjoner.
Summen av disse endringene peker mot et tydelig skifte. AI utvider styrets ansvar og risikobilde, endrer arbeidsformer og beslutningsgrunnlag, og hever kravene til kompetanse. Samspillet med administrasjonen påvirkes, samtidig som forventningene fra omgivelsene – både regulatorisk og etisk – blir tydeligere.
I denne virkeligheten vil styrets evne til å stille de riktige spørsmålene være avgjørende. Ikke bare om hva teknologien kan gjøre, men hva den bør gjøre – og om man faktisk kan stole på svarene som gis. Dette er et paradigmeskifte, for det er her fremtidens styrearbeid formes. Ikke fordi alt ved styrearbeidet blir nytt, men fordi tempoet i endringene øker og kompleksiteten blir større. Styret kan ikke lenger være en passiv mottaker av informasjon, men må i større grad være lærende, utforskende og kritisk.
I sammenheng med dette ser vi at fokuset innen styreevalueringer og styreutvikling er i endring. Flere styrer begynner å inkludere vurderinger av digital modenhet og kartlegging av AI-kompetanse. Det holder ikke lenger å evaluere struktur og prosesser isolert – man må også forstå hvordan styret faktisk anvender ny teknologi i sitt arbeid, og hvordan det evner å utfordre og kvalitetssikre det teknologien leverer. Dette åpner for nye verktøy og mer dynamiske utviklingsprosesser, der læring og tilpasning står sentralt.
