
Mange forbinder artificial intelligence (AI) med ChatGPT. Da jeg første gang prøvde OpenAIs chatbot i desember 2022, fikk jeg et skikkelig wow-øyeblikk. Plutselig kunne jeg holde en tilsynelatende intelligent samtale med en datamaskin som samtidig hadde et enormt kunnskapsgrunnlag å trekke på. Maskiner som kan tenke, diagnostisere sykdommer, styre biler og handle aksjer er ikke lenger science fiction, men en del av virkeligheten. AI utfordrer stadig skillet mellom menneskelig kreativitet og maskinell intelligens.
Ifølge OpenAI hadde ChatGPT per august 2025 hele 800 millioner ukentlige aktive brukere, en firedobling på bare ett år. Til sammenligning tok det Google flere år å nå et tilsvarende nivå etter lanseringen i 1998. Aldri før har et produkt vokst så raskt.
Historikk
Alan Turing regnes som både datavitenskapens og AIs far. I 1950 publiserte han artikkelen Computing Machinery and Intelligence, hvor han stilte spørsmålet: «Kan maskiner tenke?» Han foreslo den såkalte Turing-testen: Hvis en maskin kunne føre en tekstbasert samtale med et menneske uten å avsløre at den var en maskin, kunne den sies å vise intelligens. Turings innsikter la grunnlaget for videre AI-forskning og har hatt varig betydning for utviklingen av språkteknologi og dagens chatboter.
Begrepet artificial intelligence ble introdusert av John McCarthy i 1956, da han samlet en liten, men senere berømt forskergruppe i New Hampshire. Målet var å utforske hvordan maskiner kunne bruke språk, danne begreper og løse problemer på menneskelig vis. Dette var den første akademiske konferansen dedikert til AI, men det skulle ta over 60 år før ambisjonene deres virkelig ble oppfylt.
Fra 1960- til 1980-tallet dominerte symbolsk AI, basert på ideen om at intelligens kunne representeres gjennom symboler og logiske regler. Denne retningen kulminerte i utviklingen av ekspertsystemer, den første kommersielle AI-suksessen. Slike systemer etterlignet menneskelige eksperter ved hjelp av tusenvis av «if–then»-regler, og ble brukt til medisinsk diagnostikk, finansielle vurderinger og teknisk feilsøking. De viste at AI kunne skape praktisk verdi.
Ekspertsystemene åpnet veien for nevrale nettverk, og senere deep learning, en videreutvikling med mange lag. Nevrale nettverk ble riktignok utviklet allerede på 1980-tallet, men manglende datakraft og for lite treningsdata hindret gjennombruddet. Med internett-revolusjonen på 1990-tallet og kraftigere maskinvare på 2000-tallet kom det store skiftet: AI beveget seg fra regelstyrte systemer til datadrevne metoder.
Særlig maskinlæring markerte et vendepunkt. I stedet for å følge forhåndsprogrammerte regler lærer systemene av erfaring og data. Ved å analysere store mengder eksempler finner de mønstre som kan brukes til å forutsi eller gjenkjenne nye tilfeller. Denne tilnærmingen ligger bak språkmodeller, medisinsk diagnostikk, selvkjørende biler, anbefalingssystemer som Netflix og Spotify, og til og med banksvindelovervåking.
AI-modeller
De fleste AI-modeller bygger på nevrale nettverk som trenes på enorme mengder data – tekst, bilder og annet materiale – avhengig av bruksområde. Dype nevrale nettverk er konstruert for å gjenkjenne mønstre trinn for trinn. De består av mange lag, der hvert lag lærer noe mer komplekst enn det forrige. Viser man et bilde til et slikt nettverk, kan de første lagene oppdage enkle trekk som kanter, senere lag kombinerer disse til former, og de siste lagene kan gjenkjenne objekter som katter eller stoler. «Dybden» handler rett og slett om antall lag, som til sammen gjør det mulig å forstå svært komplisert informasjon.
Transformatorer – gjennombruddet
Ryggraden i moderne AI er transformator-arkitekturen, utviklet av Ashish Vaswani og kolleger ved Google Brain. I 2017 publiserte de artikkelen Attention Is All You Need, som revolusjonerte hvordan AI håndterer språk, bilder og annen sekvensiell data. I stedet for å analysere tekst ord for ord, kunne transformatorer behandle hele setningen samtidig ved hjelp av self-attention, en mekanisme som identifiserer hvilke ord som er mest betydningsfulle og hvordan de henger sammen.
Denne tilnærmingen gjorde transformatorer svært kraftige i oppgaver som språkforståelse, spørsmålsbesvarelse og tekstgenerering. Allerede i 2018 lanserte OpenAI sin GPT-serie (Generative Pre-trained Transformer). Med GPT-2 i 2019 ble det klart at store språkmodeller (LLM) hadde uventede evner: de kunne ikke bare oppsummere og oversette, men også utføre enkel aritmetikk og programmering. Da GPT-3 kom i 2020, kunne systemene skrive essays, programmere, oversette og føre samtaler som minnet om menneskelig kommunikasjon.
Det er likevel viktig å huske at GPT-modeller er prediktive språkmodeller, ikke sannhetsmaskiner. De kan formulere seg med stor selvtillit, men likevel ta feil eller finne på informasjon. Dette har skapt debatt om hvordan slike modeller bør brukes og hvilke rammer som bør settes.
Generativ AI og diffusjonsmodeller
Transformatorprinsippet spredte seg raskt til andre områder. Innen bildebehandling ble det grunnlaget for systemer som kunne generere realistiske bilder fra tekst, slik som DALL·E og Stable Diffusion. Snart fulgte musikk, video, design og til og med vitenskapelig forskning – alt under paraplyen generativ AI, der maskiner ikke bare gjenkjenner mønstre, men skaper nye ideer og uttrykk.
Et neste steg var diffusjonsmodeller, som genererer enda mer realistiske bilder enn transformatorene. Disse fungerer ved å starte med ren støy og gradvis forme dette til et meningsfullt bilde eller en lyd. De trenes gjennom en omvendt prosess: ekte bilder gjøres gradvis til støy, og modellen lærer å fjerne støyen steg for steg. Når man ber en diffusjonsmodell lage et bilde, «former» den bokstavelig talt orden ut av kaos – som en kunstner som hugger en ferdig statue ut av en rå marmorklump.
Inferens
Et annet begrep som er viktig å forstå er inferens. I artificial intelligence skiller man gjerne mellom to hovedfaser: Under treningsfasen lærer modellen fra eksisterende data og utvikler en forståelse av sammenhenger og mønstre. Når treningen er ferdig, går modellen inn i inferensfasen, der den bruker denne tilegnede kunnskapen til å analysere og ta beslutninger basert på nye, usette data. Det er altså i inferensfasen at AI-systemene faktisk blir brukt i praksis, for eksempel når en selvkjørende bil oppdager et stoppskilt, en anbefalingsalgoritme foreslår musikk på Spotify, eller når et talegjenkjenningssystem tolker det noen sier.
OpenAI og Anthropic
OpenAI og Anthropic er i dag to av de mest innflytelsesrike AI-selskapene. Begge utvikler generelle AI-modeller og profilerer seg som forkjempere for sikker og ansvarlig AI. OpenAI lanserte GPT-3.5 i desember 2022, og allerede måneden etter hadde selskapet nådd 100 millioner brukere, det raskest voksende teknologiproduktet i historien.
OpenAI ble grunnlagt i 2015 av Sam Altman, Elon Musk, Ilya Sutskever, Greg Brockman og flere andre. Ambisjonen var å utvikle kunstig generell intelligens til nytte for hele menneskeheten. Sam Altman har siden spilt en nøkkelrolle som administrerende direktør, og under hans ledelse har OpenAI sikret milliardinvesteringer, inngått partnerskap med Microsoft og blitt en sentral aktør i det globale AI-kappløpet.
Altman regnes som en av hovedskikkelsene i AI-revolusjonen, ikke bare fordi han har drevet teknologien fremover gjennom ledelse av banebrytende prosjekter som GPT-3 og ChatGPT, men også fordi han har initiert viktige diskusjoner om sikkerhet, regulering og samfunnsmessige konsekvenser av artificial intelligence. Han har vært pådriver for åpenhet rundt AI-verktøy, og startet OpenAI som et non-profit-initiativ før selskapet i 2019 gikk over til en såkalt “capped-profit”-modell for å tiltrekke seg investorer, en beslutning som vakte debatt og viste Altmans vilje til å ta radikale valg på egen hånd.
At Altman beskrives som en egenrådig entreprenør, handler blant annet om at han ofte har tatt uvanlige og selvstendige beslutninger, for eksempel da han offentlig stilte spørsmål ved om og hvordan superintelligent AI burde utvikles, og gikk inn for en gradvis og åpen implementering der risikoen kunne håndteres underveis. Samtidig har han hatt utfordringer knyttet til governance: I november 2023 ble han plutselig avsatt som toppsjef i OpenAI av styret, nettopp fordi styret var uenig i hvordan han håndterte organisasjonens verdier, sikkerhetsarbeid og kommersialisering. Etter massiv støtte fra ansatte og investorer kom Altman likevel tilbake som leder, noe som illustrerer både turbulensen rundt hans lederskap og kompleksiteten i å balansere innovasjon, sikkerhet og styring i et felt i rask utvikling.
Etterhvert som OpenAI vokste, oppstod spenninger mellom hensynet til sikkerhet og kommersialisering. Ut av denne uenigheten vokste Anthropic. I 2021 brøt en gruppe forskere ut, ledet av Dario Amodei, tidligere forskningssjef i OpenAI og flere andre profilerte kolleger. De ønsket å bygge en organisasjon med sikkerhet og kontroll som kjerneverdier. Anthropic ble stiftet som et public benefit corporation, med mål om å utvikle AI-systemer som er kontrollerbare og pålitelige. Og det er en underdrivelse å si at selskapet har lykkes. Hitill har Anthropics Claude-app blitt lastet ned 770 millioner ganger og har per august 2025 19 millioner månedlige aktive brukere.
I dag er OpenAI og Anthropic direkte konkurrenter. OpenAIs GPT-modeller er tett integrert i Microsofts produkter og Azure-skyen. OpenAI har nå i tillegg inngått en stor leveranseavtale med Oracle Cloud. Anthropics Claude-modeller har støtte fra både Amazon og Google Cloud. Både OpenAI og Anthropic kjemper om å vinne tillit fra bedrifter, utviklere og myndigheter, og samtidig om å sette premissene for hvordan AI bør utvikles og reguleres i årene fremover.
Hva vil AI i fremtiden bli brukt til?
Den raske fremgangen innen AI har skapt både begeistring og uro. Mange frykter at AI og roboter skal ta over, men utviklingen rommer også store muligheter. AI kan bidra til vitenskapelige gjennombrudd, automatisere rutinearbeid og åpne for innovasjoner vi ennå ikke kan forestille oss. Den kan øke effektiviteten, drive økonomisk vekst, men også utfordre personvern, sikkerhet og etiske grenser.
I dag kan generativ AI ikke bare produsere tekst på et øyeblikk, men også bilder, lyd og video på sekunder. Dette vil kunne ryste mediebransjen, fra podkaster og videospill til reklame og film. AI-verktøy gjør redigering enklere, sparer tid og senker terskelen for å skape innhold. På sikt kan det bli mulig å lage hele filmer med AI-genererte skuespillere eller fullstendig digitale aktører.
Likevel kan ikke AI skape eller løse problemer alene. Modellene er avanserte verktøy, men verken selvbevisste eller autonome. De trenger menneskelige instruksjoner, og resultatene må tolkes og brukes med menneskelig skjønn. Revolusjonen vi står midt i, er derfor fortsatt menneskestyrt, på både godt og vondt.
Eksempler på hvordan AI kan gjøre verden bedre:
- Helse: Oppdage sykdommer tidligere og mer presist, overvåke pasienter i sanntid og varsle før problemer blir alvorlige.
- Vitenskap: Analysere enorme datamengder, foreslå hypoteser, utvikle nye medisiner og oppdage proteiner viktige for menneskers helse.
- Utdanning: Tilpasse læring til den enkelte elev, oversette undervisning til flere språk og gjøre kunnskap mer tilgjengelig globalt.
- Klima og miljø: Optimalisere energisystemer, forbedre batterilagring, forutsi ekstremvær og gi beslutningsgrunnlag for klimatiltak.
- Tilgjengelighet: Gi funksjonshemmede nye muligheter – som sanntids tale-til-tekst, generert tale for dem uten stemme og visuelle beskrivelser for blinde.
Hvordan skal AI reguleres?
Det finnes ennå ingen global enighet om hva som bør reguleres, hvordan det skal skje, eller hvem som skal ha ansvaret. Spørsmålene er mange: Hva er de reelle risikoene ved AI? Skal teknologien selv reguleres, eller bare bruken av den? Holder det med selvregulering, eller kreves det lover? Og hva koster regulering hvis den hemmer innovasjon?
USA og gulfstatene satser i stor grad på selvregulering. USA prioriterer innovasjon og har en tradisjon for deregulering, med unntak for enkelte områder hvor sikkerhet og ansvar krever mer detaljerte regler.
Kina går motsatt vei, med et omfattende og statlig styrt rammeverk. Reglene er ikke primært laget for å beskytte borgere eller selskaper, men for å kontrollere informasjonsflyt. AI-systemer må levere «sanne og nøyaktige» resultater som gjenspeiler «sosialismens kjerneverdier». Kina søker et sentralisert system som kombinerer kontroll, innovasjon og bred utrulling.
Europa har valgt en mellomvei. EU har vedtatt verdens første omfattende AI-lov, AI Act, som regulerer bruken av teknologien etter risikonivå. Kravene til AI-utvikling og bruk etter reguleringen er lagt opp som en pyramide: Først er det angitt visse typer AI-systemer som er forbudt (f eks ansiktsgjenkjenning i det offentlige rom). Videre, så knytter de strengeste kravene seg til høyrisiko AI-systemer, og systemer med systemisk risiko (grunnleggende modeller). Deretter følger noe lempeligere krav til AI-systemer med begrenset risiko (f eks transparensforpliktelser). Til AI-systemer med minimal risiko er det ikke angitt særskilte krav. Europa leder dermed an globalt med en strukturert, men forsiktig tilnærming i balansen mellom innovasjon, sikkerhet og rettigheter. Likevel er debatten pågående: I 2025 ba 44 toppsjefer i selskaper som Airbus, BNP Paribas og Philips, EU om å utsette loven i to år. De frykter at uklare og overlappende krav kan svekke Europas konkurransekraft.
Et av de mest omstridte spørsmålene er opphavsrett til treningsdata. I desember 2023 saksøkte New York Times OpenAI og Microsoft for brudd på rettighetene til millioner av artikler. Per september 2025 er saken fortsatt ikke avgjort. En føderal dommer i New York har avvist forsøkene på å få søksmålet forkastet, noe som betyr at de fleste av avisens krav går videre i rettssystemet. Samtidig har flere aktører valgt lisensavtaler: News Corp (eier av Wall Street Journal) har signert en avtale verdt 250 millioner dollar over fem år, mens plattformer som Reddit og X nå tar betalt for å gi tilgang til innhold for AI-trening.
Men hva skjer egentlig når innholdstilbydere mister store deler av trafikken sin til AI-chatboter? Nyhetsmedier, som tradisjonelt har vært avhengig av annonseinntekter basert på leserbesøk, melder nå om kraftig fall i trafikk fra søkemotorer. Dette har direkte innvirkning på finansieringen av kvalitetsjournalistikk, færre klikk betyr lavere inntekter, og i verste fall færre journalister som kan grave frem viktige saker. Frivillige prosjekter som Wikipedia, som i stor grad finansieres gjennom donasjoner fra brukere som kommer via Google, opplever lignende utfordringer. Færre besøk kan føre til mindre økonomisk støtte, noe som truer vedlikehold og videreutvikling av gratis kunnskap på nett. Som mottiltak vurderer enkelte medier å stenge AI-roboter ute, innføre betalte tilgangsløsninger eller inngå egne lisensavtaler, mens andre eksperimenterer med nye samarbeidsformer for å overleve i en digital økonomi i rask endring.
Vil det åpne internett overleve i en AI-dominert hverdag? Når brukere får svarene servert direkte fra chatboter i stedet for å klikke seg videre til nettsider, endres hele dynamikken på internett. For mange brukere oppleves dette som en revolusjon: I stedet for å navigere gjennom linker og annonser, kan man bare stille et spørsmål og få et konsist, direkte svar.
AI-selskapene på sin side argumenterer for at tilgang til store mengder data er avgjørende for å utvikle modeller som er relevante og nyttige. Uten fri tilgang til internettets enorme tekstsamlinger, vil ikke teknologien kunne svare presist på brukernes spørsmål og store deler av samfunnsgevinsten kan gå tapt. Samtidig ser mange brukere fordeler med den nye måten å finne informasjon på: Det er raskere, mer effektivt, og krever mindre innsats.
Kanskje står vi midt i et historisk veiskille. Hvordan kan vi sikre både innovasjon og bærekraftig finansiering av kunnskapsformidlere? Og hvem skal ta regningen, AI-selskapene, brukerne, eller samfunnet som helhet?
Hvem er de kommersielle AI-vinnerne så langt?
På toppen finner vi teknologigigantene Microsoft, Google og Amazon, selskaper med kapital og kapasitet til å investere tungt i utvikling og datakraft. Microsoft har skaffet seg et forsprang gjennom sitt nære samarbeid med OpenAI, mens Google bygger videre på sin erfaring med søk og maskinlæring for å utvikle egne språkmodeller.
Også leverandørene av den tekniske infrastrukturen er vinnere. Nvidia er det klareste eksempelet: deres grafikkprosessorer har blitt gullstandarden for trening av avanserte AI-modeller. Etterspørselen har eksplodert, og selskapets verdi har skutt i været.
De kommersielle vinnerne er altså både de som utvikler teknologien, de som leverer kraften den trenger, og de som klarer å bygge brukervennlige tjenester på toppen. Sammen utgjør de et nytt økosystem der kampen om å dominere fremtidens digitale økonomi bare så vidt har begynt.
AI og den digitale økonomien
AI omtales ofte som høydepunktet i den digitale revolusjonen, rosinen i pølsa. AI fungerer både som en muliggjører og en driver: et intelligenslag som gjør data, nettverk og plattformer smartere og mer effektive.
Uten AI ville mye av den enorme datamengden vi produserer daglig forbli ubrukt. Med AI blir data en ressurs som kan analyseres, forstås og omsettes til verdi. Nettbutikker anbefaler produkter, strømmetjenester foreslår filmer og musikk, og banker oppdager svindel eller godkjenner lån på sekunder. Bak kulissene optimaliserer AI forsyningskjeder, kutter kostnader og forbedrer kundeservice gjennom automatisering og chatboter.
Kort sagt: AI øker tempoet og effektiviteten i den digitale økonomien, samtidig som den åpner for nye forretningsmodeller og markeder. Den endrer arbeidslivet, skaper etterspørsel etter nye ferdigheter og utfordrer tillit, rettferdighet og regulering. På globalt nivå får land som leder innen AI et konkurransefortrinn og former fremtidens handel, innovasjon og maktstrukturer.
Den digitale økonomien er scenen, og AI er dens mektigste aktør, en teknologi som omgjør data til kunnskap, automatiserer prosesser og driver innovasjon på tvers av bransjer. Sammen redefinerer de hvordan verdi skapes og deles i vår tid.
Kilder
SuperIntelligence, Paths, Dangers, Strategies, Oxford University Press 2017, Nick Bostrøm
Maskiner som tenker, Inga Strümke, Kagge Forlag, 2023
The Optimist, Sam Altman, OpenAI, and the race to invent the future. Keach Hagey.
Profil av John McCarthy, ung forsker som gav artificial intelligence et navn
En kort historie om AI fra The Economist
Profil av Sam Altman, CEO OpenAI