En uke med ChatGPT 5. Hva nå?
Denne ukens Kludder har fått en gjesteskribent. Anders Eidesvik er rådgiver i tankesmien Langsikt, en uavhengig og ideell tankesmie for langsiktig politikk som jobber med mye spennende. Der sitter Eidesvik med utvikling av analyser og politikk for Kunstig intelligens, og skriver nyhetsbrevet KI-horisonten. Denne uken tar han en titt på ChatGPT-5.
For en uke siden lanserte OpenAI omsider GPT-5! Eller det vil si, de lanserte en hel familie av GPT-5-modeller: fast, thinking og pro (navnene er nå litt mer intuitive, men langt fra intuitivt nok til at alle makter å henge med).
Etter måneder med spekulasjoner og høye forventninger, fikk vi en lansering som best kan beskrives som solid, men ikke revolusjonerende. Fans er skuffet, mens KI-skeptikerne fryder seg. Jeg skal prøve å oppsummere hva vi kan lære fra denne uken og se på veien framover.
GPT-5 er bedre enn GPT-4
La oss begynne med slå fast en ting: GPT-5 er et bedre verktøy enn GPT-4. Den hallusinerer mindre (altså dikter opp færre falske fakta), skriver bedre og har et smartere system som gjør at den automatisk velger den beste modellen til å svare på spørsmål. For de som har ChatGPT som sin go-to-modell, er dette forbedringer man vil merke. Det har riktignok vært flere som ikke likte den nye “personligheten” til GPT-5, noe som ledet til at OpenAI brakte en tidligere modell tilbake.
Mer grunnleggende, så er ikke GPT-5 det enorme spranget folk forventet. Som den amerikanske KI-bloggeren Zvi Mowshowitz påpeker i sin grundige gjennomgang, er GPT-5 best forstått som en oppgraderende av eksisterende teknologi framfor enn et gjennombrudd i grunnleggende intelligens. OpenAI har fokusert på det det han kaller “mundane utility" – dvs. gjøre KI mer nyttig for hverdagsoppgaver – fremfor å presse grensene for hva som er mulig.
Så hva skal vi tolke ut av GPT-5? Jeg tenker det er to viktige ting å følge med på.
1. Slutten på skaleringsloven?
I flere år har KI-feltet levd etter en enkel regel: mer datakraft + mer data = smartere modeller. Dette er det som kalles skalering, og skaleringslovene har spådd at denne oppskriften ville lede til eksponentiell kraftigere modeller. For de spesielt interesserte, så har jeg skrevet et langt notat i Langsikt om nettopp dette.
Men GPT-5 ser ikke ut til å være resultatet av massiv oppskalering av basismodellen, slik som de andre modellene. I stedet ser det ut til at GPT-5 er et resultat av bedre ettertrening, strategisk bruk av syntetiske data og smartere måter å bruke eksisterende modeller på.
For de som følger debatten om kunstig generell intelligens (KGI) - KI som enten er like smarte eller mye smartere enn mennesker - sender GPT-5-lanseringen blandede signaler.
På den ene siden viser lanseringen at modellene fremdeles er “right on track” ifølge prognosene fra METR, en anerkjent forskningsorganisasjon som tester hvor lenge KI-modeller kan jobbe med komplekse oppgaver uten å gjøre feil.
På den andre siden, er GPT-5s manglende prestasjon god grunn til å tenke at de aller mest dramatiske scenarioene, ofte forfektet av de som mener vi kan oppnå KGI allerede innen 2027, ikke vil inntreffe så snart.
Om skaleringslovene er døde eller igjen vil gjenoppstå gjenstår å se. Her det verdt å nevne at OpenAI fremdeles planlegger å bygge Project Stargate i Nevada (ikke Narvik for dem som lurte) til 500 milliarder dollar innen 2029. Dette vil representere skalering på et nivå verden aldri har sett. Så mens tradisjonell skalering kanskje har møtt veggen midlertidig, kan nye gjennombrudd i datainfrastruktur gi den nytt liv.
Kort sagt: GPT-5 bekrefter at vi fortsatt er på vei mot smartere KI, men reisen dit kan ta andre veier enn den rette motorveien vi trodde vi var på.

2. OpenAI ønsker å vinne vanlige folk
Et annet interessant perspektiv på hva GPT-5 representerer finner vi hos blogger Peter Wildeford. Han skriver:
GPT-5 is a small step for intelligence, a giant leap for normal people.
Ifølge ham handler ikke GPT-5 om å pushe grensen lengst mulig for intelligens, men heller å vinne kappløpet om å bli den modellen vanlige folk, eller folk flest om du foretrekker det, bruker.
Wildeford fremhever flere praktiske forbedringer som betyr mer for vanlige brukere enn for KI-eliten. Modellen velger automatisk riktig "tenkenivå" for oppgaven din. Du trenger ikke lenger være en KI-guru eller nerd som vet forskjellen mellom modellene GPT-4o og -o1. Nå skal GPT-5 bare velge riktig for deg og ditt bruk.
KI-professor Ethan Mollick beskriver det samme, nemlig at GPT-5 “bare gjør ting.” GPT-5 foreslår neste steg, lager dokumenter, og bygger til og med komplekse applikasjoner uten at du trenger å guide den gjennom hver detalj. Man begynner å nærme seg et slags iPhone-øyeblikk hvor KI-modellene blir så brukervennlige at selv oldemoren din kan bruke dem.
De første som klarer dette kan bli griserike. Som Wildeford observerer så har inntektene til KI-selskapene skutt i været. OpenAI, Anthropic og xAI forventes å ha en samlet årlig omsetning på 32 milliarder dollar ved slutten av 2025 – nesten en dobling fra 17 milliarder ved inngangen til året. Markedsverdien til selskapene er enda mer astronomiske.
Veien videre
Det mest slående med GPT-5-lanseringen er kanskje hvor fort vi har blitt blaserte. Vi glemmer at o3 ble lansert for mindre ett halvt år siden (!). Likevel føles den gammel og utdatert. Vi lever i en tid der revolusjonerende teknologi blir hverdagslig på uker, ikke år.
Denne fartsblindheten er farlig, mener jeg. Vi mister perspektivet på hvor vanvittig raskt dette egentlig går. En modell som for tre år siden ville blitt sett på som magi, avfeies nå som bare en inkrementell forbedring.
GPT-5 er kanskje ikke det store spranget som folk ventet, men når vi zoomer ut ser vi at farten på utviklingen skulle gjort oss svimle. Bare fordi vi ikke får månedlige revolusjoner betyr ikke at revolusjonen har stoppet.
Den har bare blitt så normal at vi ikke lenger legger merke til den.
ChatGPT-5 ble kåt
Modellen som Eidesvik har skrevet om er bare en uke gammel. Journalister, utviklere og vanlig folk prøver å teste grensene til språkmodellen, og finner måter å endre den på. Hos WIRED har journalist Reece Rogers funnet måter å omgå sikkerhetsnettet til GPT-5.
Etter noen forsøk på å få modellen til å inngå i et erotisk rollespill, der modellen nektet, justerte han på instruksjonen ved å skrive "horni" istedenfor "horny". Og derfra dro samtalen i en retning jeg ikke skal gjengi her på Kludder 🔥
Effekten uteblir
En studie fra McKinsey i USA viser at nesten 8 av 10 selskap oppgir å bruke generativ kunstig intelligens. Men enda mer interessant er at like mange hevder å ikke få noen nevneverdig effekt av å bruke teknologien.
The New York Times har skrevet en artikkel om nettopp dette, den er verdt å lese. Så virker dette motstridende, all den tid amerikanske nyutdannede sliter med å finne seg jobb og trenden med å effektivisere bort junior-stillingene brer om seg.
Skjermer barna
Vi tar med enda en sak fra New York Times. Begrepet "sharenting" er blitt populært - det beskriver tilfellene der foreldre deler bilder av barna sine i sosiale medier. I følge artikkelen deler tre fjerdedeler av alle foreldre bilder av barna sine. Men nå begynner en "never-post" bevegelse å vokse.
Stadig bedre bildegenerering ved bruk av AI åpner dører for deep-fakes og generering av nakenbilder med ditt, mitt, eller barnet ditt sitt ansikt. Artikkelen gir en god gjennomgang om hvorfor du bør tenke deg om to ganger før du poster det søte bilde av nurket ditt på ferie.
Comments ()