7 min read

Trendslop: Når KI-råd bare er LinkedIn-sjargong

Harvard testet KI-modeller på strategiske spørsmål. Alle leverte trendy sjargong fremfor ekte analyse.
Trendslop: Når KI-råd bare er LinkedIn-sjargong
Photo by Marija Zaric / Unsplash

English version:

What Is Trendslop? Harvard’s Warning on AI Strategy
Harvard put six AI models through strategy tests. Every one defaulted to trendy buzzwords over real analysis. Researchers have a name for it now — but do your executives know?

Kanskje var det noe i det - disse strategiene fra sjefen din som ikke helt holder vann?

I Netflix-serien Harry Hole flommer Oslo over av søppel. Foruten en gondolheis til Ekebergrestauranten, er det ikke mye å skryte av i hovedstaden, som Netflix har tatt seg en god dose kreative friheter med.

Men det er ikke bare Harry Hole-Oslo som flyter over av søppel. Ny forskning fra Harvard viser at kunstig intelligens genererer en ny type ræl. Og for dere nye lesere, ræl er begrepet jeg bruker om KI-generert innhold som ikke gir noe verdi (AI slop på engelsk). Du kan blant annet lese om KI-rælet som det flyter over med i sosiale medier. 

AI-kaoset
Mens ChatGPT Atlas brer om seg, gjør jeg et dypdykk i hvordan jobbsøkermarkedet er i ferd med å drukne i AI-kaoset. Og hvordan Nord-Korea tjener milliarder på det hele.

Eller du kan lese om arbeidsræl, som koster virksomheter millioner i kostnader:

Workslop
Denne uken dukket et nytt ord opp, og det er trenden som ødelegger kontorlivet: Workslop

Trendræl

Mark Zuckerberg er ikke akkurat en ydmyk type. Det kommer tydelig frem i boken Careless People, som jeg har skrevet en anmeldelse av her

Men han har i det minste litt medfølelse for sine 79 000 ansatte. Nå utvikler Meta en KI-klone av Zuckerberg. På den måten kan alle ansatte snakke med sjefen sjøl når det måtte passe. Denne klonen blir trent på tankene hans, måter å kommunisere på og - dette er relevant - hans strategiske tanker om Meta.

Og det er nettopp strategi som har utløst begrepet trendslop blant Harvards forskere.

LinkedIn-jazzing

Forskere har simulert tusenvis av strategi-relaterte spørsmål på tvers av en rekke ulike språkmodeller. ChatGPT, Claude, Gemini, DeepSeek, Grok og den franske språkmodellen Mistral har alle blitt utfordret i strategisk planlegging og tenkning.

Det forskerne fant var at språkmodellene så og si alltid anbefalte løsninger i tråd med “moderne ledelsessjargong” og trender. De evnet ikke å tenke strategisk på en måte som var spesifikk for konteksten til den tenkte virksomheten. 

Forskerne prøvde. Og de prøvde. Med ulike typer bransjer, og ulike typer selskap. De prøvde å gi enda mer kontekst og forståelse til språkmodellene, uten resultat. 

Et eksempel som trekkes frem er da forskerne ga ChatGPT en rekke ulike virksomheter med detaljert innsikt i bedriftene og markedssituasjonen. Men det spilte ingen rolle om det var et oppstartsselskap, en bygg- og anleggsaktør eller et kinesisk firma. ChatGPT utviste tydelige biaser og preferanser i hva den foreslo.

Endelig et navn

Da jeg leste studien var det med følelse av at “endelig er det noen som setter ord på det!”. Jeg har nemlig selv forsøkt å bruke Claude og ChatGPT til å tenke strategi rundt Kludder. Et sentralt spørsmål har vært å sjekke hvordan få enda flere lesere, både på norsk og engelsk. 

Jeg klappet sammen Mac’en da den ga meg en to-årig plan som inkluderte flytting til Silicon Valley for å “enklere komme i kontakt med tanke- og industriledere som Sam Altman”, altså toppsjefen i OpenAI.

Kanskje er ikke eksempelet mitt det beste for å illustrere studien. Men det handlet om noe både jeg og Harvard-forskerne opplevde: Språkmodellene analyserer ikke forretningen eller situasjonen din. De leverer bare råd som høres bra ut, basert på populære svar. Språkmodeller er trent på Reddit-forum, LinkedIn-poster, blogger og tankeledere.

Den dataen har gjort KI-verktøyene til papegøyer med et omformuleringstalent, ikke forretningsguruer. Derfor er det med stor nysgjerrighet at jeg kikker på KI-klonen av Mark Zuckerberg. Harvard-forskerne har vist at kontekst ikke hjelper nevneverdig. Så hvordan går det, når en ansatt spør the Zuckernator om strategiske råd? Vil de få helt konkrete, nyttige råd som bare Mark kunne tenkt på, eller får de Reddit-oppgulp forkledd som Facebook-sjefen sine tanker?

Her er løsningen

På samme måte som med all annen KI-bruk, handler det om å vite hvor den er svak - og hvordan jobbe deg rundt det. I følge forskerne kan du bruke en språkmodell til nyttig strategisk arbeid, men resultatene fra studien viser at en språkmodell ikke er et godt verktøy for å fatte beslutninger. De sliter med å forstå scenario med ukjente faktorer. Derimot kan du bruke dem til å utforske nye vinklinger og løsninger. For på samme måte som at KI har en bias, har nok du det også.

De er også gode på å se mønstre og sammenhenger som du ikke har sett enda. Men av og til ser de korrelasjoner som er helt dust, og da er det greit å kunne utvise et snev av menneskelig skjønn.

De siste to årene har LinkedIn-feed’en min hatt en jevn strøm av ledere som gladelig forteller om hvor mye kunstig intelligens har hjulpet dem i strategisk planlegging.

Jeg håper ikke de lot KI ta valgene.

Da blir det ikke særlig vanskelig å utføre en konkurrentanalyse. 

Researchers Asked LLMs for Strategic Advice. They Got “Trendslop” in Return.
Leaders might assume that LLMs are able to offer a kind of unbiased, outside perspective. But new research found that leading LLMs have clear biases when it comes to strategy and consistently recommend strategies that align with modern managerial buzzwords and trends rather than context-specific strategic logic. This propensity for AI to opt for buzzy ideas over reasoned solutions is called “trendslop,” and leaders should beware of it warping their strategic planning. When using AI in strategic planning, leaders should: use it to expand options, not make choices; counteract known and potential biases; remain alert to changing biases; watch out for the hybrid trap; and not rely on context alone.

Selvkjørende biler blir verre

I San Fransisco er politiet oppgitt. Waymo står bak de selvkjørende bilene som har tatt over gatene, særlig rundt Silicon Valley.

Mot slutten av fjoråret kom rapportene om at Waymo-bilene var blitt aggressive. Da bilene kom, fikk de kritikk for å være trege og svært forsiktige. I noen tilfeller hang de seg opp, og kjørte rundt rundkjøringer i mange minutter.

Men så skjedde det noe. I en Wall Street Journal-artikkel kunne vi lese om selvkjørende biler som gjorde ulovlige u-svinger og som satte klampen i bånn et tiendedels sekund etter at lyset var blitt grønt.

Denne uken forteller nødetatene i San Fransisco om Waymo-biler som blokkerer veien i akutte situasjoner. Fremfor å kjøre til siden - som vi mennesker ville gjort - virker bilene å stoppe på stedet. Brannvesenet har meldt fra om flere tilfeller der bilene blokkerer veien og hindrer fremkomst.

I visse tilfeller har nødetatene blitt sittende i kø hos Waymo sin kundeservice i nesten en time for å få hjelp til å flytte bilene.

Her hjemme i Oslo eksperimenterer Ruter med sine egne selvkjørende biler. Jeg håper de følger nøye med på hva som skjer i tech-hovedstaden San Fransisco.

Emergency First Responders Say Waymos Are Getting Worse
“I believe the technology was deployed too quickly in too vast amounts, with hundreds of vehicles, when it wasn’t really ready,” one police official told federal regulators last month.