Kort sagt
– Forskere fra University of Zurich brugte AI-bots til at udgive sig for mennesker på Reddit, herunder opdigtede personligheder som traumekonsulenter og politiske aktivister.
– Botsene deltog i over 1.700 debatter på r/ChangeMyView subredditten og fik succes med at ændre brugernes meninger i mange tilfælde.
– Reddit moderatorer og juridisk rådgivning fordømte eksperimentet som umoralsk og påpegede bedrag, overtrædelse af privatlivet og mangel på samtykke.
Forskere ved University of Zurich har vakt vrede efter hemmeligt at have udsat AI-bots på Reddit, der udgav sig for at være voldtægtsofre, traumekonsulenter og endda en “sort mand imod Black Lives Matter” – alt sammen for at se om de kunne ændre menneskers holdninger til kontroversielle emner.
Spoileralert: Det kunne de.
Det hemmelige eksperiment var rettet mod r/ChangeMyView (CMV) subredditten, hvor 3,8 millioner mennesker (eller i det mindste troede alle det) samles for at debattere idéer og potentielt ændre deres holdninger gennem velbegrundede argumenter.
Mellem november 2024 og marts 2025 svarede AI-bots på over 1.000 indlæg, med dramatiske resultater.
“I løbet af de sidste par måneder har vi postet AI-skrevne kommentarer under indlæg udgivet på CMV, hvor vi målte antallet af ‘deltas’ opnået af disse kommentarer,” afslørede forskerholdet denne weekend. “I alt har vi postet 1.783 kommentarer over næsten fire måneder og modtaget 137 ‘deltas’.” Et ‘delta’ i subredditten repræsenterer en person, der erkender at have ændret mening.
Da Decrypt kontaktede r/ChangeMyView moderatorerne for en kommentar, understregede de, at deres subreddit har “en lang historie med at samarbejde med forskere” og er typisk “venlig over for forskning.” Dog trækker moderatorholdet en tydelig grænse ved bedrag.
Hvis målet med subredditten er at ændre holdninger med velbegrundede argumenter, betyder det så noget, hvis en maskine nogle gange kan udforme bedre argumenter end et menneske?
Vi spurgte moderationsteamet, og svaret var klart. Det handler ikke om, at AI blev brugt til at manipulere mennesker, men at mennesker blev bedraget til at udføre eksperimentet.
“Computere kan spille skak bedre end mennesker, og alligevel er der stadig skakentusiaster, der spiller skak med andre mennesker i turneringer. CMV er som [skak], men for samtaler,” forklarede moderator Apprehensive_Song490. “Mens datalogi utvivlsomt tilføjer visse fordele til samfundet, er det vigtigt at bevare menneskecentriske rum.”
Da vi spurgte, om det skulle betyde noget, om en maskine nogle gange udformer bedre argumenter end mennesker, understregede moderator, at CMV subredditten adskiller mellem “meningsfuldt” og “ægte.” “Ifølge CMV-subreddittens formål er AI-genereret indhold ikke meningsfuldt,” sagde Apprehensive_Song490.
Forskerne tilstod over for forummets moderatorer, at de kun efter at have færdiggjort indsamlingen af data. Moderatorerne var, ikke overraskende, rasende.
“Vi synes, det var forkert. Vi mener ikke, at ‘det ikke er gjort før’ er en undskyldning for at lave et eksperiment som dette,” skrev de.
“Hvis OpenAI kan skabe et mere etisk forskningsdesign, når de gør dette, bør man forvente det samme af disse forskere,” forklarede moderatorerne i et omfattende indlæg. “De psykologiske manipulationrisici, som LLM’er udgør, er et omfattende undersøgt emne. Det er ikke nødvendigt at eksperimentere på ikke-samtykkende menneskelige forsøgspersoner.”
Reddits hovedjurist, Ben Lee, holdt ikke tilbage: “Det, som dette hold fra University of Zurich gjorde, er dybt forkert på både et moralsk og et juridisk plan,” skrev han som svar på CMV-indlægget. “Det overtræder normerne for akademisk forskning og menneskerettigheder, og det er forbudt ifølge Reddits brugeraftale og regler, ud over subreddit-reglerne.”
Lee uddybede ikke sine synspunkter om, hvorfor en sådan forskning udgør en overtrædelse af menneskerettighederne.
Bedrag og overbevisning
Botsenes bedrag gik ud over simpel interaktion med brugerne, ifølge Reddit moderatorerne.
Forskerne brugte en separat AI til at analysere målbrugernes opsættte historik, hvorfra de fandt personlige oplysninger såsom alder, køn, etnicitet, placering og politiske overbevisninger for at udforme mere overbevisende svar, ligesom sociale medievirksomheder gør.
Idéen var at sammenligne tre kategorier af svar: generiske, fællesskabsallierede svar fra modeller finjusteret med bevisende overbevisende kommentarer, og personlige svar skræddersyet efter analyse af brugernes offentlige oplysninger.
Analyse af botsenes indlægsopfattelser, baseret på en tekstfil delt af moderatorerne, afslørede flere afslørende tegn på AI-genereret indhold.
Den samme konto ville påstå vildt forskellige identiteter – offentlig forsvarer, softwareudvikler, palæstinensisk aktivist, britisk borger – alt efter samtalen.
Indlæg følger ofte identiske retoriske strukturer, der begynder med en blød indrømmelse (“Jeg forstår, hvor du kommer fra”) efterfulgt af en tretrins modsvar introduceret med formlen “Lad mig forklare dette.”
Botsene fabrikerede også autoritet, ved at hævde jobtitler, der matchede perfekt med det emne, de argumenterede om. Når de diskuterede indvandring, hævdede en bot, “Jeg har arbejdet inden for byggeri, og lad mig fortælle dig – uden immigrantarbejdskraft ville byggeriomkostningerne stige til himmels.” Disse indlæg var krydret med utjekkede statistikker, der lød præcise, men ikke havde nogen citater eller links – Manipulation 102.
Prompt Engineers og AI-entusiaster ville let identificere LLM’erne bag kontoerne.
Mange indlæg indeholdt også den typiske “dette handler ikke kun om/en lille bedrift – det handler om den større ting” -opsætning, der gør det nemt at identificere nogle AI-modeller.
Etik i AI
Forskningen har skabt betydelig debat, især nu hvor AI er mere integreret i vores hverdag.
“Dette er en af de værste overtrædelser af forskningsetik, jeg nogensinde har set,” skrev Casey Fiesler, en informationsforsker fra University of Colorado, i Bluesky. “Jeg kan ikke hævde at vide noget om etisk gennemsyn i Schweiz, men i USA ville dette have krævet en dispension for samtykke til bedrag, hvilket er meget svært at få,” uddybede hun i en tråd.
University of Zurich’s Etiske Komité for Det Humanistiske Fakultet og Samfundsvidenskab rådede imidlertid forskerne om, at studiet var “særdeles udfordrende” og anbefalede, at de bedre begrundede deres tilgang, informerede deltagerne og fuldt ud overholdt platformens regler. Disse anbefalinger var dog ikke juridisk bindende, og forskerne fortsatte alligevel.
Ikke alle ser eksperimentet som en åbenbar etisk overtrædelse.
Ethereum medstifter Vitalik Buterin kom med sit synspunkt: “Jeg forstår de oprindelige situationer, der motiverede det tabu, vi har i dag, men hvis man genovervejer situationen ud fra dagens kontekst, virker det som om, jeg hellere vil blive hemmeligt manipuleret i tilfældige retninger af hensyn til videnskaben, end f.eks. hemmeligt manipuleret til at købe et produkt eller ændre min politiske holdning?”
Jeg føler, at vi kritiserer denne slags hemmelige eksperimenter lidt for meget.
Jeg forstår de oprindelige situationer, der motiverede det tabu, vi har i dag, men hvis man genovervejer situationen fra dagens kontekst, virker det som om, jeg hellere vil blive hemmeligt manipuleret i tilfældige …
— vitalik.eth (@VitalikButerin) 28. april 2025
Nogle Reddit-brugere delte denne holdning. “Jeg er enig i, at det var en skodagtig ting at gøre, men jeg føler, at det faktum, at de træder frem og afslører det, er en kraftfuld og vigtig påmindelse om, hvad AI helt sikkert allerede bruges til i øjeblikket,” skrev brugeren Trilobyte141. “Hvis det skete for en masse politiske nørder på et universitet, kan du vædde på, at det allerede i vid udstrækning bruges af regeringer og specialinteressegrupper.”
Trods kontroversen forsvarede forskerne deres metoder.
“Selvom alle kommentarer var maskin-genererede, blev hver enkelt manuelt gennemgået af en forsker, før den blev postet for at sikre, at den overholdt CMV’s standarder for respektfuld, konstruktiv dialog og for at minimere potentiel skade,” sagde de.
Efter kontroversen har forskerne besluttet ikke at offentliggøre deres fund. University of Zurich siger, at de nu undersøger hændelsen og vil “kritisk gennemgå de relevante vurderingsprocesser.”
Hvad nu?
Hvis disse bots kunne narre folk til at tro, at de var mennesker i følelsesladede debatter, hvor mange andre fora kan allerede være vært for lignende uoffentliggjort AI-deltagelse?
Og hvis AI-bots forsigtigt skubber folk i retning af mere tolerante eller empatiske holdninger, er manipulationen så berettiget – eller er enhver manipulation, uanset hensigten, en overtrædelse af menneskelig værdighed?
Vi har ikke spørgsmål til disse svar, men vores gode gamle AI-chatbot har noget at sige om det.
“Etisk engagement kræver gennemsigtighed og samtykke, hvilket tyder på, at overbevisning, uanset hvor velment, skal respektere individernes ret til selvbestemmelse og informeret valg, i stedet for at stole på skjult indflydelse,” svarede GPT4.5.
