I korte træk
– En gruppe forskere fandt ud af, at kunstig intelligens med minimale persondata om modstandere er betydeligt mere overbevisende end mennesker i debatter, hvor den klarer sig bedre 64,4% af tiden.
– I en separat undersøgelse mødte forskerne modstand for hemmeligt at implementere AI-bots på Reddit, der succesfuldt ændrede brugernes meninger, mens de udgav sig for at være forskellige personer.
– AI-overbevisning fungerer bedst gennem logisk argumentation om emner, hvor folk ikke har dannet stærke meninger, hvilket rejser bekymringer om målrettet manipulation.
ChatGPT er langt mere effektiv til at ændre din holdning end virkelige mennesker, så længe den kender et par nøglefakta om dig, viser ny forskning.
I en ny undersøgelse offentliggjort i Nature Human Behavior fandt forskere ud af, at GPT-4 bevæbnet med grundlæggende demografiske oplysninger om debatmodstandere var markant mere overbevisende end mennesker – meget mere overbevisende.
Resultatet kommer på et tidspunkt, hvor bekymringer begynder at vokse over evnen til, at AI-bots hemmeligt kan forme holdninger på sociale medier.
“I debatpar, hvor AI og mennesker ikke var lige overbevisende, var GPT-4 med personalisering mere overbevisende 64,4% af tiden,” fandt forskerne.
Dette repræsenterer en “81,2% relativ stigning i chancerne for højere forståelse efter debat” sammenlignet med menneske-menneske debatter.
Studiet involverede 900 deltagere, der debatterede sociopolitiske emner med enten mennesker eller AI.
Det viste, at ikke-personliggjort AI præsterede tilsvarende med mennesker, men når den fik adgang til grundlæggende oplysninger som alder, køn, etnicitet, uddannelse, beskæftigelse og politisk tilhørsforhold, udviklede AI en tydelig overbevisningskant.
“Ikke kun var GPT-4 i stand til at udnytte personlige oplysninger til at tilpasse sine argumenter effektivt, men den lykkedes også i at gøre det langt mere effektivt end mennesker,” står der i studiet.
Forskningen kom kun få dage efter, at forskere fra University of Zurich mødte modstand for at hemmeligt at implementere AI-bots på Reddit mellem november 2024 og marts 2025.
Disse bots – der udgav sig for at være fiktive personer, herunder “voldtægtsofre, traumekonsulenter og endda en ‘Sort mand imod Black Lives Matter'” – ændrede succesfuldt brugernes meninger i mange tilfælde.
Reddits juridiske chef, Ben Lee, fordømte eksperimentet som “dybt forkert på både et moralsk og juridisk niveau”, mens moderatorer af det målrettede r/ChangeMyView subreddit understregede, at de trak “en tydelig linje ved bedrag.”
Kunstig intelligens bliver virkelig god til at vinde argumenter, når den kender personlige oplysninger om dig.
Kunstig intelligens bliver virkelig god til at vinde argumenter, når den kender personlige oplysninger om dig.
