Anthropic beskyldt for at citere AI ‘hallucination’ i sangtekst søgsmål

Anthropic beskyldt for at citere AI 'hallucination' i sangtekst søgsmål Anthropic beskyldt for at citere AI 'hallucination' i sangtekst søgsmål

I korte træk
– AI-firmaet Anthropic er blevet pålagt af en dommer at svare, efter dens ekspert angiveligt henviste til en ikke-eksisterende akademisk artikel i et søgsmål om ophavsret til 75 millioner dollars.
– Henvisningen sigtede mod at støtte påstande om, at Claude sjældent reproducerer tekster, men sagsøgerne sagde, at det var en “fuldstændig opdigtet historie”, sandsynligvis produceret ved hjælp af Claude selv.
– Sagen lægger sig til det stigende juridiske pres på AI-udviklere, da OpenAI, Meta og Anthropic alle står over for søgsmål vedrørende træning af modeller på licensfrit ophavsretligt beskyttet materiale.
En AI-ekspert hos Amazon-støttede Anthropic er blevet beskyldt for at henvise til en fabrikeret akademisk artikel i en retsdokument, der skulle forsvare virksomheden mod påstande om, at den trænede sin AI-model på ophavsretligt beskyttede sangtekster uden tilladelse.
Dokumentet, indsendt af Anthropics datalog Olivia Chen, var en del af virksomhedens juridiske svar på et søgsmål til 75 millioner dollars, indgivet af Universal Music Group, Concord, ABKCO og andre store udgivere.
I 2023-søgsmålet påstod udgiverne, at Anthropic ulovligt havde brugt tekster fra hundredvis af sange, herunder dem af Beyoncé, The Rolling Stones og The Beach Boys, til at træne sin Claude-sprogmodel.
Chens erklæring inkluderede en henvisning til en artikel fra The American Statistician, som var tilsigtet at støtte Anthropics argument om, at Claude kun genskaber ophavsretligt beskyttede tekster under sjældne og specifikke betingelser, ifølge en Reuters-rapport.
Under en høring tirsdag i San Jose kaldte sagsøgernes advokat Matt Oppenheim citatet for en “fuldstændig opdigtet historie”, men sagde, at han ikke troede, at Chen havde gjort det med vilje, blot at hun sandsynligvis havde brugt Claude selv til at generere kilden.
Anthropics advokat, Sy Damle, fortalte retten, at Chens fejl tilsyneladende var en fejlcitering, ikke en opdigtet historie, mens han kritiserede sagsøgerne for at rejse problemet sent i retsforløbet.
Ifølge Reuters sagde U.S. Magistrate-dommeren Susan van Keulen, at problemet udgjorde “en meget alvorlig og alvorlig” bekymring, og bemærkede, at “der er himmelvid forskel på en glemt henvisning og en hallucination genereret af AI.”
Hun afslog en anmodning om øjeblikkeligt at afhøre Chen, men pålagde Anthropic at reagere formelt på beskyldningen senest torsdag.
Anthropic svarede ikke umiddelbart på Decryption anmodning om kommentar.
Anthropic i retten
Søgsmålet mod Anthropic blev indgivet i oktober 2023, hvor sagsøgerne beskyldte Anthropics Claude-model for at være trænet på et massivt antal ophavsretligt beskyttede tekster og reproducere dem efter behov.
De krævede erstatning, offentliggørelse af træningssættet og destruktion af krænkende indhold.
Anthropic svarede i januar 2024 og benægtede, at dets systemer var designet til at producere ophavsretligt beskyttede tekster.
Den kaldte enhver sådan reproduktion for en “sjælden fejl” og beskyldte udgiverne for ikke at tilbyde beviser for, at typiske brugere stødte på krænkende indhold.
I august 2024 blev virksomheden ramt af et andet søgsmål, denne gang fra forfatterne Andrea Bartz, Charles Graeber og Kirk Wallace Johnson, som anklagede Anthropic for at have trænet Claude på piratkopier af deres bøger.
GenAI og ophavsret
Sagen er en del af en voksende modstand mod generative AI-virksomheder, der er beskyldt for at inkludere ophavsretligt beskyttet materiale i deres træningssæt uden samtykke.
OpenAI står over for flere søgsmål fra komikeren Sarah Silverman, Authors Guild og The New York Times, der anklager virksomheden for at bruge ophavsretligt beskyttede bøger og artikler til træning af sine GPT-modeller uden tilladelse eller licenser.
Meta er nævnt i lignende søgsmål, hvor sagsøgerne hævder, at dens LLaMA-modeller blev trænet på uautoriserede litterære værker fra piratkopierede datasæt.
I mellemtiden opfordrede OpenAI og Google i marts Trump-administrationen til at lette ophavsretsbegrænsningerne omkring AI-træning og kaldte det en barriere for innovation i deres formelle forslag til den kommende amerikanske “AI Action Plan.”
I Storbritannien ramte en regeringslov, der ville muliggøre, at kunstig intelligensvirksomheder brugte ophavsretligt beskyttede værker uden tilladelse, et bump denne uge, efter at House of Lords støttede et ændringsforslag, der krævede, at AI-virksomheder skulle afsløre, hvilket ophavsretligt beskyttet materiale de havde brugt i deres modeller.

Leave a Reply

Your email address will not be published. Required fields are marked *