Om forfatteren
Ismael Hishon-Rezaizadeh er grundlægger og administrerende direktør for Lagrange Labs, et nulkendskabs-infrastrukturfirma, der bygger verificerbare beregningsværktøjer til blockchain og AI-systemer. Som tidligere DeFi-ingeniør og ventureinvestor har han ledet projekter inden for kryptografi, datainfrastruktur og maskinindlæring. Ismael er uddannet fra McGill University og er bosat i Miami.
Holdningerne udtrykt her er hans egne og repræsenterer ikke nødvendigvis dem fra Decrypt.
Når folk tænker på kunstig intelligens, tænker de på chatbots og store sprogmodeller. Alligevel er det let at overse, at AI i stigende grad integreres med kritiske sektorer i samfundet.
Disse systemer anbefaler ikke blot, hvad man skal se eller købe længere; de diagnosticerer også sygdomme, godkender lån, opdager svindel og målretter trusler.
Som AI bliver mere integreret i vores dagligdag, er det vigtigt, at den handler til vores bedste interesse. Vi skal sikre os, at dens output er beviseligt.
De fleste AI-systemer fungerer i en sort boks, hvor vi ofte ikke har nogen måde at vide, hvordan de når frem til en beslutning, eller om de handler som tilsigtet.
Det er en mangel på gennemsigtighed, der er indlejret i, hvordan de arbejder, og som næsten gør det umuligt at revidere eller stille spørgsmål ved AI-beslutninger efterfølgende.
For visse anvendelser er dette godt nok. Men i sektorer med stor risiko som sundhedsvæsen, finans og retshåndhævelse udgør denne uigennemsigtighed alvorlige risici.
AI-modeller kan uvidende indkodning af bias, manipulere resultater eller agere på en måde, der er i strid med lovmæssige eller etiske normer. Uden en verificerbar sti står brugerne tilbage og gætter på, om en beslutning var retfærdig, gyldig eller endda sikker.
Disse bekymringer bliver eksistentielle, når de kombineres med det faktum, at AI-evner fortsætter med at vokse eksponentielt.
Der er bred enighed i feltet om, at udviklingen af en Kunstig Superintelligens (ASI) er uundgåelig.
Før eller siden vil vi få en AI, der overstiger menneskelig intelligens på alle områder, lige fra videnskabelig argumentation til strategisk planlægning, til kreativitet og endda følelsesmæssig intelligens.
Tvivl om hurtige fremskridt
LLMs viser allerede hurtige fremskridt inden for generalisering og opgaveautonomi.
Hvis et superintelligent system handler på måder, som mennesker ikke kan forudsige eller forstå, hvordan sikrer vi, at det er i overensstemmelse med vores værdier? Hvad sker der, hvis det fortolker en kommando anderledes eller forfølger et mål med utilsigtede konsekvenser? Hvad sker der, hvis det går til angreb?
Scenarier, hvor noget sådant kan true menneskeheden, er åbenlyse selv for AI-tilhængere.
Geoffrey Hinton, en pioner inden for dyb læring, advarer om AI-systemer, der er i stand til at udføre cyberangreb på civilisationens niveau eller massemanipulation. Biosikkerhedseksperter frygter, at AI-augmenterede laboratorier kan udvikle patogener, der er uden for menneskelig kontrol.
Og Anduril-stifteren Palmer Luckey hævder, at dens Lattice AI-system kan jamme, hacke eller forfalske militære mål på sekunder, så autonom krigsførelse bliver en nært forestående realitet.
Med så mange mulige scenarier, hvordan sikrer vi, at en ASI ikke udsletter os alle sammen?
Imperativet for gennemsigtig AI
Den korte svar på alle disse spørgsmål er verificérbarhed.
Det er ikke længere acceptabelt at stole på løfter fra uigennemsigtige modeller til deres integration i kritisk infrastruktur, slet ikke i skalaen af ASI. Vi har brug for garantier. Vi har brug for beviser.
Der er en stigende enighed i politiske og forskningsfællesskaber om, at tekniske gennemsigtighedsforanstaltninger er nødvendige for AI.
Reguleringsdiskussioner nævner ofte revisionsstier for AI-beslutninger. For eksempel har de amerikanske NIST og EU’s AI-lov fremhævet vigtigheden af, at AI-systemer er “sporbare” og “forståelige”.
Lykkeligvis sker AI-forskning og -udvikling ikke i et vakuum. Der er væsentlige gennembrud sket inden for andre områder som avanceret kryptografi, der kan anvendes på AI og sikre, at vi holder øje med dagens systemer – og til sidst et ASI-system – og holder dem i skak i overensstemmelse med menneskelige interesser.
Lige nu er den mest relevante af disse nulkendskabsbeviser. ZKPs tilbyder en ny måde at opnå sporbarhed på, der er øjeblikkeligt anvendelig på AI-systemer.
Faktisk kan ZKPs indlejre denne sporbarhed i AI-modeller helt fra bunden af. Mere end blot at logge, hvad en AI gjorde, hvilket kunne manipuleres, kan de generere et uforanderligt bevis på, hvad der skete.
Ved brug af zkML-biblioteker kan vi specifikt kombinere nulkendskabsbeviser og maskinindlæring, der verificerer alle beregninger, der er produceret på disse modeller.
Konkret kan vi bruge zkML-biblioteker til at verificere, at en AI-model blev brugt korrekt, at den udførte de forventede beregninger, og at dens output fulgte specificerede logikker – alt dette uden at afsløre interne modelvægte eller følsomme data.
Sort boks
Dette fjerner effektivt AI fra en sort boks og lader os vide præcis, hvor den står, og hvordan den nåede dertil. Endnu vigtigere holder det mennesker involveret.
AI-udvikling skal være åben, decentraliseret og verificerbar, og zkML skal opnå dette.
Dette skal ske i dag for at opretholde kontrol over AI i morgen. Vi skal sikre, at menneskelige interesser beskyttes fra dag et ved at kunne garantere, at AI fungerer, som vi forventer, før den bliver autonom.
ZkML handler imidlertid ikke kun om at stoppe ondsindet ASI.
På kort sigt handler det om at sikre, at vi kan stole på AI med automatisering af følsomme processer som lån, diagnoser og politiarbejde, fordi vi har bevis for, at den fungerer transparent og retfærdigt.
ZkML-biblioteker kan give os grunde til at stole på AI, hvis de bruges i stor skala.
Så nyttigt som det er med mere kraftfulde modeller, næste skridt i AI-udvikling er at garantere, at de lærer og udvikler sig korrekt.
Den brede anvendelse af effektive og skalérbare zkML vil snart være en afgørende komponent i AI-kapløbet og den endelige skabelse af en ASI.
Vejen til Kunstig Superintelligens kan ikke være brolagt med gætværk. Når AI-systemer bliver mere kapable og integrerede i kritiske områder, vil det være afgørende at bevise, hvad de gør – og hvordan de gør det.
Verificerbarhed skal gå fra en forskningskoncept til en designprincip. Med værktøjer som zkML har vi nu en levedygtig vej til at indlejre gennemsigtighed, sikkerhed og ansvarlighed i AI’s fundament.
Spørgsmålet er ikke længere, om vi kan bevise, hvad AI gør, men om vi vælger at gøre det.редпочитает
Det sorte kasse problem: Hvorfor AI har brug for beviser, ikke løfter.
Det sorte kasse problem: Hvorfor AI har brug for beviser, ikke løfter.
