Overskrifter

Figur AI giver ekstra kraft til menneskelignende robotter – Her er, hvordan det fungerer.

Dogecoin And Shiba Inu Struggle For Momentum As Traders Flock To Rollblock’s 20x Storyline Dogecoin And Shiba Inu Struggle For Momentum As Traders Flock To Rollblock’s 20x Storyline

Figur AI afslørede endelig torsdag det “store gennembrud”, der fik den hypede robotopstart til at bryde forbindelsen til en af dens investorer, OpenAI: En ny dualsystem AI-arkitektur, der giver robotter mulighed for at tolke naturlige sprogkommandoer og manipulere objekter, de aldrig har set før – uden at have brug for specifik fortræning eller programmering til hver enkelt.
I modsætning til konventionelle robotter, der kræver omfattende programmering eller demonstrationer for hver ny opgave, kombinerer Helix et højniveaus resonanssystem med realtidsmotorstyring. Dets to systemer broer effektivt kløften mellem semantisk forståelse (at vide, hvad objekter er) og handling eller motorstyring (at vide, hvordan man manipulerer disse objekter).
Dette vil gøre det muligt for robotter at blive mere kapable over tid uden at skulle opdatere deres systemer eller træne på ny data. For at demonstrere hvordan det fungerer, udgav virksomheden en video, der viser to Figur-robotter, der arbejder sammen for at sætte dagligvarer på plads, hvor den ene robot giver genstande til en anden, der placerer dem i skuffer og køleskabe.
Figur hævdede, at hverken robot kendte de genstande, de arbejdede med, endnu var de i stand til at identificere, hvilke der skulle i køleskabet, og hvilke der skulle opbevares tørt.
“Helix kan generalisere til ethvert husholdningsobjekt,” tweeted Adcock. “Ligesom et menneske forstår Helix tale, tænker over problemstillinger og kan gribe enhver genstand – alt sammen uden brug for træning eller kode.”
Hvordan magien virker
For at opnå denne generaliserings evne udviklede den Californien-baserede opstart også det, de kaldte en Vision-Language-Action (VLA) -model, som forener opfattelse, sprogforståelse og tillært kontrol, hvilket gjorde deres modeller i stand til at generalisere.
Denne model, hævder Figur, markerer flere først i robotteknik. Den producerer kontrollen med en hel menneskelig overkrop ved 200 Hz, herunder individuelle fingerbevægelser, håndledspositioner, torsoorientering og hovedretning. Den lader også to robotter samarbejde om opgaver med genstande, de aldrig har set før.
Gennembruddet i Helix kommer fra dens dualsystemarkitektur, der afspejler menneskelig kognition: En 7 milliarder parameter “System 2” vision-sprog model (VLM), der håndterer højniveauforståelse ved 7-9Hz (opdaterer sin status 9 gange pr. sekund tænker langsomt til strukturelle og komplekse opgaver eller bevægelser), og en 80 millioners parameter “System 1” visuomotorik politik, der oversætter disse instruktioner til præcise fysiske bevægelser ved 200 Hz (grundlæggende opdatering af sin status 200 gange pr. sekund) for hurtig tænkning.
Modsætningsvis tidligere tilgang bruger Helix en enkelt sæt neuralnetværksvægte til alle adfærd uden opgavespecifik fintuning. Det ene system bearbejder tale og visuelle data for at muliggøre komplekse beslutninger, mens den anden oversætter disse instruktioner til præcise motoraktioner for realtidssvar.
“Vi har arbejdet på dette projekt i over et år med det formål at løse generelle robotproblemer,” tweeted Adcock. “At kode sig ud af dette vil ikke virke; vi har brug for en forandring i kapaciteter for at skalere til et milliarder robotniveau.”
Helix siger, at alt dette åbner døren til en ny skalalov indenfor robotteknik, en der ikke afhænger af kodning, men i stedet er afhængig af en kollektiv indsats, der gør modellerne mere kapable uden nogen forudgående træning i specifikke opgaver.
Figure trænede Helix i cirka 500 timers fjernstyret robotadfærd, og brugte derefter en auto-mærkningsproces til at generere naturlige sproginstruktioner til hver demonstration. Hele systemet kører på integrerede GPU’er inde i robotterne, hvilket gør det øjeblikkeligt klar til kommerciel brug.
Figure AI sagde, at de allerede har sikret aftaler med BMW Manufacturing og en unavngiven større amerikansk klient. Virksomheden mener, at disse partnerskaber skaber “en vej til 100.000 robotter inden for de næste fire år,” sagde Adcock.
Den humantlignende robotvirksomhed sikrede sig 675 millioner dollars i serie B-finansiering tidligere på året fra investorer, herunder OpenAI, Microsoft, NVIDIA og Jeff Bezos, til en værdiansættelse af 2,6 milliarder dollars. De er angiveligt i gang med at indgå en aftale om yderligere 1,5 milliarder dollar, hvilket ville værdisætte virksomheden til 39,5 milliarder dollars.
Redigeret af Andrew Hayward

Leave a Reply

Your email address will not be published. Required fields are marked *