Forskare förklarar: DÀrför ljuger AI:n

De nya chattbotarna har ofta rĂ€tt, men minst lika gĂ€rna ljuger de ogenerat. Vad Ă€r det egentligen som fĂ„r AI:n att hitta pĂ„ saker? –Det ligger i deras natur, sĂ€ger forskaren Mattias Rost.

Chattrobotarna drar sig inte för att dra lögner.

Chattrobotarna drar sig inte för att dra lögner.

Foto: Johan HallnÀs/TT

Teknik2023-12-09 10:01

Det kan nÀstan kÀnnas magiskt att se text skapas i chattrobotar som Chat GPT, Bard eller Pi. Utan protester hjÀlper de till med allt frÄn att sammanfatta svÄra textmassor, ge middagstips eller svara pÄ faktafrÄgor. Men ofta blir det galet. Chattrobotarna har inget emot att hitta pÄ kÀllhÀnvisningar, mÀnniskor eller hÀndelseförlopp och presentera det som sanning.

Men frĂ„gan om vad som fĂ„r AI:n att hitta pĂ„ saker – att hallucinera, som det kommit att kallas – Ă€r egentligen felstĂ€lld, enligt AI-forskare.

– Jag skulle sĂ€ga att det Ă€r ett mindre mirakel att de kan ge dig svar som Ă€r faktamĂ€ssigt korrekta i nĂ„gon mening, sĂ€ger Suresh Venkatasubramanian.

Han Àr professor i datavetenskap vid amerikanska Brown University och har varit med att ta fram Vita husets riktlinjer kring AI-rÀttigheter.

– Om du frĂ„gar en chattrobot sĂ„ Ă€r den inte riktigt tillĂ„ten att sĂ€ga "jag vet inte". Den Ă€r byggd för att ge dig nĂ„gon sorts svar vad Ă€n frĂ„gan Ă€r, sĂ„ lĂ€nge det verkar vettigt, mot bakgrund av de texter den trĂ€nats pĂ„, sĂ€ger han och fortsĂ€tter:

– SĂ„ om du frĂ„gar den vilka som jobbar pĂ„ ditt företag sĂ„ kommer den att förse dig med ett antal namn, för det Ă€r sĂ„ den sett svar pĂ„ liknande frĂ„gor tidigare, oavsett om de namnen Ă€r korrekta eller inte.

"Hallucinerar hela tiden"

Mattias Rost, lektor vid Göteborgs universitet, förklarar att robotarna rÀknar ut sannolikheten för vad nÀsta ord i en mening Àr, fÄr fram en lista och utifrÄn den vÀljs ett alternativ. Det Àr lite som nÀr mobilen eller mejlsystemet föreslÄr en fortsÀttning nÀr du skriver ett ord.

– Resultatet Ă€r pĂ„ nĂ„got sĂ€tt alltid nĂ„gorlunda slumpmĂ€ssigt. Men ju bĂ€ttre modellen Ă€r, desto mer sannolikt Ă€r det att texten den spottar ur sig Ă€r sĂ„dan som vi kan förstĂ„. Men det finns inget i dess underliggande natur som skulle vara att den Ă€r mer korrekt eller inte.

Exakt varför AI-tjÀnsterna spottar ut sig ett visst svar Àr ofta oklart. Likt den mÀnskliga hjÀrnan vet forskarna inte riktigt hur sprÄkmodellerna gör sitt urval.

– Den hallucinerar hela tiden, det ligger i dess natur. Det Ă€r bara det att vĂ€ldigt ofta blir det rĂ€tt, sĂ€ger Rost.

Men folk vill av gammal vana gÀrna anvÀnda ny teknik pÄ invanda sÀtt, pÄ samma sÀtt som Google eller Wikipedia.

– Jag skulle sĂ€ga att den hĂ€r tekniken Ă€r inte gjord för den hĂ€r typen av faktakunskap, sĂ€ger Rost.

Julrim och forskning

I USA har flera jurister rÄkat illa ut efter att ha anvÀnt AI-tjÀnster. Det rapporteras bland annat om avstÀngningar och böter sedan det uppdagats att man har anvÀnt Chat GPT för att förbereda rÀttsfall, dÀr chattroboten glatt hittat pÄ liknande fall som visade sig inte existera.

– Det Ă€r ett exempel pĂ„ nĂ€r det kan vara problematiskt, dĂ€r det kan bli rĂ€tt illa. Medan det i andra fall oftast Ă€r okej, sĂ€ger Suresh Venkatasubramanian.

Ett sÀtt att försöka att lösa problematiken Àr att lÀgga annan teknik ovanpÄ, som hjÀlper till med kÀllhÀnvisning och faktagranskning.

Hallucinerande i sig Àr heller inte dÄligt, utan krÀvs för att kunna tÀnka utanför boxen.

– Inom forskning kan den exempelvis anvĂ€ndas för att generera möjliga hypoteser, som att ta fram lĂ€kemedelsmolekyler att testa, eller en ny proteinstruktur. DĂ„ kan det vara bra med en kreativ assistent.

Mattias Rost Àr inne pÄ samma spÄr:

– Det finns jĂ€ttebra exempel pĂ„ det vi nu kallar hallucinationer som Ă€r jĂ€ttepositivt. Om du skapar ett julrim, vill du att den ska hitta pĂ„ nya grejer, sĂ€ger han.

Suresh Venkatasubramanian, professor i datavetenskap. Pressbild.
Suresh Venkatasubramanian, professor i datavetenskap. Pressbild.
Fakta: Chattbotar

En chattbot, eller chattrobot, Àr en robot som det gÄr att skriva med och som ger svar som pÄminner om dem som en mÀnniska skulle kunna ge. De kan anvÀndas som kundtjÀnst, som ett slags personlig assistent eller som sÀllskap.

Flera chattrobotar bygger pÄ generativ AI, som trÀnar pÄ stora mÀngder data och lÀr sig att identifiera mönster och strukturer. Med den kunskapen skapar AI:n nytt innehÄll. Det kan till exempel vara text, bild, ljud eller video, som liknar innehÄll skapat av mÀnniskor.

MÄnga företag har integrerat tekniken i sina existerande tjÀnster, som Microsoft och Google (sökmotorer), liksom Snapchat (i form av en omdiskuterad chattjÀnst). NÄgra aktuella Àr Open AI:s Chat GPT, Googles Bard, Amazons Q och Inflections Pi.

SĂ„ jobbar vi med nyheter  LĂ€s mer hĂ€r!