Forskere har med succes udviklet en metode til at læse en forsøgspersons hjerneaktivitet og omsætte den til sammenhængende og forståelig tekst.
Med næsten uhyggelig præcision har de rekonstrueret historier, som forsøgspersonen enten har lyttet til eller blot har forestillet sig. Det skriver Videnskab.dk.
- Vi var faktisk lidt chokerede over, at det fungerer så godt, som det gør, siger en af forskerne bag, Alexander Huth, der er adjunkt i neurovidenskab og datalogi ved University of Texas, ifølge The Guardian.
I et af forsøgene lyttede forsøgsdeltageren til en stemme, der sagde: "Jeg har ikke fået mit kørekort endnu".
Hjerneaktiviteten blev læst og oversat til: "Hun er ikke engang begyndt at lære at køre endnu".
- Computeren kan ikke fejlfrit læse tankerne hos forsøgsdeltagerne, men den kan lave en form for sjusning, der rammer lidt i nærheden,« siger Mikkel Wallentin fra Aarhus Universitet til Videnskab.dk og fortsætter:
- Det handler nemlig om betydningen og ikke kun om sproget. Når vi ser en film eller hører en historie, skaber vi et meningsindhold, der har nogle bestemte hjerneaktivitetsmønstre, og de stimuli kan computeren genskabe.
Først skal modellen lære mønstrene i en persons hjerneaktivitet at kende. I studiet har tre forsøgsdeltagere derfor tilbragt 16 timer i en rørformet skanner, hvor de har ligget – uden at røre sig – og lyttet til historier.
Hjerneaktiviteten er blevet målt ved hjælp af fMRI (funktionel magnetisk resonanstomografi), der måler hjernens blodgennemstrømning. Når blodgennemstrømningen øges et bestemt sted i hjernen, er det et tegn på, at der er øget aktivitet i denne del af hjernen.
Det giver fMRI-skanninger den indbyggede svaghed, at der går noget tid, fra et bestemt stimuli finder sted, til området i hjernen aktiveres. Signalet er hele tiden seks sekunder bagud, vurderer Mikkel Wallentin.
Det gør det kort sagt umuligt at oversætte de forskellige stimuli i realtid.
At forskerne alligevel er lykkedes med at oversætte signalerne skyldes fremkomsten af AI-drevne sprogmodeller, som man kender fra eksempelvis ChatGPT.
Sprogmodellerne er trænet i at give kvalificerede bud på, hvilket ord der følger efter et andet. Ved at koble en kunstig intelligens på forskernes model kan den foreslå, hvilke kæder af ord der hænger sammen med hjerneaktiviteten, i stedet for at forsøge at læse aktiviteten ord for ord.
Senere blev de tre deltagere skannet, mens de lyttede til nye historier, og modellen kunne herefter rekonstruere historierne ud fra hjerneaktivitet alene.
Cirka halvdelen af gangene matchede den rekonstruerede tekst den oprindelige, og i nogle tilfælde brugte modellen de nøjagtige ord.
Forskernes håb er, at dekoderen kan blive et redskab til at kommunikere for mennesker, der er mentalt bevidste, men ude af stand til at tale fysisk. Det kan være mennesker, der er blevet ramt af et slagtilfælde.