Gedachtenlezen 2.0

Ons brein is erg goed in het interpreteren van signalen die uit de buitenwereld binnenkomen. Lichtgolven worden door celletjes achterin onze ogen omgezet in elektrische stroompjes, die vervolgens door een wirwar van neurale paden worden verwerkt tot iets wat wij ‘zien’ noemen. Simpele trillingen van ons trommelvlies worden omgezet tot de rijke kakofonie van geluiden die we de hele dag waarnemen. En ook aanrakingen op ons lichaam komen via de vele zenuwsnelwegen ons bewustzijn binnengevlogen.
Dat bewuste waarnemen van de wereld om ons heen kan soms als iets magisch voelen. Jij bent de enige die direct toegang heeft tot dat bewustzijn waarbinnen de film van onze waarneming plaatsvindt. Toch is het slechts een technische beperking die andere geïnteresseerden ervan weerhoudt mee te neuzen in jouw beleving. Alle informatie die nodig is om jouw bewustzijnsfilm op een computerscherm af te spelen, zit in je brein. Als we in staat zijn om alle precieze stroompjes die door het brein lopen te meten en een computer laten begrijpen hoe die signalen corresponderen met belevingen, zouden we die bewuste ervaringen kunnen reconstrueren.
De praktijk
Dat klinkt theoretisch allemaal leuk en aardig. In de praktijk is het echter onhaalbaar om de signaaltjes van alle 86 miljard neuronen in kaart te brengen. Maar op een wat kleinere schaal zijn wetenschappers al enkele jaren in staat om relevante mentale informatie uit hersenactiviteit te lezen. En dat biedt hoop voor mensen die door hersen- of ruggenmergletsel hun vermogen tot communiceren zijn verloren. Zou het mogelijk zijn om uit hersenactiviteit te kunnen afleiden wat iemand zou willen zeggen, en dat via een luidspreker te laten horen?
Taal is een bijzonder ingewikkeld fenomeen vanuit het brein bezien. Daar waar onderzoekers al verschillende keren hebben laten zien dat ze uit hersenactiviteit hebben kunnen afleiden waar een proefpersoon naar keek, blijkt het lastiger om de neurale code van taal te kraken. Enkele onderzoeken lieten zien dat het mogelijk bleek om bepaalde spraakklanken uit het brein van patiënten uit te lezen. Echter werd in deze gevallen gebruik gemaakt van elektrodes die direct in het brein werden gepland, die zo zeer nauwkeurig de stroompjes konden meten. Dit soort metingen kan enkel worden uitgevoerd bij patiënten bij wie de schedel al deels is geopend vanwege een geplande hersenoperatie. Om de duizenden patiënten die jaarlijks met hersenbeschadiging te kampen hebben te helpen, zou een minder bloederige benadering prettig zijn.
Nieuw onderzoek
Een nog te publiceren nieuw onderzoek van Meta AI biedt nieuw perspectief. De onderzoekers ontwierpen een computermodel dat gebruik kan maken van de elektrische hersensignalen die je aan buitenkant van de schedel kunt meten middels EEG of MEG. Deze meettechnieken maken gebruiken van sensoren die zonder de schedel te hoeven lichten hersenactiviteit kunnen meten.
Het computermodel kreeg grote hoeveelheden hersenactiviteit te zien die was verkregen op 169 vrijwilligers die naar gesproken zinnen luisterden. Daarnaast werden de geluidsbestanden ook aan het computermodel gegeven, die op haar beurt de complexe verbanden tussen hersenactiviteit en de akoestische informatie kon leren.
Na deze trainingsfase werd gekeken hoe nauwkeurig dit model op basis van enkel hersenactiviteit kon voorspellen welke zin de proefpersoon beluisterd had. De nauwkeurigheid bleek nog verre van perfect, maar de prestaties van het model waren uitzonderlijk veel beter dan pure willekeur. En dat is heel goed nieuws voor een meetmethode die comfortabel, relatief simpel en veilig is voor een patiënt.
Met geavanceerdere meettechnieken en krachtigere computermodellen zal het in de toekomst steeds beter lukken om belangrijke informatie uit je mentale wereld te decoderen. Mijn grootste droom? Een stiltecoupé in de trein waar mensen enkel nog mentaal met elkaar telefoneren.