Meta bouwt AI die hersengolven leest

Ronderzoekers van Meta, het moederbedrijf van Facebook, werken aan een nieuwe manier om te begrijpen wat er in de hoofden van mensen gebeurt. Op 31 augustus kondigde het bedrijf aan dat onderzoekswetenschappers in zijn AI-lab AI hebben ontwikkeld die kan “horen” wat iemand hoort, door hun hersengolven te bestuderen.

Hoewel het onderzoek zich nog in een zeer vroeg stadium bevindt, is het bedoeld als bouwsteen voor technologie die mensen met traumatisch hersenletsel kan helpen die niet kunnen communiceren door te praten of te typen. Het belangrijkste is dat onderzoekers deze hersenactiviteit proberen vast te leggen zonder de hersenen met elektroden te onderzoeken, wat een operatie vereist.

De Meta AI-studie keek naar 169 gezonde volwassen deelnemers die verhalen en zinnen hardop hoorden voorlezen, terwijl wetenschappers hun hersenactiviteit registreerden met verschillende apparaten (denk aan: elektroden die op de hoofden van de deelnemers werden geplakt).

Onderzoekers voerden die gegevens vervolgens in een AI-model in, in de hoop patronen te vinden. Ze wilden dat het algoritme zou ‘horen’ of bepalen waar de deelnemers naar luisterden, op basis van de elektrische en magnetische activiteit in hun hersenen.

TIME sprak met Jean Remi King, een onderzoekswetenschapper bij Facebook Artificial Intelligence Research (FAIR) Lab, over de doelen, uitdagingen en ethische implicaties van het onderzoek. Het onderzoek is nog niet peer-reviewed.

Dit interview is voor de duidelijkheid ingekort en bewerkt.

TIJD: Kunt u in lekentaal uitleggen wat uw team met dit onderzoek wilde doen en wat er is bereikt?

Jean Remi King: Er zijn een heleboel aandoeningen, van traumatisch hersenletsel tot anoxie [an oxygen deficiency], waardoor mensen in feite niet kunnen communiceren. En een van de paden die de afgelopen decennia voor deze patiënten zijn geïdentificeerd, zijn hersen-computerinterfaces. Door een elektrode op de motorische gebieden van de hersenen van een patiënt te plaatsen, kunnen we activiteit decoderen en de patiënt helpen communiceren met de rest van de wereld… Maar het is natuurlijk buitengewoon ingrijpend om een ​​elektrode in iemands hersenen te plaatsen. Dus wilden we proberen om niet-invasieve registraties van hersenactiviteit te gebruiken. En het doel was om een ​​AI-systeem te bouwen dat hersenreacties op gesproken verhalen kan decoderen.

Wat waren de grootste uitdagingen die u tegenkwam tijdens het uitvoeren van dit onderzoek?

Er zijn twee uitdagingen die ik het vermelden waard vind. Aan de ene kant zijn de signalen die we oppikken van hersenactiviteit extreem “luidruchtig”. De sensoren zijn vrij ver van de hersenen verwijderd. Er is een schedel, er is een huid, die het signaal dat we kunnen oppikken kan beschadigen. Dus het oppakken met een sensor vereist super geavanceerde technologie.

Het andere grote probleem is meer conceptueel in die zin dat we eigenlijk niet weten hoe de hersenen taal voor een groot deel vertegenwoordigen. Dus zelfs als we een heel duidelijk signaal zouden hebben, zonder machine learning, zou het heel moeilijk zijn om te zeggen: “OK, deze hersenactiviteit betekent dit woord, of dit foneem, of een intentie om te handelen, of wat dan ook.”

Het doel hier is dus om deze twee uitdagingen te delegeren aan een AI-systeem door te leren representaties van spraak en representaties van hersenactiviteit in reactie op spraak op elkaar af te stemmen.

Wat zijn de volgende stappen om dit onderzoek verder te zetten? Hoe ver zijn we verwijderd van deze AI die mensen helpt die een traumatisch neurologisch letsel hebben opgelopen om te communiceren?

Wat patiënten in de loop van de tijd nodig hebben, is een apparaat dat naast het bed werkt en werkt voor taalproductie. In ons geval bestuderen we alleen spraakperceptie. Dus ik denk dat een mogelijke volgende stap is om te proberen te decoderen waar mensen naar kijken in termen van spraak – om te proberen te zien of ze kunnen volgen wat verschillend mensen vertellen het hen. Maar wat nog belangrijker is, idealiter zouden we de mogelijkheid hebben om te decoderen wat ze willen communiceren. Dit zal een hele uitdaging zijn, want als we een gezonde vrijwilliger vragen om dit te doen, ontstaan ​​er veel gezichtsbewegingen die deze sensoren heel gemakkelijk oppikken. Het zal heel moeilijk zijn om er zeker van te zijn dat we hersenactiviteit decoderen in tegenstelling tot spieractiviteit. Dus dat is het doel, maar we weten nu al dat het heel moeilijk gaat worden.

Hoe zou dit onderzoek anders kunnen worden gebruikt?

Het is moeilijk om dat te beoordelen omdat we hier één doel hebben. Het doel is om te proberen te ontcijferen wat mensen in de scanner hebben gehoord, gegeven hun hersenactiviteit. In dit stadium vragen collega’s en recensenten vooral: “Hoe is dit nuttig? Omdat het decoderen van iets waarvan we weten dat mensen het hebben gehoord niet veel oplevert [the table].” Maar ik beschouw dit meer als een principieel bewijs dat deze signalen behoorlijk rijke representaties kunnen bevatten – meer dan we misschien hadden gedacht.

Is er nog iets dat volgens u belangrijk is voor mensen om te weten over dit onderzoek?

Wat ik wil benadrukken is dat dit onderzoek is dat binnen FAIR wordt uitgevoerd en in dat opzicht niet top-down door Meta wordt aangestuurd en niet bedoeld is voor producten.

Meer must-read-verhalen van TIME


Schrijven aan Megan McCluskey op megan.mccluskey@time.com.

Leave a Comment