Skip to content

Hirnströme verraten gehörte Musik – KI-System identifiziert anhand von EEG-Mustern und Hirnscans das gehörte Musikstück

Musikalisches Gedankenlesen: Allein mit Hilfe von Hirnscans und EEG-Daten lässt sich entschlüsseln, welche Musik eine Testperson gerade hört, wie ein Experiment belegt. Dabei identifizierte eine entsprechend trainierte künstliche Intelligenz anhand der nichtinvasiv aufgezeichneten neuronalen Signale das richtige Musikstück mit einer Trefferquote von 71,8 Prozent. Die Ergebnisse könnten ein erster Schritt auf dem Weg sein, auch Sprache nichtinvasiv aus Hirnwellen auszulesen.

Musik ist tief in unserer Natur verwurzelt. Hören wir vertraute Klänge, identifiziert unser Gehirn sie innerhalb von Sekundenbruchteilen. Hirnstrommessungen zeigen, das Musik ein wahres Feuerwerk an Signalen auslösen kann, einhergehend mit starken Emotionen und Gänsehautgefühl. Verschiedene Forschungsteams haben sich bereits damit beschäftigt, was die Hirnströme beim Musikhören verraten können – etwa über die Emotionen der Probanden oder über die Musik selbst.

Mixture between EEG and fMRT

Ian Daly von der Faculty of Laptop Science and Digital Engineering der Universität Essex in Großbritannien hat nun gezeigt, dass sich aus den Hirnströmen ablesen lässt, welche Musik eine Particular person gerade hört. Während frühere Studien beispielsweise zum Auslesen von Sprache aus der Hirnaktivität, dafür oft auf invasive Methoden wie Elektrokortikografie (EKoG) zurückgegriffen haben, für die Elektroden im Schädel platziert werden, nutzte Daly Daten aus nicht-invasivelo Elektroensphaensphaens).

Um die Genauigkeit der Vorhersagen zu erhöhen, kombinierte Daly die EEG-Daten mit funktionellen Magnetresonanztomografie-Messungen (fMRT), die den Blutfluss im Gehirn zeigen und so Aufschluss darüber geben, welche Hirnregionen beim Hören von Musik bei der sind individual jeweiligentiv. Diese Informationen nutzte der Forscher dazu, um jeweils genau jene EEG-Daten für die weitere Analyze auszuwählen, die diesen Bereichen entsprachen.

Musik aus Hirnströmen rekonstruiert

Die Daten stammten aus einer früheren Studie, bei der der ursprüngliche Fokus auf den Emotionen der Musikhörenden lag. Die 18 in die Analyze einbezogenen Testpersonen hatten dabei 36 kurze Stücke von Klaviermusik gehört, während ihre Hirnaktivität per fMRT und EEG aufgezeichnet wurde. Daly trainierte nun ein Deep-Studying-Modell darauf, die Muster im EEG so zu dekodieren, dass es das jeweilige Musikstück, das die Testperson während der Messung gehört hatte, rekonstruieren konnte.

Sonogramm des von der Testperson gehörten Musikstücks (oben) und die aus den Hirnströmen rekonstruierte Model. © Daly et al. / Scientific Stories, CC-by 4.0

Tatsächlich conflict das Modell in der Lage, Tempo, Rhythmus und Amplitude der Musik in Teilen nachzuvollziehen. Dabei conflict Ähnlichkeit zu den Originalmusikstücken hoch genug, dass der Algorithmus mit einer Trefferquote von 71,8 Prozent vorhersagen konnte, welches der 36 Musikstücke die Particular person gehört hatte.

Particular person Unterschiede

Um die Ergebnisse zu validieren, nutze Daly eine unabhängige Stichprobe von 19 weiteren Probanden, die ebenfalls die entsprechenden Musikstücke gehört hatten. Da von diesen Personen nur EEG-Daten, jedoch keine fMRT-Daten vorlagen, nutzte Daly zur Bestimmung der relevanten EEG-Daten die Informationen der ersten Stichprobe.

„Selbst wenn personenspezifische fMRT-Daten fehlten, waren wir in der Lage, die gehörte Musik allein anhand der EEG-Daten zu identifizieren“, berichtet Daly. Allerdings weist er darauf hin, dass sich die Lokalisation der relevanten Hirnreaktionen auf Musik von Mensch zu Mensch unterscheidet. Entsprechend conflict das Modell, wenn es nicht mit personenspezifischen fMRT-Daten angepasst werden konnte, ungenauer und erreichte nur eine Trefferquote von 59,2 Prozent.

Fernziel: Sprache erkennen

Daly sieht sein Modell als einen ersten Schritt auf dem Weg zu größeren Zielen. „Diese Methode hat viele potenzielle Anwendungen“, sagt er. „Wir haben gezeigt, dass wir Musik entschlüsseln können, was darauf hindeutet, dass wir eines Tages in der Lage sein könnten, Sprache aus dem Gehirn zu entschlüsseln.“ Zwar ist dies in Ansätzen schon jetzt möglich, wie Expertise zeigen. Bisher funktioniert dies aber nur mit invasive Technik wie Elektroden im Gehirn.

Für Menschen mit Locked-In-Syndrom, die aufgrund von Lähmungen keine Möglichkeit haben, mit anderen Menschen zu kommunizieren, könnte dies ein Tor zur Außenwelt eröffnen. „Natürlich ist dies noch ein weiter Weg, aber wir hoffen, dass wir, wenn wir eines Tages die Sprache erfolgreich entschlüsseln können, dies nutzen können, um Kommunikationshilfen zu bauen“, sagt Daly. (Scientific Stories, 2023, doi: 10.1038/s41598-022-27361-x)

Quelle: College of Essex

Leave a Reply

Your email address will not be published. Required fields are marked *