Maschinelles Lernen: Forscher analysieren, was Musik zu Hits macht
Forscher vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig wollten verstehen, wie Musik das Genusssystem im Gehirn aktiviert und haben mit einem maschinellen Lernmodell getestet, wie Freude an Popmusik aus der richtigen Kombination von Akkorden entsteht.
In ihrer Studie, die jetzt in der Zeitschrift Current Biology veröffentlicht wurde, analysierten die Forscher um Vincent Cheung 80.000 Akkorde in 745 klassischen US-Billboard-Pop-Songs und stellten fest, dass musikalisches Vergnügen aus der richtigen Kombination von Unsicherheit und Überraschung entsteht.
Lieder ihrer Texte und Melodien beraubt
Cheung und sein Kollege Stefan Koelsch verwendeten ein maschinelles Lernmodell, um Unsicherheit und Überraschung in 80.000 Akkorden aus US-Billboard-Popsongs mathematisch zu quantifizieren. Die Forscher entfernten Elemente wie Text und Melodie aus den Liedern und behielten nur die Akkordfolgen bei. So wollten sie bestehende Assoziationen der Zuhörer zu den Songs ausschließen und sicherstellen, dass die Chart-Hits nicht auf Anhieb erkennbar waren.
Balance aus Wissen und Überraschung
Bei Menschen entstehe die Freude an einem Musikstück der Studie zufolge nur durch die Art und Weise, wie die Akkorde in der Musik angeordnet werden, so der Neurowissenschaftler Vincent Cheung. Songs, die der Hörer als angenehm empfindet, sind demnach diejenigen, die eine gute Balance erreichen zwischen dem Wissen, was als nächstes passieren wird, und der Überraschung über etwas, das nicht erwartet wird.
Hits: Überraschen bei Sicherheit, Gewohntes bei Unsicherheit
Die Forscher konnten zeigen, dass es die Testpersonen als angenehm empfanden, wenn sie überrascht wurden, wenn sie relativ sicher waren, welche Akkorde als nächstes zu erwarten waren – ihre Erwartungen also verletzt wurden. Wenn die Testpersonen hingegen unsicher waren, was sie als nächstes erwartete, fanden sie es angenehm, wenn sie von nachfolgenden Akkorden nicht überraschend wurden.
Anhand von Hirnbildern aus der funktionellen Magnetresonanztomographie (fMRI) fanden die Wissenschaftler heraus, dass sich die Erfahrung des musikalischen Vergnügens, wie vermutet, in drei Gehirnregionen widerspiegelt: der Amygdala, dem Hippocampus und dem auditorischen Kortex. Diese Regionen verarbeiten Emotionen, Lernen und Gedächtnis sowie Klang. Im Gegensatz dazu und völlig überraschend für die Forscher spiegelte die Aktivität im sogenannten Nucleus accumbens – hier wird die Erwartung von Belohnung verarbeitet – nur die Unsicherheit der Zuhörer wider. Bisher dachte man, dass dieser Teil des Gehirns auch eine Rolle bei der Verarbeitung von musikalischem Vergnügen spielt.
Zusammenfassend zeigen wir, dass musikalisches Vergnügen vom dynamischen Zusammenspiel zwischen prospektiven und retrospektiven Erwartungszuständen abhängt. Unsere menschliche grundlegende Fähigkeit zur Vorhersage ist daher ein wichtiger Mechanismus, durch den abstrakte Klangsequenzen eine affektive Bedeutung erlangen und sich in ein universelles kulturelles Phänomen verwandeln, das wir ‚Musik‘ nennen.
Forscher vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig
Ergebnisse könnten Algorithmen zur Musikerzeugung verbessern
Die Ergebnisse der Studie könnten nun auch zur Verbesserung künstlicher Algorithmen beitragen, die Musik erzeugen, sowie zur Unterstützung von Komponisten beim Schreiben von Musik oder zur Vorhersage musikalischer Trends.
Als nächstes wollen die Wissenschaftler versuchen zu ergründen, wie Informationen beim Musikhören im Laufe der Zeit über verschiedene Teile des Gehirns fließen. Die Kombination von Computermodellierung und Hirnbildgebung sehen die Forscher als ein großes Potenzial für ihre Arbeit.