Looming Sounds

Wie lässt sich die Aufmerksamkeit mit Warntönen optimal lenken?

20. Februar 2019

In unserer zunehmend technisierten Umwelt begleiten uns tagtäglich immer mehr Software-Systeme – sowohl in unserer Arbeitswelt als auch im privaten Umfeld. In Produktionsanlagen arbeiten Angestellte überwiegend mit komplexen Maschinensystemen. Die Automobilindustrie arbeitet mit Hochdruck an der Verbesserung der autonomen Fahrsysteme. Und Informatiker arbeiten an Virtual- und Augmented-Reality-Lösungen, die uns ermöglichen, Häuser zu sanieren oder uns virtuell mit Teamkollegen zu besprechen – völlig unabhängig davon wo sich die einzelnen Menschen tatsächlich befinden.

Bei der Entwicklung solcher Anwendungen müssen Entwickler verantwortungsvoll die Aufmerksamkeit ihrer Anwender lenken. Wenn beispielsweise vor einem autonom fahrenden Auto plötzlich ein Hindernis auftaucht, muss der Fahrer gewarnt werden. Auch der Produktionsarbeiter muss alarmiert werden, wenn der Ablauf der Maschine aufgrund eines Fehlers unterbrochen wird. Und ein Mensch, der in virtuellen Welten abgetaucht ist, muss vor auftauchenden Gefahren geschützt werden. In diesen Fällen steuern Warntöne die optimale Kommunikation zwischen Mensch und Maschine. Lewis Chuang, Experte in den Neurowissenschaften, erforscht mit seinem Team die menschliche Wahrnehmung. Er möchte herausfinden, wie das menschliche Gehirn in solchen Situationen reagiert und mit seinen Erkenntnissen ermöglichen, dass zukünftige Systeme optimal auf den Menschen abgestimmt werden können.

In seinen jüngsten Studien hat Lewis Chuang gemeinsam mit seiner Kollegin Christiane Glatz am Max-Planck-Institut für biologische Kybernetik in Tübingen unterschiedlichste Sound-Effekte untersucht und dabei herausgefunden, dass sogenannte Looming-Sounds am besten unsere Aufmerksamkeit binden. Als Looming-Sounds werden Töne bezeichnet, die zunächst sehr leise beginnen und stetig lauter werden. Einen solchen Warnton verknüpft unser Gehirn offenbar mit dem Geräusch, das wir wahrnehmen, wenn ein Objekt aus der Entfernung auf uns zukommt – ähnlich einem Auto, das auf uns zufährt. Hören wir einen solchen Ton, lenkt dieser unsere Aufmerksamkeit und bindet sie besonders lange. Die Erkenntnisse der beiden Forschenden aus dem SFB-TRR 161 sind in dem Artikel The time course of auditory looming cues in redirecting visuo-spatial attention zusammengefasst und wurden jüngst auf Scientific Reports veröffentlicht.

Originalpublikation:
Christiane Glatz and Lewis L. Chuang, The time course of auditory looming cues in redirecting visuo-spatial attention, Scientific Reports, 2018.

Kontakt:
Dr. Lewis Chuang
Telefon: 089 218072318
E-Mail:


Das Max-Planck-Institut für biologische Kybernetik ist eine von 84 Forschungseinrichtungen der Max-Planck-Gesellschaft (MPG). Das Institut erforscht die Informationsverarbeitung im Gehirn von Mensch und Tier. Experimentelle und theoretische Methoden sowie Computersimulationen helfen dabei, die Prozesse zu untersuchen, die Sinnesreize in Wahrnehmungen und Erinnerungen übersetzen, uns Entscheidungen fällen und handeln lassen.
www.kyb.mpg.de

Das Collaborative Research Center SFB-TRR 161 “Quantitative Methods for Visual Computing” ist ein kollaboratives und interdisziplinäres Forschungsprojekt, das 17 Projektteams der Universität Stuttgart, der Universität Konstanz und des Max-Planck-Instituts für biologische Kybernetik verbindet, die in vier Projektbereichen, drei Task Forces im Bereich Visual Computing arbeiten.
www.sfbtrr161.de

Printable images can be obtained at the Public Relations Office. Please send a proof upon publication.

Zur Redakteursansicht