The Third Neuroadaptive Technology Conference Mountain View : Society for Neuroadaptive Technology, 2022 (2022), Seite 34-36 1 Online-Ressource (120 Seiten)
In einer komplexen akustischen Situation mit mehreren konkurrierenden Sprechern, die sich in einem hallenden Raum mit Hintergrundgeräuschen befinden, haben Hörgeräteträger große Schwierigkeiten ein Gespräch zu verfolgen. Obwohl Hörgeräte-Algorithmen in der Lage sind verschiedene Schallquellen zu trennen und Störgeräusche zu unterdrücken, besitzen sie jedoch keine Informationen über die Absicht des Trägers. In der Zukunft könnte die Steuerung von Hörgerätefunktionen durch auditorisch basierte Gehirn Computer Steuerungen (BCI) eine mögliche Lösung für dieses Problem darstellen. Das BCI könnte z.B. einen attendierten Sprecher detektieren und einen räumlichen Filter in die entsprechende Richtung richten. Ziel der vorliegenden Arbeit ist es auf ein geeignetes auditorisches BCI-Paradigma hinzuarbeiten, welches natürliche Sprachlaute verwendet, um die Intention des Probanden zu entschlüsseln.
Hearing aid users have strong difficulties to follow a conversation in a complex acoustic situation with several competing speakers inside a reverberant room with background noise. Although hearing aid algorithms are able to segregate different sources and mask noise, they possess no information of the users’ intention. In the future, auditory-based Brain Computer Interfaces (BCI) could provide a possible solution by controlling hearing aid functions, like detecting the speaker of interest and pointing a spatial filter to the respective direction or selecting a specific noise filter according to the ability of the listener to understand the attended speaker. The current thesis aims at a related auditory BCI paradigm, able to decode the subjects’ intention, using natural speech sounds in an everyday life scenario.