Capire una voce in mezzo a molte altre è una delle difficoltà più comuni per chi ha problemi di udito. Gli apparecchi acustici moderni riescono ad amplificare il parlato e a ridurre alcuni rumori di fondo, come traffico o suoni continui, ma faticano quando più persone parlano nello stesso momento.
Il risultato è che spesso vengono amplificate tutte le voci insieme, senza distinguere quella che l’ascoltatore vuole davvero seguire. È il cosiddetto “effetto cocktail party”: una capacità che il cervello umano normalmente possiede, ma che la tecnologia fa ancora fatica a imitare.
Il sistema che segue l’attenzione del cervello
I ricercatori dello Zuckerman Institute della Columbia University hanno sviluppato un sistema che usa i segnali cerebrali per capire quale conversazione una persona sta ascoltando.
Potrebbe interessarti anche:
- Udito, i danni iniziano prima dei 40 anni: cosa sapere per proteggersi davvero
- Acufene, una sostanza chiave del cervello potrebbe influenzarne l’intensità
- Quando il cervello impara a ignorare il rumore: cosa rivela una nuova ricerca sull’acufene
Lo studio, pubblicato su Nature Neuroscience, è stato condotto con pazienti affetti da epilessia che avevano già elettrodi impiantati nel cervello per ragioni cliniche. I volontari hanno ascoltato due conversazioni sovrapposte. Il sistema ha analizzato l’attività cerebrale, ha identificato la voce seguita dal paziente e ne ha aumentato il volume in tempo reale, abbassando l’altra.
Secondo gli autori, la tecnologia funziona perché il cervello tende a sincronizzarsi con il ritmo della voce ascoltata. Ogni parlato ha una propria alternanza di suoni, pause, picchi e cali. Gli algoritmi confrontano questi schemi con le onde cerebrali dell’ascoltatore e individuano la voce su cui si sta concentrando.
Dalla teoria a un prototipo funzionante
Negli ultimi anni diversi gruppi di ricerca avevano ipotizzato che un apparecchio acustico potesse “leggere” l’attenzione dell’utente. La novità di questo studio è che il sistema ha prodotto un beneficio immediato e misurabile.
I volontari hanno capito meglio il parlato, hanno riferito meno fatica nell’ascolto e hanno preferito la versione assistita rispetto all’audio non modificato. Il dispositivo ha funzionato sia quando i ricercatori indicavano quale voce seguire, sia quando i partecipanti decidevano liberamente a quale conversazione prestare attenzione.
Uno dei volontari ha descritto l’esperienza come qualcosa di molto vicino alla fantascienza. Un’altra partecipante ha pensato a un familiare con problemi di udito, immaginando quanto una tecnologia simile potrebbe rendere più semplice la vita quotidiana.
Una possibile svolta, ma non ancora pronta per l’uso
Il limite principale è evidente: nello studio sono stati usati elettrodi impiantati nel cervello, perché i pazienti li avevano già per motivi medici. L’obiettivo futuro non è creare un dispositivo che richieda un intervento invasivo, ma arrivare a sistemi indossabili o minimamente invasivi, capaci di combinare sensori cerebrali e processazione audio avanzata.
Il bisogno clinico è ampio. Secondo l’Organizzazione Mondiale della Sanità, oltre 430 milioni di persone convivono con una perdita uditiva disabilitante. Le difficoltà di ascolto nei luoghi affollati possono favorire isolamento sociale, depressione e affaticamento cognitivo. Ma lo studio segna un punto importante: dimostra che l’udito assistito può essere guidato anche dall’intenzione dell’ascoltatore.
FONTI:
Neuroscience - First Real-Time Brain-Controlled Hearing Device
Nature - Real-time brain-controlled selective hearing enhances speech perception in multi-talker environments