人混みの中で誰かと話そうとすると、脳は可能な限りすべてのことを行い(悪くはありません)、対話者の声の調子をたどります。簡単ではありません。時には、少し叫ぶ必要がありますが、最後には多くの場合、成功します。
補聴器を使用せざるを得ない問題を抱える何百万人もの人々の話し方は変化します。ただし、高度ではありますが、これらのデバイスは特定の音に集中する能力がなく、ノイズに圧倒されて会話ができます。難聴者のための混雑した場所。
問題に直面する コロンビア大学の研究者チームは、聞きたい声だけを識別、選択、分離する新しいデバイスを開発しました。 研究は最初の評価から始まりました。リスナーの脳波はスピーカーの脳波と「同期」する傾向があります。
このため、研究者は、環境に存在する多くの声をコード化して分離し、得られた音声パターンをリスナーの脳波と比較して、最も一致するものだけを増幅できる AI モデルを開発しました。
「その結果、トレーニングを必要とせずに音声を分離できるアルゴリズムが得られました」 医者を説明する ニマ・メスガラニ、Science Advances誌が発表した研究の著者。
よくわからない場合は、このテクノロジーのデモンストレーションをご覧ください。音声を分離する能力は印象的です。
これは、コロンビア大学がどのように機能するかを示す小さなアニメーションです。
ここに研究があります: 話者に依存しない聴覚注意の解読で、クリーンな音声ソースにアクセスできません。