人混みの中で誰かと話そうとすると、脳は可能な限りすべてのことを行い(悪くはありません)、対話者の声の調子をたどります。簡単ではありません。時には、少し叫ぶ必要がありますが、最後には多くの場合、成功します。
補聴器を使用せざるを得ない問題を抱える何百万人もの人々の話し方は変化します。ただし、高度ではありますが、これらのデバイスは特定の音に集中する能力がなく、ノイズに圧倒されて会話ができます。難聴者のための混雑した場所。
問題に直面する コロンビア大学の研究者チームは、聞きたい声だけを識別、選択、分離する新しいデバイスを開発しました。 研究は最初の評価から始まりました。リスナーの脳波はスピーカーの脳波と「同期」する傾向があります。
このため、研究者たちは、環境に存在する多くの声をコーディングして分離できるAIモデルを開発し、結果の音声パターンをリスナーの脳波と比較し、最も一致するものだけを増幅しました。
「その結果、トレーニングを必要とせずに音声を分離できるアルゴリズムが得られました」 医者を説明する ニマ・メスガラニ、Science Advances誌が発表した研究の著者。
はっきりしない場合は、このテクノロジーのデモンストレーションを見てください。音声を分離するその能力は印象的です。
これは、コロンビア大学の小さなアニメーションで、その仕組みを示しています。
ここに研究があります: 話者に依存しない聴覚注意の解読で、クリーンな音声ソースにアクセスできません。