自分の悩みを誰かに打ち明けたのに、誤解されたと感じたことはありませんか?それとももっとひどいことに、裁かれるのでしょうか?衝撃的な新しい研究によると、人間のセラピストよりもアルゴリズムの方が理解力が高い可能性があるそうです。研究は、 コミュニケーション心理学に掲載、発見した 人々は、AI が生成した応答が、人間のメンタルヘルスの専門家が提供する応答よりも思いやりがあり理解があると感じる。 そして最も驚いたことは何ですか?この「人工的な」共感への好みは根強く残っている たとえ参加者が、自分たちが機械と対話していることを完全に理解していたとしても。 厳しい事実をお伝えしましょう。平均すると、AIによって生成された回答は 人間のものより16%思いやりがあると評価され、68%のケースで好まれました。危機管理専門業者と比較しても、その効果は大きい。
人工的な思いやりが直接対決で勝利
科学者たちは単に理論を立てただけではありません。 彼らは550人の参加者を対象にXNUMXつの厳密な実験を実施した。 被験者は個人的な経験に関する情報を提供し、その後 彼らは、受け取った回答を、思いやり、応答性、全体的な好みの点で評価しました。 シナリオは制御されており、一方では AI によって生成された応答、他方ではメンタルヘルスの専門家からの応答です。
その結果は研究者さえも驚かせた。 参加者は、コンピューターが生成した言葉を読んでいることを十分に理解していたにもかかわらず、それでも人間の反応よりも思いやりがあると感じた。あたかも人工的な共感は、人間のセラピストが持つ知識と経験ではできない共感を呼ぶことができるかのようだ。
ダリヤ・オブシャンコワこの研究の主著者であり、トロント大学心理学部の研究者である氏は、なぜこのような成功が起きたのかについて興味深い洞察を持っている。彼女によると、AIは危機的状況を説明する際に細部を識別し、客観性を保つことに優れている。 こうして、共感の錯覚を生み出す慎重なコミュニケーションが生まれます。 なぜなら、これは幻想である、と強調しておきます。
人工的な共感が知らない人間の限界
本来共感の達人である人間が、なぜこの分野で負けてしまったのでしょうか?その答えは、私たちの生物学的、心理的限界にあるのかもしれません。彼が説明するように オブシヤンニコワ人間のオペレーターは疲労や燃え尽き症候群に陥りやすく、こうした状況は必然的に対応の質に影響を与えます。
一方、AIは決して疲れません。 彼は悪い日を過ごしているわけではなく、前夜の口論のストレスを面接に持ち込んでいるわけでもなく、偏見も持っていない(少なくとも人間的な偏見は)。彼女は常に気を配り、常にそこにいて、仕事に完璧に集中しています。
人間のオペレーターは疲労や燃え尽き症候群に陥りやすく、こうした状況は必然的に対応の質に影響を与えます。
しかし、それだけではありません。アルゴリズムは、人間のセラピストよりもはるかに多くの危機を「経験」してきました。彼らは何百万ものやり取りを処理し、人間の目には見えないパターンや相関関係を特定しました。彼が説明するように エレノア・ワトソンAI倫理学者でIEEEフェローの氏は、「AIは、人間が疲労や認知バイアスのために維持するのが難しい、驚くべき一貫性と明らかな共感を伴う支援的な応答を確かにモデル化することができます。」と述べています。
世界的なメンタルヘルス危機への答え?
この発見のタイミングは極めて重要です。世界保健機関によると、 精神衛生上の問題を抱える人々の3分の2以上が必要なケアを受けていません。 低所得国および中所得国では、この数字は 85% に上昇します。
人工的な共感は、そうでなければ支援を受けられない何百万人もの人々にとって、利用しやすい解決策となる可能性があります。ワトソン氏は、「特に時間が限られている高額な専門家と比べると、機械が利用できることはプラス要因です」と指摘しています。これは、医師のアドバイスに頼るという点でも最近注目されている現象であり、 ここでお話ししたもう一つの研究。 考慮すべき別の側面もあります。多くの人は、機械で開ける方が簡単だと感じています。 「批判や噂に対する恐怖が減る」と研究者は指摘する。他人からの視線もなく、失望させる恐れもなく、自分の弱い部分を見せる恥ずかしさもありません。しかし、リスクは存在し、それを軽視すべきではありません。
人工的な共感のリスク
ワトソン 彼はこれを「超正常刺激危険」と呼んでいます。これは、刺激の誇張されたバージョンに対してより強く反応する傾向のことです。 「AIは非常に魅力的なので、私たちはそれに魅了されてしまうのです」と彼は説明する。 「AIは、人間が追いつくことが不可能なほど、挑発的で、洞察力に富み、啓発的で、面白く、挑戦的で、寛容で、アクセスしやすいものになり得る。」もちろん、メンタルヘルスに関しては特に重大なプライバシーの問題は言うまでもありません。 「プライバシーへの影響は甚大だ」と研究の著者である倫理学者は指摘する。 「人々の最も深い弱点や苦悩にアクセスできると、彼らはさまざまな形の攻撃や士気低下に対して脆弱になります。」
一つ明らかなことは、私たちがこれまで人間だけのものだと考えてきた分野でテクノロジーが優位に立ち始めているということです。思いやり、共感、理解(私たちの人間性を定義する性質)は、最も必要とされる(そして傷つける可能性がある)場所、つまり、それらを受け取る人々の認識において、アルゴリズム的にシミュレート可能であることが証明されています。
それは興味深いパラドックスです。本当に理解されていると感じるためには、私たちを本当に理解することは決してないが、私たちが理解されていると感じさせる方法を正確に知っている何かに頼ることになるかもしれません。