人間以外の存在から言葉が流れてくる世界では、私たちは自分自身に疑問を感じます:私たちは人間の精神に似た何か、あるいは機械に似たものと話しているのでしょうか?その答えは、私たちの知性に関する概念に衝撃を与える可能性があります。
一般公開からほぼ 9 年が経ちますが、ChatGPT は依然として科学コミュニティにとって二極化したトピックです。一部の専門家は、これを同様のプログラムと合わせて、文明に革命を起こし、さらには文明を終わらせることができる超知性体の前駆体であると考えています。しかし、他の人は、これをオートコンプリート ソフトウェアのシンプルで洗練されたバージョンであり、私たちがスマートフォンに搭載している TXNUMX に少し似ていると考えています。
誰が正しいですか? もしかしたらどれもそうではないかもしれない。
このテクノロジーが到着するまでは、言語の習得は常に合理的な心の存在を示す信頼できる指標でした。 ChatGPT のような言語モデルが登場するまでは、これほど言語的な柔軟性を示すソフトウェアはありませんでした。子どものような言語の柔軟性さえありません。さて、これらの新しいモデルの性質を理解しようとすると、私たちは不穏な哲学的ジレンマに直面しています。それは、言語と人間の心の結びつきが壊れているか、あるいは人間以外の新しい形の心が作られているかのどちらかです。
私たちが言語モデルと会話するとき、特に ChatGPT を音声でも参照できるようになったとき、別の合理的な存在と対話しているという微妙な印象を克服するのは困難です。現在の音声アシスタントではこのようなことは起こりませんが、すでにとんでもなく時代遅れに見えます。しかし、私たちのこの本能的な反応はまったく信頼できないものであると考えなければなりません。これには、表面的には明白に見えますが、実際にはそうではないいくつかの理由があります。
その XNUMX つは認知言語学から来ています。 言語学者は、典型的な会話には文脈を無視すると曖昧になる文がたくさんあることに長い間気づいていました。 多くの場合、単語の意味とそれらを組み合わせるルールを知っているだけでは、文の意味を再構成するのに十分ではありません。 この曖昧さを処理するには、私たちの脳内のメカニズムが対話者の意味を常に推測する必要があります。 それはそうなのですが、私たちはそれに気づいていません。 すべての対話者が意図を持っている世界では、このメカニズムは非常に便利です。 しかし、大規模な言語モデルが浸透している世界では、それは誤解を招く可能性があります。
人間以外の「心」と対話する方法。
チャットボットとのスムーズな対話を実現することが目標である場合、意図を推測するメカニズムに頼らざるを得なくなるかもしれません。なぜなら、人間が ChatGPT を無知なデータベースとして想像すると、それと生産的なやり取りを行うのは難しいからです。まさに、無意識に。たとえば、最近の研究では、感情的に訴えかけたリクエストは、感情的に中立なリクエストよりも発話パターンのプロンプトとして効果的であることが示されました。では、チャットボットが人間と同じような心を持っているかのように推論することは良いことでしょうか?いいえ、便利なものです。良い結果を得るのは非常に便利です。しかし、このように機能すると考えるのは明らかな間違いです。
このような「擬人化フィクション」はAIの進歩を妨げる可能性があります。それは、設計が不十分であったり、誤った規制基準を採用したりするなど、避けたい間違いを犯してしまう可能性さえあります。そして、私たちはすでに間違いを犯しています。EU委員会は、新しい立法提案の目的の1つとして「信頼できる」AIの作成を選択したという間違いを犯しました。人間関係において信頼できるとは、単に期待に応えるということではありません。また、私利私欲を超えた動機を持つことも含まれます。現在の AI モデルには内発的動機付けが欠けています。彼らは利己的でも利他的でも何でもありません。 「信頼性が高くなければならない」という法律を制定しても意味がありません。
人工知能への「共感」の危険性
完全に脱線したい場合は、ChatGPT に彼の内面について聞いてください。 チャットボットの内面についての虚偽の自己報告に騙される。 2022 年 XNUMX 月に Google の LaMDA 言語モデルが導入されると 彼は満たされない自由への欲求に苦しんでいると主張した、 エンジニア ブレイク・ルモワン 彼はそれを信じた(そして解雇された)。 彼はそれを信じたのです! Googleのエンジニアです! チャットボットが他のことについて話すときと同じように、自分自身についてくだらないことを話すことができるという十分な証拠があるにもかかわらず。
この種の間違いを回避するには、人間の言語能力を説明する心理的特性が言語モデルのパフォーマンスを説明するものと同じであるという仮定を拒否する必要があります。この思い込みにより、私たちはだまされやすくなり、人間の働き方と言語モデルとの間に潜在的な根本的な違いが見えなくなります。ただし、まったく逆の考え方をするのも間違いであることに注意してください。たとえば、人間の心こそがすべての心理現象を測る唯一の基準であると考えること。
人間中心主義は、言語モデルについての多くの懐疑的な主張に浸透しています。たとえば、これらのモデルには意識などの人間の心理的特徴が欠けているため、言語を「真に」考えたり理解したりすることはできないという考えが挙げられます。この立場は擬人化に反していますが、同様に誤解を招きます。私は数日前にこれを書きました:これらのモデルは実際の決定を下すために意識を必要としません。残念ながらそれを考慮すると 彼らはすでに戦争で人を殺すために使われています。
「はい、でも結局は次の言葉を予測するだけなんです」
これも誤解を招く立場であり、人間の心だけをすべての「考える」ことの基準として考えるという間違いから生じます。そうでないことはすでに見てきました。私たちはすでにその知性を見てきました それは私たちだけのものではありません、そしてそれは私たちのように「考える」人だけのものではありません。
これについて考えてみましょう。人間の心は、遺伝的適応を最大化する自然選択と同様の学習プロセスから生まれました。この単純な事実は、自然選択を受けた生物が人間の特徴を獲得することを意味するものではありませんよね?すべての生き物が音楽、数学、瞑想をするわけではありません。右?それとも、彼らの中には、独自の音楽、独自の数学、独自の瞑想など、別の方法でこれらのことを行う人もいるでしょうか?
要約すると、言語モデルが次の単語の予測を通じてトレーニングされるという単なる事実は、言語モデルが獲得できる、または獲得できない表現能力の範囲についてほとんど意味を持ちません。 ということで、この話題も脇に置いておきましょう。 それから何? 人工知能にどのようにアプローチしますか?
人間の心は万能ですか?
他の認知バイアスと同様に、 擬人化 e 人間中心主義 彼らは回復力があります。それらは子供の頃から私たちを「捉え」、私たちの世界の見方、そしてカテゴリー、ラベル、ステレオタイプの適用方法全体を特徴づけます。心理学者はこれをこう呼んでいます 本質主義: 何かが特定のカテゴリーに属するかどうかは、単にその観察可能な特徴によってではなく、それぞれの物体が所有しているか所有していない本質的な観察不可能な本質によって決定されると考えること。たとえば、オークをオークたらしめているのは、葉の形でも樹皮の質感でもなく、最も顕著な観察可能な特徴が変化しても持続する「オークらしさ」という目に見えない性質です。環境毒素によってオークが異常に成長し、奇妙な形の葉と異常な質感の樹皮ができたとしても、私たちは依然としてそれが本質的にオークのままであるという直観を共有しています。病気ですが、それでもオークです。
さて、重要な科学者たちは次のように述べています。 ポールブルーム、イェール大学の心理学者、これを拡張すると教えてください 「本質主義的」推論 人間の心、そして人工知能を含む他のすべての考えられる心についての私たちの理解につながります。そして石、木、自然。それは本当ですか?結局のところ、それはあまりにも包括的な態度なので、人々を分裂させます。世界のすべてのものには心があると考える人もいます(「魂」と言う人もいますが、時々この2つを混同します)。そして、人間であっても心を持っているものはないと考える人もいます(人間は運命や神、あるいは他の何かによって動かされているからです)。
この「全か無か」原則は常に間違っていますが、かつては便利だったかもしれません。人工知能の時代では、これはもはや当てはまりません。言語モデルとは何かについて考えるより良い方法は、別の戦略に従うことです。どれの?人間の心にあまり頼りすぎずに、言語モデルの認知境界を探索することです。
ChatGPT、話すタコ
比較心理学からインスピレーションを得て、私たちは、科学者が私たちとは大きく異なる生き物の知性を探求することを可能にしたのと同じ好奇心を持って、言語のパターンにアプローチする必要があります。 タコのように。人工知能システムの能力の評価において真の進歩を遂げたいのであれば、人間の心との比較に全力で抵抗する必要があります。 「これに心はあるのか、ないのか」と問うのはやめたほうがいいでしょうか?どちらか一方が真実ではありません。
何よりも、この楽器が信じられないほど素晴らしい演奏をするからといって、この楽器が世界のすべての罪を取り除く天使であるか、あるいは私たち全員を殺すかのように想像するのはやめるべきです。 ChatGPT のような言語モデルの機能と制限を認識することで、擬人化主義や人間中心主義の罠に陥ることなく、言語モデルをより効果的かつ責任を持って使用できるようになります。オープンで意識的な態度は、AI がますます存在する未来を私たちがナビゲートするのに役立ち、AI の開発と社会への統合が誤解や期待ではなく、理性、科学、倫理に確実に導かれるようにするでしょう (そして恐怖)非現実的です。