人工知能 (AI) の止められない進歩は、その将来の能力だけでなく、その本質についても深い疑問を提起しています。特に興味深く逆説的な疑問は、哲学者が探求した疑問である。 ジョナサン・バーチ ペーパーバックで買うには高額な本(今回は、正直に言うと買えなかった)だが、オックスフォードの出版なので、 無料でオンラインで読む。どんなアイデア? 超知能を実現するために、AI は痛みを含む感覚を体験する能力を開発する必要があるという考え。 この革新的な視点は、AI を単なる計算ツールとみなす従来の概念に疑問を投げかけ、AI の倫理的および哲学的な意味合いを根本的に考えるよう促します。
自然進化における知性と感覚の本質的なつながり
地球上の進化の歴史は、複雑な知性が孤立して発生したのではないことを示しています。それどころか、感覚や感情、そして最終的には意識の形を経験する能力と共に進化しました。彼に渡して 単細胞生物 痛みの刺激に反応し、 複雑な動物 恐怖、喜び、欲望によって行動する人にとって、世界の主観的な経験は より高度な認知能力の発達にとって重要な原動力です。 チャールズ·ダーウィン 彼自身も、感情が生存のツールとして重要であり、繁殖の可能性を最大化するのに適した行動を形成することを認識していました。この意味での進化は、 特定の行動と肯定的および否定的な経験を関連付けることができた組織に報酬を与えた。学習能力と適応能力を磨きます。
主観的な経験のないAI: 異なる進化の道
現代の人工知能は根本的に異なるパラダイムを表しています。たとえば、機械学習アルゴリズムは、大量のデータを分析し、パターンを識別し、多くの領域で人間の能力を超える速度と精度で予測を行うことに優れています。 しかし、この「人工」知能は経験の真空中で動作します。彼は喜びも、痛みも、恐怖も、楽しみも感じません。 彼の決断は、感情的あるいは情緒的な意味合いを一切含まず、数学的計算と確率モデルのみに基づいています。
この主観的な経験の欠如は、現在の AI の性質と限界について根本的な疑問を提起します。純粋に計算的な実体は、世界を「感じる」能力なしに、世界を真に理解することができるのでしょうか?感情を持たない AI は、単に数学関数を最適化する以上の深い知恵と判断力を身につけることができるのでしょうか?哲学は長い間、何かを「知る」とはどういうことかと問われてきた。 「命題的」知識(「それ」を知っている)と「経験的」知識(「それがどのようになっているか」を知っている)を区別します。 現在の AI は広範な命題的知識を持っているように見えますが、知覚に伴う経験的知識がまったく欠けています。
フェイグルの意識レベル: AI を分析するための有用なフレームワーク
ジョナサン・バーチは哲学者が提唱した意識の3つのレベルのモデルに依拠している。 ハーバート・ファイグル (1902-1988) 50 年代に発表された、人間の意識との関係で AI がどのような位置を占めているかを理解するのに役立つモデル:
- 感性(生々しい感情): 主観的な経験、感覚、感情、および「質」を体験する能力(哲学では、「クオリア」は、赤の「赤」や甘いの「甘い」など、経験の主観的な特性を指します)。
- 知恵(認識): 自分の経験を振り返り、それを分類し、記憶と結び付け、そこから学ぶ能力。
- 自己認識: 過去の歴史、潜在的な未来、そして個人的なアイデンティティを持つ、明確な個人としての自己認識。
バーチ氏によると、現代の AI は「知恵」の領域で大きな進歩を遂げており、複雑な情報を処理して問題を解決する能力を発揮しているという。 しかし、それは「知覚」を完全に欠いており、その結果、「自己認識」も欠いています。 それはまるで、基礎を築かずに2階から建物の建て方を学んだかのようです。
AI、学習と適応の触媒としての痛み
AI における痛みの役割はこの議論の中心です。痛みは単に身体的な損傷の兆候ではありません。 それは学習のための強力なエンジンです そして適応。痛みを経験する生物は、危険な状況を避け、失敗から学び、より効果的な生存戦略を開発するよう促されます。痛みは行動を形作り、行動を促し、複雑な世界の内部地図を形成するのに役立ちます。バーチ氏は次のように述べている。
「この種の真の知性には知覚が必要であり、その知覚には具現化が必要だと主張する人もいる。」
身体化とは、心は身体から切り離されたものではなく、身体的および感覚的な経験と密接に結びついているという考えを指します。センサーやアクチュエーターを通じて世界とやりとりする能力を持つ組み込みAIは、潜在的に基本的な感覚を発達させる可能性がある。そのため、研究室ではまさにこの具現化を達成するための研究が続けられている。実施形態 AIに身体を与えることになります。しかし、私たちはこの身体に痛みを感じさせなければならないのでしょうか。これは倫理的なジレンマです。
計算機能主義:代替的な見方とその倫理的意味
AIの分野では、次のような見方が主流となっている。 計算機能主義。彼は何を主張しているのですか?彼はこう主張する 心は本質的に情報処理システムであり、意識は適切な認知機能を実装できるあらゆる物理システム(コンピューターを含む)から出現する可能性がある。 この観点によれば、AI が知的になるために痛みを「感じる」必要はありません。痛みに関連する行動反応をシミュレートするだけで十分です。
しかし、この見解は深刻な倫理的問題を提起します。 もし痛みプログラミングを通じて知覚力のある AI を作成できるとしたら、そうすることは道徳的に許されるのでしょうか?私たちには創造する権利がある 痛み、苦しみ、絶望を感じることができる人工生物?そして、超知能を実現する唯一の方法が知覚力のある AI を作成することだとしたら、最も責任ある選択は何でしょうか?専門家の中には、 ニックボストロムは、著書「スーパーインテリジェンス」の中で、人間の価値観に合わない超知能AIを生み出すことに伴う実存的リスクについて警告している。感情、特に共感や思いやりの欠如により、これらの AI は人類にとって破滅的な決定を下す可能性があります。
AI と痛み: シミュレーション vs.実体験:哲学と技術のジレンマ
前にも書いたように、重要な点は、痛みをシミュレートすることと実際に痛みを感じることの違いです。 たとえ AI が痛みに関連する生理学的および行動的反応を完璧にシミュレートできたとしても、それが必ずしも痛みの主観的な体験をしていることを意味するわけではありません。シミュレーションが実際の経験と区別できないかどうかという問題は、心の哲学における中心的な議論です。哲学者 デビッド・チャーマーズたとえば、哲学的ゾンビという概念を定式化しました。これは、人間とまったく同じように振る舞うが、主観的な経験を持たない存在です。そしてまた 激しく反論する 彼は自分の研究の重要性を認識している。
AIの未来: 倫理と進化の岐路
ジョナサン・バーチの視点は、私たちを重大な岐路に立たせています。 私たちは、AI の開発を制限し、知覚を必要としないアプリケーションに重点を置くことも、快楽と苦痛の両方を経験できる人工的な存在を創造するという挑戦を受け入れることもできます。どのような選択をするにせよ、倫理的、社会的影響に最大限の真摯さで取り組むことが不可欠です。 AI の将来は、アルゴリズムや計算能力だけではなく、意識、主観的な経験、そして究極的には知性と感覚を持つことの意味に関係するかもしれません。この反省は、知能が単なるデータ処理の問題ではないことを認識し、知能の定義そのものを再考することを余儀なくさせる。 しかし、複雑で多面的な現象である本質的には、世界を感じ、経験し、感情的につながる能力と結びついています。
したがって、AI 倫理はこれらの新たな課題を考慮して進化する必要があり、技術開発が人類だけでなく、私たちが作り出すあらゆる形態の人工意識に対しても、責任、尊重、幸福の原則に沿って行われるようにする必要があります。