人工知能 (彼らが何と言おうと) はまだ人類を飲み込んでおらず、認識もしていません。 しかし、それは徐々に私たちの時代と私たちのルールの舵取りを取っています。
仮想アシスタントは、自宅で私たちを盗み聞きします。 アルゴリズムは、私たちの情報範囲、雇用される人員、そして有罪判決を受ける犯罪者を決定します。 それらの使用の倫理的境界は? ますます微妙で混乱しています。 危うく混乱。

プロジェクトXNUMX月のケース
それは、技術の「失敗」と、それらが生み出すディストピアのシナリオを調査するチャーリー・ブルッカーの傑作シリーズであるブラック・ミラーのエピソードのように見えます. エピソードだけでなく、特に 2013 年に放送されたエピソードの XNUMX つです。 とはいえ、これはフィクションではなく、現実です。
数ヶ月前(ここでそれについて話しました)33歳の男性 ジョシュア・バルボー プロジェクトXNUMX月と呼ばれるサービスを使用して、亡くなったガールフレンドのジェシカとの会話をシミュレートできる会話型ロボット(チャットボット)を作成しました。
このチャットボットを通じて、Barbeau は人工の「Jessica」と愛情のこもったテキスト メッセージを交換しました。 この記事の時点では、おそらく XNUMX 月の猛暑に加担していたのか、倫理的なレベルで十分に自問自答していませんでした。
これらのケースを規制する規範がまだないため、今日、私は自問自答します。死んだ人の会話ロボットである「デッドボット」を開発することは、倫理的に許されるのか、それとも非難されるのか?
Deadbot:正しいか間違っているか
最初に一歩後退しましょう。 プロジェクトXNUMX月 によって作成されました ジェイソン・ローラー、ビデオゲーム開発者、を使用して GPT-3、OpenAI によって開発されたテキスト生成用の言語モデル。 また、性的、愛、自傷行為、またはいじめの目的で GPT-3 を使用することを明示的に禁止する Open AI ガイドラインに違反しています。
一方、Rohrer 氏は、OpenAI は道徳的であり、Barbeau のような人々は「大人であり、同意している」と述べています。 プロジェクトXNUMX月 は運用を続けていますが、GPT-3 を使用せずに、会社と完全な論争を繰り広げています。
ジレンマに戻りましょう:正しいか間違っているか? このサービスを利用した可能性のあるBarbeauやその他の人々は、倫理的に行動していますか?
(たぶん)残った者の意志が足りない…

ジェシカは実在の人物でした。彼女のボーイフレンドの意志は、彼女を模倣したロボットを作成するのに十分ですか? 彼らが死んだとしても、人々は他の人がやりたいことを何でもできる単なるものではありません。
死体の非難などの特定の犯罪があり、それは社会が死者の記憶を冒涜したり尊重しなかったりすることがどれほど間違っていると考えているかを私たちに理解させます。 誰かが死んだとき、彼ら全員が存在しなくなるわけではないので、私たちは彼らに対して道徳的な義務を負っています。 感情、記憶、例は残っており、それらを保護するのは正しいことです。
繰り返しますが、誰かの性格を複製するデッドボットを開発するには、大量の個人情報が必要です。 非常に機密性の高い特性を明らかにすることが示されているソーシャルネットワークデータを含みます。
生者のデータを同意なしに使用することが非倫理的である場合、死者のデータを使用することが倫理的である必要があるのはなぜですか? このためには、ジェシカである「模倣」者の同意も必要だったでしょう. しかし、それで十分でしょうか?
……死ぬ者の意志でもない

同意の制限は常に物議を醸す問題です。 例を挙げると、しばらく前に、「ローテンブルクの人食い人種」の事件が(いわば)ニュースの見出しになりました。 終身刑を宣告された男は、犠牲者が食べることに同意したにもかかわらず、その理由を想像することができます.
有罪判決は、身体的(自分の重要な臓器を売る)または抽象的(自分の権利を疎外する)に自分自身に害を及ぼす可能性のあるものに同意することは非倫理的であるという事実によって動機付けられました。
死者は生者と同じように傷つけられたり気分を害したりすることはできませんが、それは彼らが悪行に対して無防備であることや、これらの行為が倫理的であることを意味するものではありません。
死者は彼らの名誉、評判または尊厳に損害を与える可能性があり(例えば、死後の名誉毀損キャンペーン)、死者への軽蔑も彼らの家族に害を及ぼします。
要約すると、会話型ロボットの形で「食べられる」(比喩的に)「吐き出される」という人の同意でさえ十分ではありません。
では、どうなるのでしょうか。
故人と「再構築」したいという意思も、死後に「真似されたい」という意思も、十分ではないことを理解した。 そのようなことを行うための倫理的な方法はありますか? もしそうなら、特にダメージを与える効果の場合、誰がデッドボットの結果に責任を負うでしょうか?
ジェシカのデッドボットが、故人の記憶を矮小化したり、ボーイフレンドの精神的健康を害したりするような振る舞いを独自に「学習」していると想像してみてください。

Deadbot:誰のせいですか?
人工知能の専門家にとって、責任はシステムの設計と開発に関与する人々にあり、次に彼らと対話するすべてのエージェントの間にあります。 この場合、関係する対象はOpenAI、Jason Rohrer、JoshuaBarbeauです。 最初のOpenAIは、これらの目的でシステムを使用することを明示的に禁止しています。障害はほとんどありません。 XNUMX番目のJasonRohrerは、デッドボットを設計し、OpenAIガイドラインに違反してそれを行い、それから利益を得ました。 責任の大部分はあなたにあります。 XNUMX番目のJoshuaBarbeauは、デッドボットのドリフトに対して共同責任があると見なされます。 いずれにせよ、これを時々確立することは容易ではありません。
要約すると、デッドボットは倫理的でしょうか? 特定の条件下でのみ
関係するすべての対象者(デッドボットによって「模倣」された人、デッドボットを開発した人、およびデッドボットと対話する人)が明示的な同意を与え、許可された使用を可能な限り詳細に(そして制限して)、否定的な結果、それを行うことができます。
これらはXNUMXつの厳しい条件であり、これらのシステムを作成するプロセスを厳格にしますが、深刻な保証を提供します
そして、彼らは機械学習の分野で倫理がいかに重要であるかを確認しています:このテクノロジーは非常に迅速にそれ自体を課し、私たちの価値観と社会を混乱させるリスクがあるため、今すぐルールを開発する必要があります。