人工知能(彼らが言うことは何でも)はまだ人類を飲み込んでおらず、気づいていません。 しかし、それは私たちの時代と私たちのルールの舵取りを徐々に取っています。
バーチャルアシスタントが私たちの家で私たちを盗聴します。 アルゴリズムは、私たちの情報の範囲、雇用される人員、そしてしばらくすると有罪判決を受ける犯罪者も決定します。 それらの使用の倫理的境界? ますます微妙で混乱しています。 危険なほど混乱しています。

プロジェクトXNUMX月のケース
それは、テクノロジーの「失敗」とそれらが生み出す可能性のあるディストピアのシナリオを調査する、チャーリー・ブルッカーの傑作シリーズであるブラックミラーのエピソードのように見えます。 エピソードだけでなく、特に2013年に放送されたエピソードもあります。シリーズのファンにとっては、「Come back to me」、「BeRightback」と呼ばれていました。 しかし、それはフィクションではなく、現実です。
数ヶ月前(ここでそれについて話しました)33歳の男性 ジョシュア・バルボー プロジェクトXNUMX月と呼ばれるサービスを使用して、亡くなったガールフレンドのジェシカとの会話をシミュレートできる会話型ロボット(チャットボット)を作成しました。
このチャットボットを通じて、バルボーは愛情のこもったテキストメッセージを人工の「ジェシカ」と交換しました。 記事の時点で、おそらくXNUMX月の暑さの共犯で、私は倫理的なレベルで十分に自分自身に疑問を呈していませんでした。
今日、私はこれらの事件を規制する規範がまだないので、自分自身に問いかけます。故人の会話型ロボットである「デッドボット」を開発することは倫理的に許容されるのか、それとも非難されるのでしょうか。
Deadbot:正しいか間違っているか
最初に一歩後退しましょう。 プロジェクトXNUMX月 によって作成されました ジェイソン・ローラー、ビデオゲーム開発者、を使用して GPT-3、OpenAIによって開発されたテキストを生成するための言語モデル。 また、性的、愛情、自傷行為、いじめの目的でのGPT-3の使用を明示的に禁止しているOpenAIガイドラインに違反しています。
ただし、Rohrerにとって、OpenAIは道徳的であり、Barbeauのような人々は「大人で同意している」のです。 プロジェクトXNUMX月 同社との完全な論争で、GPT-3を使用せずに動作し続けます。
ジレンマに戻りましょう:正しいか間違っているか? このサービスを利用した可能性のあるBarbeauやその他の人々は、倫理的に行動していますか?
(たぶん)残っている人の意志だけでは足りない…
ジェシカは実在の人物でした。彼女のボーイフレンドの意志は、彼女を模倣したロボットを作成するのに十分ですか? 彼らが死んだとしても、人々は他の人がやりたいことを何でもできる単なるものではありません。
死体の非難などの特定の犯罪があり、それは社会が死者の記憶を冒涜したり尊重しなかったりすることがどれほど間違っていると考えているかを私たちに理解させます。 誰かが死んだとき、彼ら全員が存在しなくなるわけではないので、私たちは彼らに対して道徳的な義務を負っています。 感情、記憶、例は残っており、それらを保護するのは正しいことです。
繰り返しますが、誰かの性格を複製するデッドボットを開発するには、大量の個人情報が必要です。 非常に機密性の高い特性を明らかにすることが示されているソーシャルネットワークデータを含みます。
彼らの同意なしに生者からのデータを使用することが非倫理的である場合、なぜ死者と一緒に使用することが倫理的である必要がありますか? これには、「模倣された」人、つまりジェシカの同意も必要になります。 しかし、それで十分でしょうか?
...死ぬ人の意志も
同意の限界は常に物議を醸す問題です。 例を挙げると、少し前に、「ローテンブルクの人食い人種」の事件がニュースの見出し(いわば)に取り上げられました。 終身刑を宣告された男は、犠牲者が食べられることに同意したにもかかわらず、その理由を想像することができます。
有罪判決は、身体的(自分の重要な臓器を売る)または抽象的(自分の権利を疎外する)に自分自身に害を及ぼす可能性のあるものに同意することは非倫理的であるという事実によって動機付けられました。
死者は生者と同じように傷つけられたり気分を害したりすることはできませんが、それは彼らが悪行に対して無防備であることや、これらの行為が倫理的であることを意味するものではありません。
死者は彼らの名誉、評判または尊厳に損害を与える可能性があり(例えば、死後の名誉毀損キャンペーン)、死者への軽蔑も彼らの家族に害を及ぼします。
要約すると、会話型ロボットの形で「食べられ」(比喩的に)そして「吐き出される」という人の同意でさえ十分ではあり得ませんでした。
では、どうなるのでしょうか。
「再建された」故人と話したい人の意志も、死後に「模倣」されたい人の意志も十分ではないかもしれないことを私たちは理解しました。 そのようなことをする倫理的な方法はありますか? もしそうなら、特に有害な影響の場合、デッドボットの結果に責任があるのは誰ですか?
ジェシカのデッドボットが、故人の記憶を矮小化する、または彼女のボーイフレンドの精神的健康を損なうような振る舞いをするように独立して「学習」していると想像してみてください。
Deadbot:誰のせいですか?
人工知能の専門家にとって、責任はシステムの設計と開発に関与する人々にあり、次に彼らと対話するすべてのエージェントの間にあります。 この場合、関係する対象はOpenAI、Jason Rohrer、JoshuaBarbeauです。 最初のOpenAIは、これらの目的でシステムを使用することを明示的に禁止しています。障害はほとんどありません。 XNUMX番目のJasonRohrerは、デッドボットを設計し、OpenAIガイドラインに違反してそれを行い、それから利益を得ました。 責任の大部分はあなたにあります。 XNUMX番目のJoshuaBarbeauは、デッドボットのドリフトに対して共同責任があると見なされます。 いずれにせよ、これを時々確立することは容易ではありません。
要約すると、デッドボットは倫理的でしょうか? 特定の条件下でのみ
関係するすべての対象者(デッドボットによって「模倣」された人、デッドボットを開発した人、およびデッドボットと対話する人)が明示的な同意を与え、許可された使用を可能な限り詳細に(そして制限して)、否定的な結果、それを行うことができます。
これらはXNUMXつの厳しい条件であり、これらのシステムを作成するプロセスを厳格にしますが、深刻な保証を提供します
そして、彼らは機械学習の分野で倫理がいかに重要であるかを確認しています:このテクノロジーは非常に迅速にそれ自体を課し、私たちの価値観と社会を混乱させるリスクがあるため、今すぐルールを開発する必要があります。