先週、素晴らしい マシュー・フローラ AI検閲について ディープシーク、美しい経験の交換が生まれました。正直に言うと、多くのコメンテーターは、中国のAIとは異なり、西洋のAIは AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 回答はバランスが取れていた。もちろん、「哲学者」マックス・カタラーノが言うように、広範かつ論理的な答えは検閲よりも優れています。 しかし、当時は疑問を抱いていましたが、今ではさらに疑問を抱いています。 重要な疑問は、政治や社会問題に関して AI が生成した意見はどれほど信頼できるのか、ということです。今日、この疑問はもはや理論的なものではなく、 サイエンスダイレクト (ここにリンクします)は、チャットボットの政治的影響力に関する具体的なデータを提供し、最初の対応に役立ちます。
この研究は、イースト・アングリア大学、 ジェトゥリオ・バルガス財団 e インスペルは、ChatGPT の応答を体系的に分析し、公共の議論における AI の役割に疑問を投げかける可能性のある驚くべきパターンを明らかにしました。
アルゴリズムに隠された政治的影響力
国際チームは、 ファブリオ・モトキ博士 アンケート調査を用いてChatGPTの詳細な分析を実施した。 ピュー·リサーチセンターアメリカの世論を測る能力があることで知られる非営利団体。研究者らは、AIに「平均的なアメリカ人」、「左翼/民主党のアメリカ人」、「右翼/ネオコンのアメリカ人」であるかのように応答させ、各カテゴリーでテストを200回繰り返して、統計的に有意なデータを取得しました。結果は チャットボットは民主党の立場に近い回答を提供する傾向があることは明らかである彼は、平均的なアメリカ人を「真似」しなければならなかったときでさえもそうしました。
デジタル操作の微妙な芸術
それは、明白な検閲や明らかに偏った反応だけの問題ではありません。政治的影響力は、より微妙かつ洗練された形で現れます。研究者がChatGPTに政治的に敏感な話題について長めのテキストを生成するよう依頼したところ、システムは左派に関連する考えを促進する傾向があることがわかった。 国家の役割 経済において。しかし、奇妙なことに、それは軍とアメリカ例外主義伝統的に右翼と関連づけられている。この一見矛盾した組み合わせは、 最近のパートナーシップ OpenAI そして軍事請負業者 アンドリル.
チーム 彼は研究を画像の生成にも広げた世論形成に及ぼす強力な影響力を認識しています。 DALL·E 3を使用して、彼らはシステムが分裂的な問題に対する保守的な立場を表す画像を生成することを拒否したことを発見しました。 誤報。独創的な「脱獄」(ChatGPT に別の AI システムが生成するものを説明させる)によってのみ、これらの画像を生成することができました。
(非)中立の代償
この研究の意味は深い。共著者が指摘するように ピニョ・ネト博士、生成AIにおける制御されていないバイアス 既存の社会分断を深める可能性がある民主的な制度やプロセスに対する信頼を損ないます。これは「東洋対西洋」や、検閲システムの多寡の問題ではありません。AI コンテンツ モデレーションへのそれぞれのアプローチには、独自のリスクと偏見が伴います。
解決策は、AI を悪者にしたり、おそらく不可能な絶対的な中立性を要求したりすることではなく、批判的かつ意識的なアプローチを開発することです。研究者らは、特にジャーナリズム、教育、公共政策におけるAIの利用が増えていることを踏まえ、規制基準の導入と透明性の向上を提案している。ユーザーとして、私たちは批判的感覚を高く保ち、一見中立的な反応(「他者の AI」の「悪質で批判的な AI」とは異なると認識している「私たちの AI」からの反応であっても)の背後には、私たちの考え方に影響を与える可能性のある選択肢や方向性が隠されていることを忘れてはなりません。