私たちは夢中になりました。 みんな。 人工知能 (AI) の普及が進み、新聞やメディアではパニックが蔓延しています。 そして、それは、たとえバランスのとれたものであっても、現象の分析に対する恐怖と攻撃的なコメントに終わります. この破滅的な気候の背後にあるものは何ですか?

大惨事:疫病のように
当初は、センセーショナルでしばしば根拠のない記事で悪名高いタブロイド紙でした。 今日、ニューヨーク・タイムズなどのさらに「深刻な」新聞が大惨事の波に乗り始め、この問題に関する議論をさらに煽っています。
AI の世界自体の著名な人物の中には、恐怖を利用して可視性と注目を集めて、これらの黙示録的なシナリオを広めるのに貢献した人もいます。

これらの間で、 サムアルトマン、OpenAI の CEO がその好例です。 彼の声明 彼らは、AI が人類に致命的な危険をもたらす可能性がある、暗く不吉な未来を描きました。 その時、彼は次の発言に反響した。 エリーザー・ユドコウスキー、別の超専門家は、娘が成人しないことを恐れています。実際、それ以前に、彼によると、AI それは私たち全員を殺す可能性があります.
ルディズムを活用してテクノロジーを促進する
疑問が生じます: なぜこれらの人々や組織は AI についてパニックに陥っているのでしょうか? それは本物の「慈善活動」ですか?
答えは簡単です。恐怖は売り物です。 たとえば、OpenAI 製品をめぐる恐怖の雰囲気を作り出すことは、同社のマーケティング戦略の不可欠な部分です。 彼らの製品が「人類の歴史の中で最も重要で最も恐ろしいもの」であると信じ込ませることは、一般の人々、投資家、潜在的な従業員の注目を集めています.

同様の小さなゲームで、2019 年に、ソーシャル メディアはより多くの酸素を保証しました。 英国の EU 離脱と 2016 年のトランプ大統領の当選をケンブリッジ アナリティカのせいにした誤った情報に対する継続的な恐怖は、実際に Facebook の販売メッセージを裏付けるものでした。 誰でも説得できる すべての?"
あなたの中で誰がこのパターンを把握しましたか? 正直に言ってください。
ビジネスの大惨事
それは、AI 企業や手ごわい「自由のチャンピオン」など、すべての人に利益をもたらします。 一方では、サム・アルトマンのような人物は終末論的なマーケティングを使用して実際の製品を宣伝しています。 その一方で、ますます多くの「保守的なヒーロー」が、AI 破局を主要な製品、キャリア、収入源にしています。
例? 「の司教たち」効果的な利他主義". 彼らは、AGI (Artificial General Intelligence) の架空の黙示録から私たちを救うことができる選ばれた少数であると主張しています. しかし、彼らはそれでお金を稼ぎます. そして、彼らは販売します.彼らの投稿は、最も怠惰な、同じパッパルデッレに落ちるマントラで. 同じキーワード:「ああ! トランスヒューマニズム! オーバートンの窓」. AI の真のリスクと真の機会についての現実的かつ健全な議論を妨げる混乱したアイデアはほとんどありません。

制御不能。 それは場違いです。
ヒステリックな AI 破局は、もう XNUMX つの主流製品になりました。 そして、多くの自称「目覚めている」人々は、自分たちが別の群れの一部であることを理解していません。 これらのメカニズムを認識し、集団ヒステリーに圧倒されないようにすることが重要です。
人工知能は確かに課題と懸念をもたらしますが、パニックに陥るのではなく、合理的かつ証拠に基づいたアプローチでそれらに対処することが不可欠です。
大惨事から文明化までの 5 つのステップ
AI に対する集団ヒステリーやパニックと闘うには、次のことが重要です。
- 一般の人々を教育する: AI とそのアプリケーションに関する正確でアクセスしやすい情報を広めることで、人々がこれらのテクノロジによってもたらされるリスクと機会をよりよく理解するのに役立ちます。 試みています。
- 専門家と一般市民の間の対話を促進する: 科学者、エンジニア、業界の専門家が一般の人々と関わり、AI に関する知識を共有する機会を作ることで、このトピックについての理解が深まり、不当な破局を減らすことができます。
- 責任あるメディア報道を奨励する: メディアは、AI に関する世論を形成する上で重要な役割を果たしています。 よりバランスの取れた事実に基づくメディア報道を奨励することは、大衆のヒステリーを減らし、AI 関連の問題に関するより合理的な議論を促進するのに役立ちます。
- 国際協力の促進: 態度が純粋に人騒ぎだと思っているキーボードの「賢い」人は、AI をめぐるパニックが軍縮ではなく、軍拡競争を煽ることができることを知っています。 代わりに、AI に関する国際協力を促進することで、これらの技術が責任を持って開発および規制され、世界的に共有される利益を確実に得ることができます。
- 明確で公正な規制の枠組みを構築する: 堅牢で明確に定義された規制の枠組みは、AI の誤用を防ぎ、これらのテクノロジが倫理的かつ責任を持って使用されるようにするのに役立ちます。 もちろん、ChatGPT でのイタリアのケースのように、これらのルールがカタストロフィズムやヒステリーによって決定されないことが重要です (誰も私たちの国をおしゃべりを超えてフォローしていないのは偶然ではありませんが、評価するのに適切な時間を費やしています)。 むしろ、AI のリスクと機会についての深く合理的な理解に基づく選択が必要です。 残りは、なんと、AI イベントを開催してお金を稼ぎたいマーケター向けです。 場合を言うと。

付録は実際の犠牲者に捧げられています
この長い記事の最後の部分を、本当に苦しんでいる人たちに捧げたいと思います。 精神的な怠惰から少し、態度から少し、自分のせいではない多くの過ちから。 このニュースに直面した人々は、大惨事を受け入れ、それを自慢に変え、ほとんど自由のための戦いに変えました.
彼らはタイトルを読み、キーワード(この場合は「人工知能」)を読むことで活性化され、パブロフの反応と私が話したマントラから始まるので、ソーシャルチャネルでそれらを認識します. 侮辱や脅迫で味付けされているのかもしれません。
私はあなたに話しかけます
大惨事の予言者、友人にならないでください。 恐怖を説教しないでください。 何よりも、「人工知能の悪からの救世主」のレベルで自分を傲慢に考えないでください (そしてトランスヒューマニズムの悪からの救世主です。私は知っています、それはそれとは何の関係もありませんが、彼らはパセリのようにすべてのものにそれを置きます)。
操作のリスクがあります。 かしこまりました。 あなたがからかったり非難したりする人、あなたの観点から「主流が言うことすべてを買う」人たちとまったく同じです。
メインストリームも恐怖で操る、それを知るべきだ。 代わりに、この技術のリスクと利点のバランスを取りながら、このトピックを一緒に深く掘り下げてみませんか?
大災害を放棄することは、起こり得る大惨事を回避するための最良の方法であり、おそらく唯一の方法です。 ああ、私はあなたに言った。