この投稿は、Linkedinニュースレター「Periscopio」の一部であり、毎週将来の将来の問題を調査し、LinkedInプラットフォームで事前に公開されています。 購読してプレビューしたい場合は、 ここですべてを見つけてください。
アルゴリズムはますます私たちの生活を支配し、私たちの選択を導き、私たちの日々を満たします。 アルゴリズムは「隠された」遍在するシステムであり、ほとんどの場合、私たちの一般的なデジタル現実を支配しています。
iTunesで音楽を聴いたり、YouTubeで動画を再生したり、Amazonで次の誕生日プレゼントを検索したり、Netflixでお気に入りの番組を視聴したり、Googleでニュースを検索したりするとき、これは利用可能なオプションを決定するアルゴリズムです。間接的に、あなたが最終的に消費するもの。
アルゴリズムは、現実のビジョンが正確な方向に落ちて終わる本当の「漏斗」を構築します。 Spotifyがキャッチーな曲を見つけたときは良いのですが、ソーシャルプラットフォームが無料の選挙の結果に影響を与えることができたときはひどいです。
これは大きな影響力であり、慎重に計画され、世界のごく少数のプレーヤー、つまり大手テクノロジー企業によって保持されています。
アルゴリズムはこのように機能する必要がありますか?
アルゴリズムを通じて私たちの目標を達成することには、やりがいのあることがあります。 それは、「その場で私たちを理解し」、私たちがいつも聞きたいことを私たちに伝えたり、アドバイスしたりする誰かが私たちの隣にいるようなものです。 これが人間がますます欲しがる理由です。 そして企業は彼らがより大きな利益を保証するのでそれらを採用します。 しかし、これは機能するだけですか? それはそうです?
質問はすでに出てきており、私たちはますます頻繁にそれを行い、このブログの読者でさえそれを恥ずかしがりません: 人工知能アルゴリズムの悪影響からどのように身を守ることができますか?
ソーシャルメディアの使用を制限したり、アカウントを削除したりすることもできます。 可能な限りオフラインにすることも、少なくとも月に数日はオフラインにすることもできます。 偽のニュースや嘘に惑わされないように、新聞で広範囲にわたる調査を行うことができます。 確かに、犠牲を払って私たちはできますが、できます。 しかし、なぜそれは私たちだけに依存しなければならないのですか?
なぜ私たちは自分たちですべてをしなければならないのですか?
テクノロジー企業自身がしなければならないこと、状況を改善するためにやらなければならないことがあるに違いありません。 全体像に疑問を投げかける必要があります。全体像は次のとおりです。アルゴリズムは、心理的な脆弱性を利用して時間と注意を占有するように本質的に設計されています。 点。 これはそれです、それは真実です。
そしてそれは深刻なことであり、特にソーシャルメディアでの絶え間ない喧嘩と小さな「好きな」満足の間で成長した新世代にとっては深刻なことです。 そして、ブラウジングを控えたり、異なる習慣を持ったり、その他の努力をしたりするためにお互いにアドバイスを与えることは、テクノロジー企業がますますアルゴリズムを悪用し続けることを受動的に受け入れることを意味します。
尋ねるべき本当の質問は別のものです。 問題は、なぜアルゴリズムが幸福ではなくエンゲージメントのために最適化されているのかということです。 そして、この状況を変えるには何が必要ですか?
幸福のアルゴリズムが欲しかった
適度な量の作業で、アルゴリズムを変更して、繊細な心理学を悪用するのではなく、防御して強化することができます。 アルゴリズムは、相互作用ではなく、幸福を改善するようにトレーニングする必要があります。
物事がどのように改善されるか想像してみてください。
明らかにビッグテックはそれについて考えさえしていません。 ソーシャルメディアの巨人の誕生を見た元Facebook社長のショーンパーカーは、 彼はずっと前に言った プラットフォームの主な目標は、ユーザーの時間と注意を最大限に活用する方法でした。
そうだよ知ってるでしょ。 目標は利益です。 そして、通貨は私たちの注意です。 結果は? バックグラウンドで。 彼らが何をしているのかを知っているか、あるいは彼らが限界点に達するまでブレーキなしで旅行しているかどうかにかかわらず、ハイテク企業は私たちに損害を与えており、彼らは責任があります。
AI倫理の重要性
もちろん、(明らかな)良いニュースがあるでしょう。AIの倫理とオープンソースの共同イニシアチブの出現は、これらの企業にいくらかの圧力をかけています。 彼らは現在、プラットフォームの改善への取り組みを示すためにできることを行っています。 グーグル、フェイスブック、マイクロソフトなどは多くの社会科学の専門家を雇ってきました-目標は? 彼らの技術を人間化する。
最初から障害に直面する明らかに困難な作業:私たちは皆覚えています ティムニットゲブル、人工知能の「人種差別」をドックに置くために2020年にGoogleからライセンスを受けた倫理専門家。 この種の一時解雇はそれだけではなく、最後でもありませんでした。 それは2021年に続きました マーガレット·ミッチェル、同じGoogle倫理チームから。
それでも、これらの専門家は、彼らが雇われたこと、つまりテクノロジーの潜在的なリスクを分析することを実行したことで解雇されています。 言い換えれば、会社の主要な計画に干渉しない限り、倫理の専門家を雇うことは問題ありません。
AIの倫理は、専門家が仕事をすることができない場合、つまり、彼らが働いている企業に力を与えることができない場合、持続不可能なビジネス慣行になります。
利益よりも人を優先する
過去XNUMX年間、これらの企業の評判と一般のイメージは、これらの選択のために劇的に減少しています。 そして、ますます多くの研究者が集まって、これらの巨人の経済的目標に従わずにテクノロジーの倫理に取り組み続けることを試みています。
そして多分それは最善です:彼らの問題が純粋に経済的であるならば、ハイテク企業は彼らの倫理チームに本当に耳を傾ける可能性は低いです。 倫理を導入しても利益が減らない場合は、そうでない場合は、これらのチームが機能しなくなるでしょう。
このため、ティムニット・ゲブル自身が 分散型人工知能研究所 (DAIR)とマーガレット・ミッチェルは、 ハグ顔 .
社内の倫理チームが実際の仕事をすることができない場合(そしてそれができない場合、私には明らかなようです)、解決策を外部に求める方がよいでしょう。
救世軍
前述のように、人工知能の分野ではますます多くの取り組みが見られますが、大手テクノロジー企業の外にあります。 「アルゴリズムドミノ」の運命を逆転させるために集合的かつ個別に取り組んでいる被験者がいます:前述のDAIRとHuggingFaceに加えて ビッグサイエンス, エレウテライ e モントリオールAI倫理研究所 、とりわけ。 イタリアには イタリア人工知能の倫理学会。
おそらく、真の政治的重みと力を持っている人々でさえ、私たちの未来を手にしている社会を監視する上で、より積極的な役割を果たす時が来たのでしょう。
人間を中心に構築されたアルゴリズム
この点で、ユネスコは 推奨事項のセット すべてのAIアルゴリズムが人間中心であることを保証します。
「これらの新しい技術が人類全体に利益をもたらすことを確実にするために、私たちは国際的および国内の規則と枠組みを作成しなければなりません」と文書は読みます。
「AIが人々にサービスを提供する時が来ました。その逆ではありません」
「人工知能はすでに私たちの生活に影響を与えています。 この分野には、すぐに対処する必要のあるいくつかの立法上のギャップがあります。 最初のステップは、どの値を保護する必要があり、規制をどのように尊重する必要があるかについて合意することです。 多くのフレームワークとガイドラインがありますが、それらは不均一に適用されており、真にグローバルなものはありません。 そして、人工知能はグローバルであるため、私たちもそうであるに違いありません」。
世界へのコミットメント
ユネスコ条約は、わずか7か月前の24年2021月XNUMX日に承認されました。これは、法務分野で活動する企業を超強力な技術で管理するための基本的な第一歩です。
中国はまた、アルゴリズムの力について人々に説明責任を負わせる前例のない規制への道を開いた。 1月XNUMX日、中国政府は、テクノロジー企業に対する意思決定力を人々に与えるための措置の中でもとりわけ、ユーザーがアルゴリズムの推奨を完全に無効にすることを許可する法律を発動しました。
人工知能の倫理が世界の規制機関の注目を集めているという事実は、それが個人および集団の幸福にとってどれほど重要であるかを明らかにしています。 私たちは、私たちを病気にする「病気の」アルゴリズムをウェルネスアルゴリズムに変換するための研究の始めにいますか?
わからない。 しかし、私たちは何としても試さなければなりません。