国連の調査によると、Amazon Alexa、Apple Siri、Microsoft Cortana、Google Homeなどの音声アシスタントが性差別の強化と拡大に貢献しています。
不思議なタイトルのユネスコ研究:「できれば赤面する」 (これは Apple Siri が売春婦であるというほのめかしを受け取ったときに与える自己満足的な反応です)この種のソフトウェアは、たとえ虐待された場合でも、卑屈で従順な女性という固定観念を永続させると主張します。
「ほとんどの音声アシスタントが女性の声を持ち、女性が女性として知覚されるという事実は、女性が従順なヘルパーであるという誤ったメッセージを伝え、シンプルなボタンまたは「ねえ」でいつでも利用可能です。
「アシスタントは、与えられたコマンドに関して強制力を持ちません。 コミットメントを尊重し、彼らがされている口調や敵意に関係なく、要求を満たします。
音声アシスタントが特に心配と見なされる傾向 「そらす、見落とす、または和解する」 侮辱された場合、女性が虐待や嫌がらせを受けているという信念を強める。
「アップルやアマゾンのような企業は、主に男性のエンジニアリングチームで構成されており、AI システムを構築しています。 を変える 受動的かつ従順な方法でいちゃいちゃすることで虐待に対処する女性実体の音声アシスタント。」 レポートは続きます。
ユネスコの研究は、デジタルアシスタントは性差別的な侮辱を思いとどまらせるようにプログラムされるべきであることを示唆しています、 企業は女性の声をベースに装備するのをやめ、いずれの場合も、これらのデバイスに提供される人工知能のさまざまな兆候で女性の異なる表現を提供する必要があります。
デフォルトの女性の声を与えるという選択は、技術の巨人によって行われた市場調査の結果ですが、この研究は、ほとんどの人が異性ではなく女性の声を好むと主張してこれらの結論を否定しています。