マデリンが看護実習を終えようとしていた頃、「学術的誠実性に関する懸念」という件名のメールが届いた。そこには、彼女が課題の作成に人工知能を使ったという(虚偽の)告発が書かれていた。彼女はそのようなことは何もしていなかったが、それは問題ではなかった。大学には別のAIが作成したレポートがあり、それで十分だった。6ヶ月後、彼女はまだ大学にいて、もしかしたらシステムが間違えたのかもしれない、と理由を説明していた。
一方、彼女の履歴書には「結果待ち」と記載されており、どの病院も彼女を受け入れてくれなかった。これは完璧な短絡だ。AIは うまく機能しない別の AI に基づいて、学生が AI を使用していると非難します。 そして、お金を払うのはアルゴリズムではなく、人間です。これは『ブラック・ミラー』でもなければ、私がでっち上げたものでもありません。本当に起こったことです。
6000件のケースのうち90%が間違い
L 'オーストラリアカトリック大学 2024年には盗作疑惑が約6.000件記録された。 このうち90%は人工知能が関係していた。 問題は?学生のかなりの数は何も悪いことをしていない。すべて虚偽の告発だ。大学が使用した検出器は Turnitin彼はただ、それらの文章は人間の手によるものとは思えないほど巧みに書かれていると判断しただけだった。理論的には賛辞だが、実際には非難である。
ACUの副学長タニア・ブロードリー氏はABCに対し、これらの数字は「大幅に誇張されている」と述べた。学業上の不正行為が増加していることを認めたものの、虚偽の告発を受けた学生の数についてはコメントを控えた。 調査の結果、紹介案件の4分の1がアーカイブされました。しかし、失われた数か月は回復されていません。
マドレーヌのケースは特異なものではない。 何百人もの学生が、完全な閲覧履歴、手書きのメモ、詳細な理由を提出しなければなりませんでした。 彼らがやらなかったことについて。ある救急医療学生はABCにこう語った。
「彼らは警察じゃない。閲覧履歴を要求する令状も持っていない。だが、再履修の危険にさらされている時は、彼らはやりたい放題だ。」
Turnitinは信頼性の低さを認めている
彼自身のウェブサイトでは、 Turnitin 警告する AI検出器は「学生に対する不利益な措置の唯一の根拠として使用されるべきではない」同社は、AIコンテンツが20%以上含まれる文書については、文書レベルの誤検出率が1%未満であることを認めた。 しかし、判決レベルでは、その割合は 4% に上昇します。 そして、テキストに人間の文章とAIが混在すると、 問題は増大します。
ある学生はABCにこう語った。「AIがAIを検出したようで、私のエッセイのほぼ全体が青くハイライトされました。84%はAIによって書かれたとされています。」 彼の文章は完全にオリジナルだった。しかし、アルゴリズムはそれを気にしなかった。
ヴァンダービルト大学はTurnitinのAI検出器を完全に無効にしました。 信頼性への懸念を理由に、早ければ2023年にも実施される予定だ。大学は、年間7万5000件の論文が提出され、偽陽性率は「わずか」1%と試算している。 約750人の学生が誤って告発されました。多すぎます。
問題は技術的なものだけではない
オーストラリアの大学は、2025年3月にシステムを廃止する1年以上前からこのシステムの問題について知っていた。 ABCが閲覧した内部文書 スタッフが認識していたことを示す「ツールの信頼性が限られている」と「AI支援編集と完全生成を区別できない」しかし、虚偽の告発は何ヶ月も続いた。
この現象はオーストラリアに限ったことではありません。 イタリアでは、いくつかの大学が高度な盗作防止ソフトウェアを導入している。パドヴァ大学は、より洗練された新しい盗作対策サーバーを導入しました。ヴェローナ大学は、人工的に生成されたテキストを識別できるソフトウェアを導入しました。そしてフェラーラ大学 彼は、一部の学生がChatGPTを使用していたことを発見した後、心理生物学の試験全体をキャンセルしました。 責任者を特定できないまま。
私が見逃したくない1つの詳細:1 スタンフォード大学の研究 AI検出器は英語を母国語としない人に対して偏見を持っていることが明らかになりました。アルゴリズムは、外国人学生が書いた文章を「AI生成」と判定する傾向が強いです。この問題は、被害に差別を加えています。
剽窃の虚偽告発:逆説的な状況
大学は人工知能を採用している。多くの 彼らはテクノロジー企業と提携している AIツールを教育に取り入れることを推奨し、学生も同じツールを使っていると非難します。このメッセージは紛らわしいものです。AIは未来なのに、使うと詐欺師扱いされる、と。
その間に、 イタリアの調査によると2023年に期末試験を受けた学生の75%が、試験対策にAIツールを利用したことを認めています。16歳から18歳の学生の18%が、通常の授業でAIを利用しています。AI技術は既に存在し、アクセスしやすく、学生たちは実際に利用しています。学生にAIを使わないことを期待するのは非現実的です。
今、何が起きた
前述の通り、「盗作防止」システムは廃止され、個人的な問題は徐々に(そしてあまりにもゆっくりと)隠蔽されてきました。例えばマデリンさんにとっては、もう手遅れです。彼女は6ヶ月を失い、就職の機会を失い、そしてシステムへの信頼も失いました。「どうしたらいいのか分かりませんでした。学校に戻るべきか?それとも諦めて病院の看護以外の仕事に就くべきか?」と彼女はABCに語りました。
この事例は、私たちが完全に理解していないシステムに判断を委ねると何が起こるかを示しています。 アルゴリズムは役に立つこともありますが、絶対確実というわけではありません。 そして、彼らが間違った判断を下した場合、その代償を払うのは国民だ。データの破損や計算ミスではなく、キャリアの破綻や無駄な歳月だ。 人工知能は特定の状況では人間よりも思いやりがあるように見えるかもしれないしかし、虚偽の告発をするとなると、人生を変えるような決断を彼女に任せるのがいかに危険であるかを示すだけだ。
いつものことだが、問題はAIそのものではない。一部の人々がAIに盲目的に信頼を置いていることにある。