人工知能があれば、可能性は無限大です。 AIとそのスキルセットは絶えず拡大しています。 麻薬は最新のマイルストーンにすぎません。
これらのマシン、モデル、およびアルゴリズムは、毎日より人間的になります。 それらは基本的に、アクティブな人間の脳の意思決定と識別力をコードに圧縮します。
結果はすでに私たちの限られた能力を超えています。 仕事と生産性の未来としての人工知能は控えめな表現です。それは、一般的かつ拡張された意味で、未来と見なすことができます。
人工知能は「薬を処方する」ことができるようになりました。専門家は、これが全体的な健康にプラスの影響を与えると信じています。
AIが「薬を処方する」能力に関する研究
検索 米国でのみ、薬物関連のエラーが原因であることを示しています、 131人の外来患者に854人、XNUMX人にXNUMX人の病院で死亡。 薬を処方する行為は、それが不可欠であると同時に複雑であり、医療専門家はそれを習得する前に何年も練習しなければなりません。
ただし、AIは機械学習でこれらの機能を複製し、ボタンをクリックするのと同じくらい簡単に処方できるようにしようとしています。
自分のゲームで人間を打ち負かす人工知能の別の例は? たとえば、人工知能モデルはすでに 腫瘍治療の「設計」、または 妊娠中の合併症。
しかし、どうすれば彼らはそれを行うことができますか? AIモデルはどのように薬を処方できますか?
GPT-3:とても良いです、文字通り怖いです
インターネットは夢中になっています GPT-3 (Generative Pre-Training Transformer-3)、によって開発された人工知能 OpenAI。 これは、ウェブサイトを設計し、質問に答え、そしてそうです、第XNUMX世代の機械学習モデルです。 薬を処方することができます。
彼の「兄貴」GPT-2はすでに危険だと考えられていました
OpenAIは、過去にセキュリティの議論でAIの世界に火をつけました。 GPT-2の導入も同様に実現されました。
GPT-2はすでに利益をもたらしましたが、批評家はそれをあまりにも多く呼びました ペリコロソ。 彼は本物の人間によって書かれたものと見分けがつかない文章を作成することができました。 彼は良すぎた。
GPT-2は、元の設計で124億の可能なパラメータのうち1,5億3万のパラメータしか使用しなかったと考えてください。 ええと:GPT-175は驚異的なXNUMX億のパラメータを特徴とします。 GPT-2が「危険」だったとしたら、彼の後継者についてどう思いますか?
GPT-3、現象に対して広く開かれている(薬物を使用している場合でも)
GPT-3は、文が世界に存在する確率を予測するニューラルネットワークベースの言語モデルです。
GAN
GPT-3は、敵の生成モデルを悪用します。 GAN (XNUMXつのニュートラルネットワークは、競争のために互いに完璧です)。 知識を習得し、連続したテキストの長いストロークで書かれた資料のさまざまなセットへの長期的な依存関係を処理できます。
トレーニングセットの最大のデータベースを自由に使える言語処理モデルとして、 専門家 彼らはそれが医学に関連する質問に答えることができると信じています、 喘息を診断し、薬を処方します。
処方薬:Googleには独自のAIもあります
GPT-3は強力ですが、薬を処方できる最初のAIベースのモデルではありません。 グーグルの人工知能は 見越します 医者が書くレシピ 最大75%の精度で。
このモデルにはいくつかの不利な点があります。 グーグルの人工知能の最も重大な後退は、それが履歴データに根ざしていることです。 それは医者の処方パターンを複製することができるだけであり、薬と副作用についての彼らの絶えず拡大する知識を複製することはできません。
しかし、研究者のプレゼンテーションに基づいて、ヘルスケアに適切に適用されたシステムは、医師が異常または誤った処方を特定するのに役立つ可能性があります。
これは、銀行が使用する不正検出プログラムと同様に機能します。
言い換えれば、薬を処方する際に、人工知能は人間の医師のエラー率を減らすことができる有用なツールであり、それはこの点でまだ無敵です。
どれだけの時間?
ビアンカスタン- 法律を卒業し、ルーマニアで出版されたいくつかの本を執筆し、グループ "Anticipatia"(ブカレスト)のジャーナリスト。 それは、指数関数技術、軍用ロボット工学の影響と、世界的なトレンド、都市化、長期的な地政学とのそれらの交差点に焦点を当てています。 彼はナポリに住んでいます。