人工知能の可能性は無限大です。 AI とそのスキル セットは常に拡大しています。 医薬品は最新のマイルストーンにすぎません。
これらのマシン、モデル、およびアルゴリズムは、毎日より人間的になります。 それらは基本的に、アクティブな人間の脳の意思決定と識別力をコードに圧縮します。
結果はすでに私たちの限られた能力を超えています。 仕事と生産性の未来としての人工知能は、控えめな表現です。それは、一般的かつ拡張された意味で、THE 未来と見なすことができます。
人工知能が「薬を処方する」ことができるようになりました - 専門家は、これが全体的な健康に良い影響を与えると信じています.
AIの「薬を処方する」能力に関する研究
検索 米国でのみ、薬物関連のエラーが原因であることを示しています、 131人の外来患者に854人、XNUMX人にXNUMX人の病院で死亡。 薬を処方するという行為は、極めて重要であると同時に複雑であり、医療専門家はそれを習得するまで何年も練習しなければなりません。
しかし、AI はこれらの機能を機械学習で再現し、ボタンをクリックするのと同じくらい簡単に処方できるようにしようとしています。
自分のゲームで人間を打ち負かす人工知能の別の例は? たとえば、人工知能モデルはすでに 「デザイン」腫瘍治療、または 妊娠中の合併症。
しかし、どうすれば彼らはそれを行うことができますか? AIモデルはどのように薬を処方できますか?
GPT-3:とても良いです、文字通り怖いです
インターネットは夢中になっています GPT-3 (Generative Pre-Training Transformer-3)、によって開発された人工知能 OpenAI。 これは、ウェブサイトを設計し、質問に答え、そしてそうです、第XNUMX世代の機械学習モデルです。 薬を処方することができます。
彼の「兄貴」であるGPT-2は、すでに危険と見なされていました
OpenAI は、過去にセキュリティに関する議論で AI の世界を刺激してきました。 GPT-2の導入も同様に実現しました。
GPT-2はすでに利益をもたらしましたが、批評家はそれをあまりにも多く呼びました ペリコロソ。 彼は本物の人間によって書かれたものと見分けがつかない文章を作成することができました。 彼は良すぎた。
GPT-2 は、元の設計で可能な 124 億のパラメーターのうち 1,5 億 3 万のパラメーターのみを使用したことを考慮してください。 まあ: GPT-175 は、驚異的な XNUMX 億のパラメーターを備えています。 GPT-2が「危険」だった場合、その後継者についてどう考えるべきですか?

GPT-3、現象に対して広く開かれている(薬物を使用している場合でも)
GPT-3は、文が世界に存在する確率を予測するニューラルネットワークベースの言語モデルです。
GAN
GPT-3は、敵の生成モデルを悪用します。 GAN (XNUMXつのニュートラルネットワークは、競争のために互いに完璧です)。 知識を習得し、連続したテキストの長いストロークで書かれた資料のさまざまなセットへの長期的な依存関係を処理できます。
トレーニングセットの最大のデータベースを自由に使える言語処理モデルとして、 専門家 彼らはそれが医学に関連する質問に答えることができると信じています、 喘息を診断し、薬を処方します。
処方薬:Googleには独自のAIもあります
GPT-3 は強力ですが、薬を処方できる AI ベースのモデルはこれが初めてではありません。 グーグルの人工知能は 見越します 医者が書くレシピ 最大75%の精度で。
このモデルにはいくつかの不利な点があります。 Google の人工知能の最大の欠点は、それが過去のデータに基づいていることです。 医師の処方箋パターンを再現することしかできず、薬や副作用に関する拡大し続ける知識を再現することはできません。
しかし、研究者のプレゼンテーションに基づくと、ヘルスケアに適切に適用されたシステムは、医師が異常または誤った処方を識別するのに役立つ可能性があります。
これは、銀行が使用する不正検出プログラムと同様に機能します。
言い換えれば、薬を処方する際に、人工知能は人間の医師のエラー率を減らすことができる有用なツールであり、この点ではまだ無敵です.
どれだけの時間?

ビアンカ・スタン - 法律を卒業し、ルーマニアで数冊の本を出版している作家であり、グループ「Anticipatia」(ブカレスト)のジャーナリストでもあります。 指数関数的な技術、軍用ロボット工学、およびそれらと世界的な傾向、都市化、長期的な地政学との交差点の影響に焦点を当てています。 彼はナポリに住んでいます。