グーグル ジェミニを紹介したばかりですが、 世界を驚かせたデモンストレーションにより、人工知能の新境地を開拓しました。 YouTubeに投稿されたビデオは、双子座が視覚的および言語的刺激を解釈して反応する並外れた能力を示しています。
一見単純なテストはすぐに、周囲の世界を理解し、対話するというこの AI の「ほぼ人間」の能力を示す驚くべきデモンストレーションに変わります。
Google Gemini: 人工知能の飛躍的進歩
Google Gemini の登場 (昨年 9 月に取り上げました) 一番最初のアナウンスで)は、人工知能の世界における転換点を示しています。さまざまな視覚的および言語的信号を解釈して応答するジェミニの能力は、これまでに私たちが見てきた AI テクノロジーを超えています。
これは単に視覚認識や自然言語理解における画期的な進歩ではありません。このデモンストレーションで確認できるのは、両方の機能が非常にシームレスに統合されており、AI が人間のコンテキストの真の理解に近づくことです。
Google Gemini のデモ: 未来への窓
まず第一に、見逃した人は必ず見てください。彼女が来た:
デモは、人間の参加者がジェミニに、自分が見ているものを説明するよう求めるところから始まります。 ポストイットを置き、その上に即興で線を引くという単純な行為は、双子座によって容易に解釈されます。 しかし、ジェミニの真の力が明らかになるのはテストの継続です。
絵がアヒルという認識可能な図形に進化すると、ジェミニはオブジェクトを正確に識別するだけでなく、周囲の環境についての詳細も提供し、視覚的なコンテキストを完全に理解していることを示します。
認識を超えて: インタラクションと翻訳
Google Gemini の知性は、単なる視覚的な解釈に限定されません。参加者がゲームの紹介や翻訳のリクエストをすると、Gemini は的確に対応します。 「アヒル」をさまざまな言語に翻訳し、簡単なゲームを理解して参加できるその能力は、以前は人間だけが独占できると思われていたレベルの対話性と多用途性を浮き彫りにします。
Google Geminiのようなテクノロジーの実用化は?えー。その限界を定義することは不可能です。外科から教育、家庭用アプリケーションからクリエイティブ産業まで、可能性は無限であるように思えます。 Gemini は、私たちがテクノロジーと対話する方法に革命をもたらし、マンマシン インターフェースをより直観的、自然かつ効率的なものにする可能性があります。
はい、でもいつから使えるようになるのでしょうか?
デモで見たものに心からの賞賛を送りましたが、誠実さには誠実さを感じましたが、これまでのところ、Google からの「恩恵」はほとんどなかったことも指摘しなければなりません。吟遊詩人、対峙の場に引きずり込まれる AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 OpenAIの クロード 『Anthropic』は過大な期待を持って提示されました。 「現場」の技術が競合他社に比べて劣っている(言語モデルに限る:Deepmindなど他のAI) 素晴らしい結果が来ています)。 そして、Google Gemini の正式な発売日がまだ決まっていないという事実は、多少のフラストレーションを生み出します。
もしかしたらそれは「現実には先進的すぎる」ように思えるかもしれないし、それを理解するのが待ちきれないからかもしれないが、デモンストレーションの時間は終わった。 Google Gemini のデモは、AI テクノロジーの現在の限界を克服すると約束しています。それでは、実際に動作する様子を見てみましょう。
これも時間を延ばすための単なる手段ではないかと思わないでください。
8年12月2023日編集: はい、どうぞ。故意にやってるわけでもないのに。多くのユーザーからの主張を受けて、Googleは、実際のGeminiデモは、テーブル上の描画やオブジェクトの変化にGeminiがリアルタイムで反応したり、それを予測したりするのではなく、「映画の静止画とテキストメッセージを使用して」作成されたことを認めた。これは、ビデオが信じさせるほど印象的ではなく、さらに悪いことに、実際の入力方法に関する声明が欠如しているため、Google の行動と同様に、Gemini の準備がかなり疑わしいものになっています。