彼女は頭を回した。ゆっくりと、まるで自分がどこにいるのか把握しようとしているかのように。まぶたが閉じ、また開く。瞬き。そしてまた。彼女の目(正確にはカメラ)は画面外の何かを追っている。彼女の表情はまるで訝しげで、「私は何を見ているんだろう?」とでも言いたげだった。彼女は生きているように見える。しかし、そうではない。彼女は オリジンM1、の最新作 アヘッドフォーム中国のスタートアップ企業である同社は、ヒューマノイドロボットをより人間らしく、より硬直したものではなく、より人間らしくすることを目指しています。YouTubeに投稿されたロボットの顔の動画は、わずか数時間で話題となりました。人々はそれを何度も繰り返し視聴しています。興味深いと感じる人もいれば、不快に感じる人もいます。ほぼ全員が一つのことに同意しています。それは、今日から 私たちは少し近づいています ウエストワールド.
説得力のある顔のための25のエンジン
はっきり言います。Origin M1はおもちゃではありません。人間とロボットのインタラクションの研究のために設計されたシステムであり、顧客サービス、教育、医療への応用が期待されています。統合されたヘッド ブラシレスモーター25個ロボットの顔に真実味を与える微妙な動きを静かに生み出す小さな装置。 視線の移り変わり、まぶたの震え、まるで思案しているかのように小さく頷く頭.
彼らは生徒に統合されている RGBカメラ これにより、ロボットは周囲の環境を「見る」ことができる。マイクとスピーカーはリアルタイムの音声インタラクションを可能にする。 アヘッドフォーム2024年に杭州で設立された同社の目標は明確です。感情を表現し、周囲の環境を認識し、人間と自然に交流できるロボットを作ることです。礼儀正しくも寡黙な同僚のように、観察し、耳を傾け、反応します。
前の記事:エモとロボットの表情の科学
の創設者 アヘッドフォーム, ユハン・フーはすでに話題になっています。2024年には、 研究 科学ロボット工学 これは エモで開発された顔面ロボット コロンビア大学エモは人間の笑顔を予測できる 839ミリ秒前目の前の人の顔の微妙な変化を分析しながら、彼は同時に微笑み返す。これは遅延模倣ではなく、共表出だ。
研究によると、人間の感情を予測できるロボットは、よりスムーズで本物のやりとりを生み出すことが分かっています。たとえ機械であっても、理解されているという感覚は 体験の質を向上させる自分自身に問いかけるまで:本当に彼に微笑んでもらう必要があるのだろうか?
谷はもうそれほど深くない
アヘッドフォーム ロボットのいくつかのラインを開発しました。シリーズがあります エルフ尖った耳と精密な制御システムを備えた。 ランシリーズより人間らしく、経済的に設計されています。そして 玄インタラクティブな頭部と高度な表現力を備えた全身モデル。
同社は統合を目指している 人工知能システム 大規模な言語モデルのようなものをロボットの頭脳に直接組み込むのです。その結果、あなたが何を言っているかだけでなく、どのように言っているかも理解するロボットが誕生するでしょう。そして、適切な口調、適切な表現、適切なタイミングで、それに応じた返答をしてくれるでしょう。
Origin M1はまだ市販されていません。しかし、動画は拡散され、反応は増え続けており、疑問は未だに解決されていません。 ロボットがあなたの目を見て瞬きすると、あなたの認識はどのように変わりますか? 何もないかもしれない。あるいは、すべてかもしれない。機械が「存在する」ように見えることを、私たちがどれだけ受け入れられるかにかかっている。
その間 アヘッドフォーム 彼はシステムの改良を続けている。そして私たちは、好奇心なのか不快感なのかを自覚しようとしながら、それらのビデオを見続けている。おそらくその両方だろう。