どうやらアラジンは今より多くの選択肢を持っています。 冗談はさておき、話すことも飛ぶこともできませんが、このMITが開発した触覚センシングマットには、(科学的に)魔法のようなものがあります。
Il MITのコンピューター科学人工知能研究所(CSAIL) 彼は開発しました 歩いたり座ったりするときにとられるあらゆるタイプの位置を観察、評価、カタログ化できるインテリジェントカーペット。 スマートホーム、リモートヘルスケア、そしてビデオゲームの分野で非常に興味深い製品に向けた一歩。
私たちを助けるカーペット
私たちの日常の活動の多くは、地面との物理的な接触を伴います。 歩く、運動する、休む。 これらの統合された相互作用には、人々の動きをよりよく理解するのに役立つ豊富な情報が含まれています。
以前の研究では、単一のRGBカメラの使用を利用しました(古いMicrosoftKinect以降)、しかしそれだけではありません。 ウェアラブル全方位カメラも採用され、ウェブカメラも採用されました(プライバシーに関する避けられない懸念がすべてあります)。 このプロジェクトの違いは何ですか?
CSAILチームシステムで3Dポーズを推測するには、マットに足を踏み入れてアクションを実行するだけです。 チームが開発したニューラルネットワークは、触覚情報を使用するだけで、誰かが何をしているかを判断します。 彼女は座っていますか? 彼は歩いている? 彼女は横になっていますか?
明日彼は私たちに言うでしょう:あなたはヨガを良いですか悪いですか? 腰に問題がありますか? 寝ますか?
このモデルを利用して、シームレスな健康監視システムを実現することを想像してみてください。 たとえば、転倒を検出したり、運動リハビリテーションを監視および支援したりするため。
ルオ・イーユエ、研究の筆頭著者
低コストでスケーラブルなカーペットは、感圧フィルムと導電性の糸で作られました。 10平方メートルのカーペット(家具のカーペットの平均よりも大きいサイズ)をカバーするXNUMXを超えるセンサーが組み込まれています。
触覚感知マットはどのように機能しますか?
カーペット上の各センサーは、人の足、手足、胴体、カーペットが物理的に接触することで、人の圧力を電気信号に変換します。 このシステムは、ビデオや腕立て伏せをしている人の対応するヒートマップなど、同期された触覚データと視覚データで特別にトレーニングされています。
モデルは、視覚データから抽出されたポーズを取得し、触覚データを入力として使用し、最後に人間のポーズを3Dで表示します。
実際、カーペットは、XNUMXセンチメートル未満の許容誤差で人のポーズを予測することができました。 したがって、特定のアクションの分類については、システムでさえ97%の確率で正確でした。
コーチマット
前述のように、可能なアプリケーションのXNUMXつは、身体活動の監視にリンクされています。 マットが私たちの活動を認識し、私たちが行う繰り返しの数を数え(たとえば腕立て伏せの場合)、対応する消費カロリーも計算すると想像してみてください。
現在の制限? 明らかなもの:マット上の圧力分布の多くは下半身と胴体の動きによって引き起こされるため、この情報は現在、上半身のデータよりも正確です。
将来の改善? カーペットがXNUMX人でそれを行うことができる場合、これらのセンサーで覆われた表面全体を想像してみてください。 ディスコ全体が、動きの一貫性からすべてのゲストの明晰さの状態を検出することができます。 他の多くの人と同じように、唯一の制限は想像力です。