本物の犬の行動をヒントに開発されたAIを搭載したロボット犬が、人間の言葉と身振りを手がかりに探し物を約89%の確率で見つけることに成功した。
アメリカのブラウン大学の研究チームは、人間の視線や腕の向きから指し示す方向を読み取り、言葉の指示と組み合わせて判断するAIモデルを開発し、ロボット犬に組み込んだ。
これによりロボット犬でも、人間の曖昧な身ぶりを理解し、欲しい物を探して回収できるようになったのだ。
この研究成果は、2026年3月17日にスコットランドのエディンバラで開催される国際会議『International Conference on Human-Robot Interaction (HRI)[https://humanrobotinteraction.org/2026/]』にて発表される。
LEGS-POMDP: Language and Gesture-Guided Object Search in Partially Observable Environments
https://ivyyyy24381.github.io/LEGS/[https://ivyyyy24381.github.io/LEGS/]
ResearchGate プレプリント
https://www.researchgate.net/publication/401600606_LEGS-POMDP_Language_and_Gesture-Guided_Object_Search_in_Partially_Observable_Environments[https://www.researchgate.net/publication/401600606_LEGS-POMDP_Language_and_Gesture-Guided_Object_Search_in_Partially_Observable_Environments]
「あれ取って!」が理解できないロボットの問題
人間は日常生活の中で「あれ取って」「そのへんにあるやつ」といった曖昧な言い方をよく使う。
人同士なら問題なく通じるが、ロボットにとっては難しい指示である。部屋の中に似た物がいくつも置かれていた場合、どれを探せばいいのか判断できないからだ。
近年のロボットはカメラを使って物体を識別する能力を持っているが、現実の環境では物が重なっていたり、家具の陰に隠れていたりすることが多い。
そのためロボットは見えている情報だけでは判断できず、動けなくなったり、間違った物を選んでしまったりすることがある。
研究者たちは、この問題を解決するヒントを、とても身近で愛すべき動物から見つけ出した。そう、犬である。
人間の身振りを理解する犬の能力
犬は人間が指さした方向や視線を読み取り、示された場所を探す能力に優れている。人が部屋の隅を指さすと、犬はその方向にある物体を探しに行く。
言葉で細かく説明しなくても、体の動きから意味を理解できるのである。
アメリカ・ブラウン大学の研究チームは、犬が人間の身振りを理解する仕組みをAIで再現できれば、ロボットも同じように人の指示を理解できるようになると考えた。
「言葉の説明」と「身振り」を組み合わせて標的を絞り込む
研究チームが開発した新しいAIシステム「LEGS-POMDP」は、人の言葉と身振りの両方を同時に解析する。
まず、人間が「赤いカップ」と言えば、AIはその単語から物体の特徴を理解する。
そこで重要になるのが、犬も注目している人間の動作だ。
人は対象を示すとき、視線や肘(ひじ)、手首を一つの直線上にそろえる傾向がある。
AIはこの動きから、標的が存在する範囲を「確率の円錐(えんすい)」として算出する。
つまり、「言葉で物の特徴を絞り込み、身振りで場所を特定する」という2段階の処理を行うことで、曖昧な指示を正確なデータに変換することに成功したのだ。
自信がないときは「自分で動いて確認する」犬のような探索行動
現実の世界では、指示された物が隠れていて見えないこともある。そこで研究チームは「POMDP(部分観測マルコフ決定過程)」という数学的手法を導入した。
これは、情報が不十分な環境でも、最も合理的な行動を選ぶための計算方法である。
ロボット犬は、言葉と身振りの情報から「正解である確率」を計算し、もし自信が持てない場合には自ら移動して視点を変え、新しい情報を集める。
例えば、カップが箱の裏に隠れている可能性があれば、回り込んで覗き込むといった行動をとる。確信が得られるまで粘り強く情報を収集し、それから対象を選び取るというプロセスは、まさに本物の犬が探索を行う際の行動そのものである。
成功率89%を記録。人間とロボットが協力し合える未来へ
実験室で行われたテストの結果、このAIを搭載したロボット犬は、言葉と身振りの両方を手がかりにすることで、約89%の確率で正しい物体を見つけ出すことに成功した。
これは、言葉の指示だけ、あるいは画像認識だけに頼る従来の手法を大幅に上回る成績である。
研究を主導した同大学のアイビー・ヒー氏は、この技術が将来、家庭でのロボット助手や作業現場での支援に役立つと考えている。
この成果は、人間が特別なプログラムを学ばなくても、犬と接するように自然な会話と身振りでロボットと協力できる未来に向けた、大きな一歩となるだろう。
References: Brown[https://www.brown.edu/news/2026-03-13/robot-fetch] / Ivyyyy24381.github.io[https://ivyyyy24381.github.io/LEGS/]











