[go: up one dir, main page]

JP7338662B2 - Mobile object, control method and program - Google Patents

Mobile object, control method and program Download PDF

Info

Publication number
JP7338662B2
JP7338662B2 JP2021120290A JP2021120290A JP7338662B2 JP 7338662 B2 JP7338662 B2 JP 7338662B2 JP 2021120290 A JP2021120290 A JP 2021120290A JP 2021120290 A JP2021120290 A JP 2021120290A JP 7338662 B2 JP7338662 B2 JP 7338662B2
Authority
JP
Japan
Prior art keywords
robot
target
image
control unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021120290A
Other languages
Japanese (ja)
Other versions
JP2021166106A (en
Inventor
献太 河本
嘉昭 岩井
悟 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019232391A external-priority patent/JP6922969B2/en
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2021120290A priority Critical patent/JP7338662B2/en
Publication of JP2021166106A publication Critical patent/JP2021166106A/en
Priority to JP2023129859A priority patent/JP2023138731A/en
Application granted granted Critical
Publication of JP7338662B2 publication Critical patent/JP7338662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本開示は、移動体、制御方法、およびプログラムに関し、例えば、ユーザにより指定された範囲に基づいて自律型ロボットを動作させるようにした移動体、制御方法、およびプログラムに関する。 TECHNICAL FIELD The present disclosure relates to a mobile body, a control method, and a program, for example, a mobile body, a control method, and a program that operate an autonomous robot based on a range designated by a user.

例えば、周囲の状況や、ユーザからの大まかな指示に応じて、自律的に行動(動作)する自律型ロボットが一般的なものになりつつある。 For example, autonomous robots that autonomously act (operate) in response to surrounding conditions and rough instructions from users are becoming common.

この自律型ロボットでは、例えば、ユーザが、商品名などを指定せずに、ペットボトル入りのお茶を持ってくるように指示を与えた場合、その指示に応じて、ペットボトル入りのお茶を探して持ってくる動作を、自律的に実行する。 For example, if the user gives an instruction to bring tea in a plastic bottle without specifying a product name, this autonomous robot searches for tea in a plastic bottle according to the instruction. It autonomously executes the action brought by the robot.

すなわち、例えば、自律型ロボットは、複数の、ペットボトル入りのお茶を見つけた場合、自らの判断で、ユーザが所望するペットボトル入りのお茶を選択し、ユーザのところまで持ってくる。 That is, for example, when the autonomous robot finds a plurality of PET bottled teas, it selects the PET bottled tea desired by the user and brings it to the user.

なお、ユーザが、物品とその物品の移動先を指定したことに応じて、ロボットに物品を移動先に移動させる技術が存在する(例えば、特許文献1参照)。 Note that there is a technology that causes a robot to move an article to a destination in response to a user's designation of an article and the destination of the article (see, for example, Patent Document 1).

特開2004-268148号公報JP 2004-268148 A

ところで、例えば、自律型ロボットは、自律的に行動するため、ユーザが望む探索範囲を通り過ぎて、他の範囲を探索することが生じ得る。 By the way, for example, since an autonomous robot acts autonomously, it may happen that it passes through the search range desired by the user and searches another range.

そこで、例えば、ユーザが探索範囲を指定し、指定した探索範囲を、自律型ロボットに探索させるようにすることが望ましい。 Therefore, for example, it is desirable that the user specifies a search range and causes the autonomous robot to search the specified search range.

本開示は、このような状況に鑑みてなされたものであり、簡易な操作により、自律型ロボットによる範囲を指定できるようにするものである。 The present disclosure has been made in view of such a situation, and enables designation of a range by an autonomous robot by a simple operation.

本開示の一側面の移動体は、移動体の動きを制御可能に駆動する駆動部と、撮影画像を撮影し、画像データを生成する撮影部と、前記移動体の現在位置情報を、GPSに基づく対象位置に生成する位置情報生成部と、前記移動体の前記現在位置情報に基づいて前記移動体の計画された移動経路に沿った現在位置を示す地図と、前記画像データに基づいて前記撮影画像の中の2以上のターゲットとして認識された物体を示す認識状態を表す表示とを表示する指示装置に、前記現在位置情報と前記画像データとを送信する送信部と、前記撮影画像の中で前記ターゲットとして認識された物体を示す前記認識状態を表す表示に対してのユーザの選択操作を示すフィードバック情報を、前記指示装置から受信する受信部と、前記フィードバック情報に基づいて、前記移動体の動作を制御する制御部とを備える。 A moving body according to one aspect of the present disclosure includes a driving unit that drives the movement of the moving body so as to be controllable; a position information generating unit for generating a target position based on the map, a map showing the current position along the planned movement route of the moving body based on the current position information of the moving body, and the photographing based on the image data a transmission unit for transmitting the current position information and the image data to a pointing device that displays a recognition state display indicating objects recognized as two or more targets in the image; a receiving unit for receiving feedback information indicating a user's selection operation on the display representing the recognition state indicating the object recognized as the target from the pointing device; and a control unit for controlling the operation.

本開示においては、移動体の動きが制御可能に駆動され、撮影画像が撮影され、画像データが生成され、前記移動体の現在位置情報が、GPSに基づく対象位置に生成され、前記移動体の前記現在位置情報に基づいて前記移動体の計画された移動経路に沿った現在位置を示す地図と、前記画像データに基づいて前記撮影画像の中の2以上のターゲットとして認識された物体を示す認識状態を表す表示とを表示する指示装置に、前記現在位置情報と前記画像データとが送信され、前記撮影画像の中で前記ターゲットとして認識された物体を示す前記認識状態を表す表示に対してのユーザの選択操作を示すフィードバック情報が、前記指示装置から受信され、前記フィードバック情報に基づいて、前記移動体の動作が制御される。 In the present disclosure, the movement of a mobile body is controllably driven, a photographed image is captured, image data is generated, current position information of the mobile body is generated at a target position based on GPS, and A map indicating the current position along the planned movement route of the mobile object based on the current position information, and recognition indicating two or more objects recognized as targets in the captured image based on the image data. The current position information and the image data are transmitted to an instruction device that displays a display representing the state , and the display representing the recognition state showing the object recognized as the target in the captured image is displayed. Feedback information indicating a user's selection operation is received from the pointing device, and the operation of the moving body is controlled based on the feedback information.

本開示によれば、簡易な操作により、自律型ロボットによる範囲を指定することが可能となる。 According to the present disclosure, it is possible to specify the range of the autonomous robot by a simple operation.

本開示におけるロボット制御システムの構成例を示す図である。It is a figure which shows the structural example of the robot control system in this indication. 複数の項目が表示された表示画面の一例を示す図である。FIG. 10 is a diagram showing an example of a display screen displaying a plurality of items; ロボットが行う処理の概要を説明するための図である。FIG. 4 is a diagram for explaining an overview of processing performed by a robot; 物体の認識状態の一例を示す図である。It is a figure which shows an example of the recognition state of an object. 指示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an pointing device. ロボットからの情報に基づく表示が表示された表示画面の一例を示す第1の図である。FIG. 10 is a first diagram showing an example of a display screen on which a display based on information from a robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第2の図である。FIG. 10 is a second diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第3の図である。FIG. 13 is a third diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第4の図である。FIG. 14 is a fourth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第5の図である。FIG. 15 is a fifth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第6の図である。FIG. 10 is a sixth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第7の図である。FIG. 12 is a seventh diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第8の図である。FIG. 12 is an eighth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第9の図である。FIG. 12 is a ninth diagram showing an example of a display screen on which a display based on information from the robot is displayed; 物体のスコアの変化を矢印で表示する場合の一例を示す第1の図である。FIG. 10 is a first diagram showing an example of displaying changes in the score of an object with arrows; 物体のスコアの変化を矢印で表示する場合の一例を示す第2の図である。FIG. 11 is a second diagram showing an example of displaying changes in the score of an object with arrows; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第10の図である。FIG. 10 is a tenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; 指示装置が行う表示処理を説明するためのフローチャートである。4 is a flowchart for explaining display processing performed by the pointing device; ロボットの構成例を示すブロック図である。It is a block diagram which shows the structural example of a robot. 物体の認識状態の遷移の一例を示す状態遷移図である。FIG. 10 is a state transition diagram showing an example of transition of recognition states of an object; 物体の認識状態に応じて、ロボット認識情報を生成する生成方法を説明するための図である。FIG. 4 is a diagram for explaining a generation method for generating robot recognition information according to the recognition state of an object; ロボットが行うスコア計算処理を説明するためのフローチャートである。4 is a flowchart for explaining score calculation processing performed by a robot; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第11の図である。FIG. 11 is an eleventh diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第12の図である。FIG. 12 is a twelfth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第13の図である。FIG. 13 is a thirteenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第14の図である。FIG. 14 is a fourteenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第15の図である。FIG. 20 is a fifteenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第16の図である。FIG. 20 is a sixteenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第17の図である。FIG. 20 is a seventeenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第18の図である。FIG. 18 is an eighteenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ユーザによるフィードバック操作を説明するための図である。It is a figure for demonstrating feedback operation by a user. フィードバック操作に応じて、物体の認識状態が遷移する様子の一例を示す図である。FIG. 10 is a diagram showing an example of how the recognition state of an object transitions in accordance with a feedback operation; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第19の図である。FIG. 20 is a nineteenth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第20の図である。FIG. 20 is a twentieth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第21の図である。FIG. 21 is a twenty-first diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第22の図である。FIG. 22 is a twenty-second diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第23の図である。FIG. 23 is a twenty-third diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第24の図である。FIG. 24 is a twenty-fourth diagram showing an example of a display screen on which a display based on information from the robot is displayed; 指示装置が行うフィードバック処理を説明するためのフローチャートである。4 is a flowchart for explaining feedback processing performed by the pointing device; ロボットが行うスコア再計算処理を説明するためのフローチャートである。4 is a flowchart for explaining score recalculation processing performed by a robot; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第25の図である。FIG. 25 is a twenty-fifth diagram showing an example of a display screen on which a display based on information from the robot is displayed; ロボットからの情報に基づく表示が表示された表示画面の一例を示す第26の図である。FIG. 26 is a twenty-sixth diagram showing an example of a display screen on which a display based on information from the robot is displayed; 未検出とされた認識状態を、他の状態に遷移させる場合の一例を示す図である。FIG. 10 is a diagram showing an example of a case in which an undetected recognition state is transitioned to another state; 撮像画像を用いて、探索範囲又は物体を指定する場合の一例を示す図である。FIG. 10 is a diagram showing an example of designating a search range or an object using a captured image; 室内の空間図を用いて、探索範囲を指定する場合の一例を示す図である。FIG. 10 is a diagram showing an example of designating a search range using an indoor space map; ロボットから指示装置に送信される撮像画像のデータ量を少なくする場合の一例を示す図である。FIG. 10 is a diagram showing an example of reducing the amount of data of a captured image that is transmitted from the robot to the pointing device; 指示装置が行う領域指定処理を説明するためのフローチャートである。4 is a flowchart for explaining area designation processing performed by the pointing device; ロボットが行う探索処理を説明するためのフローチャートである。4 is a flowchart for explaining search processing performed by a robot; コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

以下、本開示における実施の形態(以下、本実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(ロボットの行動を予測するための情報を、指示装置の表示画面に表示する場合の一例)
2.第1の実施の形態の変形例
3.第2の実施の形態(指示装置を用いて、ユーザによるフィードバックをロボットに与える場合の一例)
4.第2の実施の形態の変形例
5.第3の実施の形態(指示装置を用いて、ロボットの探索範囲を指定する場合の一例)
An embodiment of the present disclosure (hereinafter referred to as the present embodiment) will be described below. The description will be given in the following order.
1. First Embodiment (Example of Displaying Information for Predicting Action of Robot on Display Screen of Instruction Device)
2. Modified example of the first embodiment 3. Second embodiment (an example of a case where a user gives feedback to a robot using a pointing device)
4. 5. Modified example of the second embodiment. Third embodiment (an example of designating a robot search range using a pointing device)

<1.第1の実施の形態>
[ロボット制御システムの構成例]
図1は、第1の実施の形態であるロボット制御システム1の構成例を示している。
<1. First Embodiment>
[Configuration example of robot control system]
FIG. 1 shows a configuration example of a robot control system 1 according to the first embodiment.

このロボット制御システム1は、表示画面21aを有する指示装置21、及び自律型のロボット22から構成される。 This robot control system 1 comprises a pointing device 21 having a display screen 21 a and an autonomous robot 22 .

指示装置21は、ユーザの操作に応じて、ロボット22に所望の行動(例えば、所定の物体をユーザのところまで持ってくるという行動)をとらせるための指示情報を生成し、無線通信等により、ロボット22に送信する。 The instruction device 21 generates instruction information for causing the robot 22 to take a desired action (for example, an action of bringing a predetermined object to the user) according to a user's operation, and transmits the instruction information through wireless communication or the like. , to the robot 22 .

すなわち、例えば、指示装置21は、図2に示されるように、ユーザにより選択可能な複数の項目「お茶」、「炭酸飲料」、「お菓子」、…を、表示画面21aに表示させる。 That is, for example, as shown in FIG. 2, the instruction device 21 causes the display screen 21a to display a plurality of items selectable by the user, such as "tea", "carbonated beverage", "sweets", and so on.

ユーザは、図2に示されるような表示画面21aを参照して、複数の項目の中から、ロボット22に持ってきて欲しい物体の項目を選択(指定)する。なお、表示画面21aには、項目として、例えば、ロボット22に持ってきて欲しい物体のカテゴリが表示される。 The user refers to the display screen 21a as shown in FIG. 2, and selects (specifies) the item of the object that the robot 22 wants to bring from among a plurality of items. The display screen 21a displays, for example, categories of objects that the robot 22 should bring as items.

これに対応して、指示装置21は、ユーザに選択された項目としてのカテゴリ(例えば、「お茶」等)に属する物体をターゲットとして、ユーザのところまで持ってこさせるための指示情報を生成し、無線通信等により、ロボット22に送信する。なお、指示情報には、ユーザに選択された項目としてのカテゴリを表すカテゴリ情報が含まれる。 In response to this, the instruction device 21 generates instruction information for bringing an object belonging to the category (for example, "tea" etc.) as the item selected by the user to the user as a target, It is transmitted to the robot 22 by wireless communication or the like. Note that the instruction information includes category information representing a category as an item selected by the user.

ロボット22は、指示装置21からの指示情報に基づいて、ユーザに選択された項目としてのカテゴリに属する物体をターゲットとして探す動作を、自律的に実行する。 Based on the instruction information from the instruction device 21, the robot 22 autonomously performs an operation of searching for an object belonging to the category selected by the user as a target.

なお、ロボット22に指示を与える方法は、指示装置21を用いた上述の方法に限定されず、その他、例えば、ロボット22が、音声認識によりユーザの音声を認識可能である場合には、ユーザが、ターゲット等を音声により指示することができる。 The method of giving instructions to the robot 22 is not limited to the above method using the instruction device 21. In addition, for example, if the robot 22 can recognize the user's voice by voice recognition, the user can , targets, etc. can be indicated by voice.

この場合、ロボット22は、ユーザからの指示を、音声として認識し、その認識結果に基づいて、ユーザに指示されたターゲットを探す動作を、自律的に実行することとなる。また、例えば、ロボット22が、ユーザのジェスチャやポスチャ等を認識可能である場合には、ユーザが、ジェスチャやポスチャ等により、ターゲット等を指示することができる。 In this case, the robot 22 recognizes the instruction from the user as voice, and autonomously executes the operation of searching for the target instructed by the user based on the recognition result. Also, for example, when the robot 22 can recognize a user's gesture, posture, or the like, the user can indicate a target or the like by the gesture, posture, or the like.

ロボット22は、周囲の状況や、ユーザからの大まかな指示(例えば、「お茶」持ってきて欲しいという大まかな指示)などに基づいて、自律的に各種の行動を行う2足歩行型のロボットである。 The robot 22 is a bipedal walking robot that autonomously performs various actions based on the surrounding conditions and rough instructions from the user (for example, a rough instruction to bring "tea"). be.

ロボット22は、外部からの刺激を感知するセンサとして、音を感知する「耳」に相当するマイクロホン、及び光を感知する「目」に相当するカメラ等が、それぞれ所定の位置に設けられている。なお、ロボット22の詳細は、図19を参照して後述する。 The robot 22 has microphones corresponding to "ears" that detect sound, cameras corresponding to "eyes" that detect light, etc., which are provided at predetermined positions as sensors for sensing external stimuli. . Details of the robot 22 will be described later with reference to FIG.

次に、図3は、ロボット22が行う処理の概要を示している。 Next, FIG. 3 shows an overview of the processing performed by the robot 22. As shown in FIG.

図3には、ロボット22の周囲を撮像して得られる周囲画像31、ロボット22によりターゲットであると認識されている物体を表す物体画像32、ロボット22によりターゲットではないと認識されている物体を表す物体画像33、ロボット22によりターゲットであるかもしれないと認識されている物体を表す物体画像34、ロボット22の撮像により得られた撮像画像の一部分を表す部分画像35が示されている。 FIG. 3 shows a surrounding image 31 obtained by imaging the surroundings of the robot 22, an object image 32 representing an object recognized as a target by the robot 22, and an object recognized as not being a target by the robot 22. A representative object image 33, an object image 34 representing an object recognized as a possible target by robot 22, and a partial image 35 representing a portion of the captured image obtained by imaging robot 22 are shown.

なお、ロボット22は、例えば、ユーザが居住する部屋36内を自律的に移動して、ターゲットを探索する。 Note that the robot 22, for example, moves autonomously in the room 36 where the user resides to search for the target.

ロボット22は、ターゲットの探索中に、内蔵するカメラの撮像により得られた周囲画像31や、部分画像35を、適宜、指示装置21に送信する。なお、周囲画像31や部分画像35は、ユーザが、指示装置21を用いて、ロボット22の探索範囲を指定する場合に用いられる。このことは、主に、図43乃至図47を参照して説明する。 The robot 22 appropriately transmits the peripheral image 31 and the partial image 35 captured by the built-in camera to the instruction device 21 during the search for the target. The surrounding image 31 and the partial image 35 are used when the user uses the pointing device 21 to specify the search range of the robot 22 . This will be described primarily with reference to FIGS. 43-47.

また、ロボット22は、部屋36内を移動して、内蔵するカメラにより、物体を撮像して得られる撮像画像に基づいて、その物体が、ターゲットである度合いを表すスコア、つまり、ロボット22の処理対象とされる度合いを表すスコアを計算する。なお、スコアの計算には、物体がターゲットであるか否かを識別するための識別器(を表す関数)が用いられる。 In addition, the robot 22 moves in the room 36, and based on the captured image obtained by capturing an image of the object with the built-in camera, the score representing the degree to which the object is a target, that is, the processing of the robot 22 Calculate a score that represents the degree of coverage. Note that a discriminator (a function representing) is used for discriminating whether an object is a target or not for calculating the score.

そして、ロボット22は、物体のスコアに基づいて、物体の認識状態を決定する。なお、以下では、ロボット22は、内蔵のカメラにより得られる画像を、スコアの計算に用いたり、指示装置21に送信するものとして説明する。 The robot 22 then determines the recognition state of the object based on the score of the object. In the following description, it is assumed that the robot 22 uses an image obtained by a built-in camera for score calculation or transmits the image to the pointing device 21 .

しかしながら、スコアの計算に用いる画像や、指示装置21に送信するための画像は、ロボット22に内蔵のカメラにより得られる画像に限定されず、例えば、部屋36の天井等に設置されたカメラにより得られる画像を採用することができる。この場合、部屋36の天井等に設置されたカメラは、撮像により得られる画像を、ロボット22に無線通信により送信するものとなる。 However, the images used for score calculation and the images to be transmitted to the instruction device 21 are not limited to images obtained by the camera built into the robot 22. For example, images obtained by a camera installed on the ceiling of the room 36, etc. Any image can be employed. In this case, the camera installed on the ceiling of the room 36 or the like transmits the captured image to the robot 22 by wireless communication.

次に、図4は、認識状態の一例を示している。 Next, FIG. 4 shows an example of recognition states.

図4Aは、ロボット22の認識状態が、「ターゲットである」及び「ターゲットではない」の2種類である場合を示している。 FIG. 4A shows a case where the recognition state of the robot 22 is of two types, "target" and "not target".

図4Bは、ロボット22の認識状態が、「ターゲットである」、「まだ分からない」、「ターゲットではない」の3種類である場合を示している。 FIG. 4B shows three types of recognition states of the robot 22: "target", "not sure yet", and "not target".

図4Cは、ロボット22の認識状態が、「ターゲットである」、「ターゲットかもしれない」、「まだ分からない」、及び「ターゲットではない」の4種類である場合を示している。 FIG. 4C shows four types of recognition states of the robot 22: "target", "maybe target", "not sure yet", and "not target".

なお、第1の実施の形態では、ロボット22は、図4Cに示されるように、4種類の認識状態のいずれかとして認識するものとする。 In the first embodiment, the robot 22 recognizes one of four recognition states as shown in FIG. 4C.

ロボット22は、例えば、物体のスコアが閾値th1以上である場合、その物体を、「ターゲットである」ものとして認識し、物体のスコアが閾値th1未満であり、閾値th2(<th1)以上である場合、「ターゲットかもしれない」と認識する。 For example, when the score of an object is equal to or greater than the threshold th1, the robot 22 recognizes the object as being a "target", and the score of the object is less than the threshold th1 and equal to or greater than the threshold th2 (<th1). If so, it recognizes that it may be a target.

また、ロボット22は、例えば、物体のスコアが閾値th2未満であり、閾値th3(<th2)以上である場合、その物体を、ターゲットであるか否か「まだ分からない」ものとして認識し、物体のスコアが閾値th3未満である場合、「ターゲットではない」ものとして認識する。 Further, for example, when the score of an object is less than the threshold th2 and equal to or greater than the threshold th3 (<th2), the robot 22 recognizes that the object is “not yet known” as to whether it is a target or not. is less than the threshold th3, it is recognized as "not a target".

ここで、閾値th1乃至th3は、予め決められてロボット22に保持されているものとする。なお、ロボット22は、物体の認識情報を決定するために、スコアと閾値とを比較するようにしているが、認識情報の決定方法は、これに限定されない。 Here, it is assumed that the thresholds th1 to th3 are determined in advance and held in the robot 22 . In addition, the robot 22 compares the score and the threshold value to determine the recognition information of the object, but the determination method of the recognition information is not limited to this.

図3に戻り、ロボット22は、例えば、物体「ABC お茶」のスコアが閾値th1以上であると判定した場合、指示装置21の表示画面21aに、物体「ABC お茶」が、「ターゲットである」ものと認識している旨を表示させる。 Returning to FIG. 3, for example, when the robot 22 determines that the score of the object "ABC tea" is equal to or greater than the threshold th1, the display screen 21a of the instruction device 21 indicates that the object "ABC tea" is "target". Display that it is recognized as a thing.

すなわち、例えば、指示装置21の表示画面21aには、図3に示されるように、物体「ABC お茶」を表す物体画像32が、例えば、太線の矩形で囲まれた状態で表示される。この太線の矩形は、ロボット22が、物体「ABC お茶」を「ターゲットである」と認識していることを表すものである。 That is, for example, on the display screen 21a of the instruction device 21, an object image 32 representing the object "ABC Tea" is displayed, for example, surrounded by a thick rectangle, as shown in FIG. This thick-line rectangle indicates that the robot 22 recognizes the object "ABC tea" as a "target".

また、例えば、ロボット22は、例えば、図3に示されるように、物体「犬型のロボット」のスコアが閾値th3未満であると判定した場合、指示装置21の表示画面21aに、物体「犬型のロボット」が、「ターゲットではない」ものと認識している旨を表示させる。 Further, for example, when the robot 22 determines that the score of the object “dog-shaped robot” is less than the threshold th3 as shown in FIG. The "type robot" displays that it recognizes that it is "not a target".

すなわち、例えば、指示装置21の表示画面21aには、図3に示されるように、物体「犬型のロボット」を表す物体画像33が、例えば、斜線が付加された状態で表示される。この斜線は、ロボット22が、物体「犬型のロボット」を「ターゲットでなない」ものと認識していることを表すものである。 That is, for example, on the display screen 21a of the instruction device 21, an object image 33 representing an object "dog-shaped robot" is displayed with diagonal lines added, for example, as shown in FIG. This diagonal line indicates that the robot 22 recognizes the object "dog-shaped robot" as "not a target".

さらに、例えば、ロボット22は、例えば、図3に示されるように、物体「オレンジジュース」のスコアが閾値th1未満であり、閾値th2以上であると判定した場合、指示装置21の表示画面21aに、物体「オレンジジュース」が、「ターゲットかもしれない」と認識している旨を表示させる。 Furthermore, for example, when the robot 22 determines that the score of the object “orange juice” is less than the threshold th1 and is equal to or greater than the threshold th2 as shown in FIG. , to display that the object "orange juice" is recognized as "may be a target".

すなわち、例えば、指示装置21の表示画面21aには、図3に示されるように、オレンジジュースと記載されたペットボトルを表す物体画像34が、例えば、細線の矩形で囲まれた状態で表示される。この細線の矩形は、ロボット22が、物体「オレンジジュース」を、「ターゲットかもしれない」と認識していることを表すものである。 That is, for example, on the display screen 21a of the instruction device 21, as shown in FIG. 3, an object image 34 representing a PET bottle labeled "Orange Juice" is displayed, for example, in a state surrounded by a thin-line rectangle. be. This thin-line rectangle indicates that the robot 22 recognizes the object "orange juice" as "a possible target."

また、例えば、ロボット22は、所定の物体のスコアが閾値th2未満であり、閾値th3以上であると判定した場合、指示装置21の表示画面21aに、所定の物体が、ターゲットであるか否か「まだ分からない」ものとして認識している旨を表示させる。 Further, for example, when the robot 22 determines that the score of the predetermined object is less than the threshold th2 and is equal to or greater than the threshold th3, the display screen 21a of the instruction device 21 displays whether or not the predetermined object is the target. The fact that it is recognized as "not yet known" is displayed.

すなわち、例えば、指示装置21の表示画面21aには、所定の物体を表す物体画像が、例えば、そのままの状態(矩形で囲まれたり、斜線が付加されない状態)で表示される。そのままの状態で物体画像が表示される場合、ロボット22が、所定の物体を、ターゲットであるか否か「まだ分からない」ものとして認識していることを表すものである。 That is, for example, an object image representing a predetermined object is displayed on the display screen 21a of the pointing device 21 as it is (not surrounded by a rectangle or hatched). When the object image is displayed as it is, it indicates that the robot 22 recognizes that the predetermined object is a target or not as “not yet known”.

このように、指示装置21の表示画面21aには、ロボット22が認識している情報を表示させるようにしているので、ユーザは、ロボット22の行動を容易に予測できるようになる。 Since information recognized by the robot 22 is displayed on the display screen 21a of the instruction device 21, the user can easily predict the behavior of the robot 22. FIG.

なお、表示方法は、これに限定されず、ユーザが、ロボット22の行動を、直感的に理解できるような表示方法であれば、どのような表示方法であってもよい。 The display method is not limited to this, and any display method may be used as long as the user can intuitively understand the behavior of the robot 22 .

また、ユーザは、表示画面21aを参照することにより、ターゲットとして好ましくない物体がターゲットとして認識されていると判断した場合、その物体はターゲットでない旨のフィードバック操作を、指示装置21に対して行うことができる。 Further, when the user determines that an object unfavorable as a target is recognized as a target by referring to the display screen 21a, the user performs a feedback operation to the instruction device 21 to the effect that the object is not a target. can be done.

この場合、ロボット22は、ユーザのフィードバック操作に応じて、物体のスコアを再計算し、再計算して得られたスコアに基づいて、自律的に行動する。なお、ユーザのフィードバック操作については、主に、図31乃至図42を参照して後述する。 In this case, the robot 22 recalculates the score of the object according to the user's feedback operation, and acts autonomously based on the recalculated score. Note that the user's feedback operation will be described later mainly with reference to FIGS. 31 to 42. FIG.

[指示装置21の構成例]
次に、図5は、指示装置21の構成例を示している。
[Configuration example of the pointing device 21]
Next, FIG. 5 shows a configuration example of the pointing device 21. As shown in FIG.

この指示装置21は、操作部41、制御部42、表示画面21aを有する表示部43、通信部44、及び記憶部45から構成される。 The instruction device 21 includes an operation section 41 , a control section 42 , a display section 43 having a display screen 21 a, a communication section 44 and a storage section 45 .

操作部41は、操作キーや操作ボタン等により構成され、例えば、ユーザが、ロボット22に指示を与える場合等に、ユーザにより操作される。操作部41は、ユーザに操作されたことに対応して、ユーザの操作に対応する操作信号を制御部42に供給する。 The operation unit 41 includes operation keys, operation buttons, and the like, and is operated by the user, for example, when the user gives an instruction to the robot 22 . The operation unit 41 supplies an operation signal corresponding to the user's operation to the control unit 42 in response to being operated by the user.

制御部42は、通信部44からのロボット認識情報に基づいて、物体画像を含むロボット認識画像を生成し、表示部43に供給して表示画面21aに表示させる。なお、ロボット認識情報には、表示画面21aの表示に必要な情報として、例えば、物体のスコア等が含まれる。また、表示画面21aの表示例は、図6乃至図17を参照して後述する。 Based on the robot recognition information from the communication unit 44, the control unit 42 generates a robot recognition image including an object image, supplies it to the display unit 43, and displays it on the display screen 21a. The robot recognition information includes, for example, the score of an object as information necessary for displaying on the display screen 21a. Display examples of the display screen 21a will be described later with reference to FIGS.

また、制御部42は、操作部41からの操作信号に応じて、指示情報や、フィードバック情報、指定範囲情報を生成し、通信部44に供給する。 In addition, the control unit 42 generates instruction information, feedback information, and specified range information according to an operation signal from the operation unit 41 and supplies the information to the communication unit 44 .

ここで、フィードバック情報とは、指示装置21において、ユーザのフィードバックの内容を表す情報をいう。 Here, the feedback information means information representing the content of the user's feedback in the pointing device 21 .

ユーザは、操作部41を用いて、例えば、ロボット22が「ターゲットである」と認識している物体が、ターゲットではない旨のフィードバック操作を行うことができる。このことは、図31乃至図42を参照して詳述する。 The user can, for example, use the operation unit 41 to perform a feedback operation indicating that an object that the robot 22 recognizes as "a target" is not a target. This will be explained in detail with reference to FIGS. 31-42.

また、指定範囲情報とは、例えば、指示装置21の表示画面21aに表示された周囲画像31や部分画像35上の全領域のうち、ユーザの領域指定操作により指定された領域の位置を表す。 The specified range information represents, for example, the position of the area specified by the user's area specifying operation, out of all the areas on the surrounding image 31 and the partial image 35 displayed on the display screen 21a of the pointing device 21. FIG.

ユーザは、操作部41を用いて、例えば、周囲画像31や部分画像35上の全領域のうち、ロボット22がターゲットを探索する探索範囲を指定する領域指定操作を行うことができる。このことは、図43乃至図47を参照して詳述する。 The user can use the operation unit 41 to perform an area designation operation for designating a search range in which the robot 22 searches for a target, for example, among all areas on the surrounding image 31 and the partial image 35 . This will be explained in detail with reference to FIGS. 43-47.

制御部42は、通信部44からのロボット認識情報を、記憶部45に供給して記憶させる。 The control unit 42 supplies the robot recognition information from the communication unit 44 to the storage unit 45 for storage.

表示部43は、制御部42からの制御にしたがって、表示画面21aに画像を表示する。 The display unit 43 displays an image on the display screen 21a under the control of the control unit 42. FIG.

なお、指示装置21では、表示部43を含めるように構成しているが、その他、例えば、表示部43を指示装置21に含めないように構成することができる。この場合、制御部42と、外部に設けられた表示部43とは、ケーブル等で接続されるものとなる。 Although the instruction device 21 is configured to include the display unit 43 , it may be configured not to include the display unit 43 in the instruction device 21 , for example. In this case, the control unit 42 and the display unit 43 provided outside are connected by a cable or the like.

通信部44は、ロボット22から送信されるロボット認識情報を受信し、制御部42に供給する。また、通信部44は、制御部42からの指示情報や、フィードバック情報、指定範囲情報を、無線通信等を用いてロボット22に送信する。 The communication unit 44 receives robot recognition information transmitted from the robot 22 and supplies it to the control unit 42 . The communication unit 44 also transmits instruction information, feedback information, and specified range information from the control unit 42 to the robot 22 using wireless communication or the like.

記憶部45は、例えば、制御部42により実行される制御用プログラム等を予め記憶している。また、例えば、記憶部45は、制御部42からのロボット認識情報を記憶する。 The storage unit 45 stores in advance, for example, control programs and the like executed by the control unit 42 . Also, for example, the storage unit 45 stores robot recognition information from the control unit 42 .

[表示画面21aの表示例]
次に、図6乃至図14は、指示装置21が、ロボット22からのロボット認識情報に基づいて、ロボット認識画像を表示した場合の表示画面21aの一例を示している。
[Display example of display screen 21a]
Next, FIGS. 6 to 14 show an example of the display screen 21a when the pointing device 21 displays the robot recognition image based on the robot recognition information from the robot 22. FIG.

ロボット22は、指示装置21からの指示情報に基づいて、物体「お茶」を持ってくるように指示された場合、物体「お茶」を探しに出かける。 When the robot 22 is instructed to bring the object "tea" based on the instruction information from the instruction device 21, the robot 22 goes out to look for the object "tea".

ロボット22は、室内を探索しているが、まだ物体を検知していないため、指示装置21には、ロボット22からロボット認識情報が何も送信されない。 Although the robot 22 is searching the room, it has not yet detected an object, so no robot recognition information is transmitted from the robot 22 to the pointing device 21 .

したがって、制御部42は、図6に示されるように、例えば、何も写っていないロボット認識画像を、表示画面21aに表示させる。 Therefore, the control unit 42 causes the display screen 21a to display, for example, a blank robot recognition image, as shown in FIG.

ロボット22は、部屋36の室内を撮像して得られる撮像画像から、物体「鳥の置物」を検知した場合、その撮像画像から、物体「鳥の置物」を表す物体画像51を抽出し、ロボット認識情報に含めて、通信部44に送信する。 When the robot 22 detects the object "bird figurine" from the captured image obtained by imaging the inside of the room 36, the robot 22 extracts the object image 51 representing the object "bird figurine" from the captured image. It is included in the recognition information and transmitted to the communication unit 44 .

これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる物体画像51を、表示部43に供給して表示画面21aに表示させる。 In response, the communication unit 44 supplies robot recognition information from the robot 22 to the control unit 42 . The control unit 42 supplies the object image 51 included in the robot recognition information from the communication unit 44 to the display unit 43 to display it on the display screen 21a.

これにより、表示画面21aには、図7に示されるように、物体画像51が、図中左側に表示される。このため、ユーザは、ロボット22が、鳥の置物を物体として検知したことを容易に予測することができる。 As a result, an object image 51 is displayed on the left side of the drawing on the display screen 21a, as shown in FIG. Therefore, the user can easily predict that the robot 22 has detected the bird figurine as an object.

ロボット22は、物体「鳥の置物」がターゲットであるか否かを識別するために、物体「鳥の置物」に近づくように行動する。そして、ロボット22は、物体「鳥の置物」を近くで撮像して得られた撮像画像から、「鳥の置物」を表す物体画像51を抽出し、ロボット認識情報に含めて、通信部44に送信する。 The robot 22 acts to approach the object "bird figurine" in order to identify whether the object "bird figurine" is a target. Then, the robot 22 extracts the object image 51 representing the "bird figurine" from the captured image obtained by imaging the object "bird figurine" nearby, includes it in the robot recognition information, and sends it to the communication unit 44. Send.

これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる物体画像51を、表示部43に供給して表示画面21aに表示させる。 In response, the communication unit 44 supplies robot recognition information from the robot 22 to the control unit 42 . The control unit 42 supplies the object image 51 included in the robot recognition information from the communication unit 44 to the display unit 43 to display it on the display screen 21a.

これにより、表示画面21aには、図8に示されるように、図7の場合よりも大きな物体画像51が、図中左側に表示される。なお、ロボット22は、まだ物体「鳥の置物」のスコアを計算してないため、物体「鳥の置物」がターゲットであるか否か「まだ分からない」ものとして認識している。したがって、図8において、物体画像51は、そのままの状態(矩形で囲まれたり、斜線が付加されない状態)で表示される。 As a result, as shown in FIG. 8, an object image 51 larger than that in FIG. 7 is displayed on the left side of the drawing on the display screen 21a. Since the robot 22 has not calculated the score of the object "bird figurine" yet, it recognizes that it "does not yet know" whether the object "bird figurine" is the target. Therefore, in FIG. 8, the object image 51 is displayed as it is (not surrounded by a rectangle or hatched).

ロボット22は、物体「鳥の置物」を近くで撮像して得られる撮像画像から、物体「鳥の置物」のスコアを計算する。そして、ロボット22は、計算したスコアに基づいて、物体「鳥の置物」が「ターゲットではない」と認識した場合、「ターゲットではない」旨を表す認識状態(を表す情報)を含むロボット認識情報を、通信部44に送信する。 The robot 22 calculates the score of the object "bird figurine" from the captured image obtained by imaging the object "bird figurine" nearby. Then, when the robot 22 recognizes that the object "bird figurine" is "not a target" based on the calculated score, robot recognition information including (information representing) a recognition state indicating "not a target" is transmitted to the communication unit 44 .

これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる認識状態に基づいて、斜線が付加された物体画像51を生成し、表示部43に供給して表示画面21aに表示させる。 In response, the communication unit 44 supplies robot recognition information from the robot 22 to the control unit 42 . Based on the recognition state included in the robot recognition information from the communication section 44, the control section 42 generates the oblique line added object image 51, supplies it to the display section 43, and displays it on the display screen 21a.

これにより、表示画面21aには、図9に示されるように、斜線が付加された物体画像51が表示される。 As a result, an object image 51 with oblique lines is displayed on the display screen 21a, as shown in FIG.

なお、物体画像51に付加された斜線は、物体画像51上の物体「鳥の置物」が、「ターゲットではない」ものとして、ロボット22に認識されていることを表す。 The oblique lines added to the object image 51 indicate that the object "bird figurine" on the object image 51 is recognized by the robot 22 as "not a target".

このため、ユーザは、ロボット22が、物体画像51上の「鳥の置物」を「ターゲットではない」と認識していることを容易に予測することができる。 Therefore, the user can easily predict that the robot 22 recognizes the "bird figurine" on the object image 51 as "not the target".

ロボット22は、室内を撮像して得られる撮像画像から、物体「十八茶」を検知した場合、その撮像画像から、物体「十八茶」を表す物体画像52を抽出する。 When the robot 22 detects the object "eighteen tea" from the captured image obtained by imaging the room, the robot 22 extracts an object image 52 representing the object "eighteen tea" from the captured image.

ロボット22は、抽出した物体画像52を含むロボット認識情報を、通信部44に送信する。 The robot 22 transmits robot recognition information including the extracted object image 52 to the communication unit 44 .

これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に含まれる物体画像52を、表示部43に供給して表示画面21aに表示させる。 In response, the communication unit 44 supplies robot recognition information from the robot 22 to the control unit 42 . The control unit 42 supplies the object image 52 included in the robot recognition information from the communication unit 44 to the display unit 43 to display it on the display screen 21a.

これにより、表示画面21aには、図10に示されるように、図中左側に、ロボット22により検知された物体「十八茶」の物体画像52が表示される。このため、ユーザは、ロボット22が、物体「十八茶」を検知したことを、容易に予測することができる。 As a result, as shown in FIG. 10, the object image 52 of the object "eighteen tea" detected by the robot 22 is displayed on the display screen 21a on the left side of the figure. Therefore, the user can easily predict that the robot 22 has detected the object "eighteen tea".

また、ロボット22は、物体「十八茶」の近くで撮像して得られる撮像画像から、物体「十八茶」のスコアを計算する。そして、ロボット22は、計算したスコアに基づいて、物体「十八茶」が「ターゲットである」ものと認識した場合、物体「十八茶」が「ターゲットである」旨を表す認識状態を含むロボット認識情報を、通信部44に送信する。 Further, the robot 22 calculates the score of the object "18 tea" from the captured image obtained by imaging near the object "18 tea". Then, when the robot 22 recognizes that the object "eighteen tea" is a "target" based on the calculated score, the robot 22 includes a recognition state indicating that the object "eighteen tea" is a "target". The robot recognition information is transmitted to the communication unit 44 .

これに対して、通信部44は、ロボット22からのロボット認識情報を、制御部42に供給する。制御部42は、通信部44からのロボット認識情報に基づいて、矩形で囲まれるとともに、三角印で指し示された物体画像52、及び斜線が付加された物体画像51を生成し、表示部43に供給して表示画面21aに表示させる。 In response, the communication unit 44 supplies robot recognition information from the robot 22 to the control unit 42 . Based on the robot recognition information from the communication unit 44 , the control unit 42 generates an object image 52 surrounded by a rectangle and indicated by a triangular mark and an object image 51 with diagonal lines. , and displayed on the display screen 21a.

これにより、表示画面21aには、図11に示されるように、太線の矩形で囲まれ、三角印(図11に示される▲)で指し示された物体画像52が図中左側に表示され、斜線の付加された物体画像51が、物体画像52よりも右側に表示される。 As a result, as shown in FIG. 11, the display screen 21a displays an object image 52 surrounded by a thick-line rectangle and indicated by a triangular mark (▴ shown in FIG. 11) on the left side of the drawing. A hatched object image 51 is displayed to the right of the object image 52 .

なお、物体画像52を囲む太線の矩形は、物体画像52の物体「十八茶」が、「ターゲットである」ものとして、ロボット22に認識されていることを表す。また、物体画像52を指し示す三角印は、ロボット22が、物体画像52の物体「十八茶」を持って帰ろうと思っていることを表す。 The thick rectangle surrounding the object image 52 indicates that the robot 22 recognizes the object "eighteen tea" in the object image 52 as a "target". Also, the triangular mark pointing to the object image 52 indicates that the robot 22 intends to take the object “eighteen tea” of the object image 52 home.

さらに、いまの場合、制御部42は、物体のスコアが高い順序で、表示画面21aの左側から右方向に、その物体を表す物体画像を表示するようにしている。 Furthermore, in this case, the control unit 42 displays the object images representing the objects from the left side to the right side of the display screen 21a in order of the highest score of the objects.

また、物体画像の表示位置は、物体のスコアに応じた位置とされている。したがって、例えば、第1の物体画像と、第2の物体画像との表示間隔は、第1の物体画像と第2の物体画像それぞれの物体のスコアの差を表すものとなる。 Also, the display position of the object image is determined according to the score of the object. Therefore, for example, the display interval between the first object image and the second object image represents the difference in object score between the first object image and the second object image.

このため、ユーザは、物体画像が表示される、表示画面21a上の位置に応じて、物体画像が表す物体のスコアを直感的に把握することができる。 Therefore, the user can intuitively grasp the score of the object represented by the object image according to the position on the display screen 21a where the object image is displayed.

図11に示されるような表示画面21aからは、ロボット22が、物体「十八茶」を持ってくる動作を実行することを容易に予測することができる。 From the display screen 21a as shown in FIG. 11, it can be easily predicted that the robot 22 will carry out the action of bringing the object "eighteen tea".

また、ロボット22は、自律的に移動し、内蔵するカメラの撮像により得られる撮像画像から、新たな物体を検知した場合、上述した場合と同様にして、ロボット認識情報を生成し、通信部44に送信する。 In addition, when the robot 22 moves autonomously and detects a new object from the image captured by the built-in camera, it generates robot recognition information in the same manner as described above, and the communication unit 44 Send to

これに対して、制御部42は、通信部44からのロボット認識情報に基づいて、表示部43に供給して表示画面21aに表示させる。 On the other hand, based on the robot recognition information from the communication unit 44, the control unit 42 supplies the information to the display unit 43 and displays it on the display screen 21a.

このように、制御部42は、ロボット22から、通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aの表示を更新することとなる。 In this manner, the control unit 42 updates the display on the display screen 21 a based on the robot recognition information transmitted from the robot 22 via the communication unit 44 .

すなわち、例えば、表示画面21aは、その後、ロボット22の行動に応じて、図12に示されるように、物体「ABC お茶」を表す物体画像53が新たに表示されたものに更新される。また、表示画面21aは、ロボット22の行動に応じて、図13に示されるように、物体「C炭酸ジュース」を表す物体画像54、及び物体「USBメモリ」を表す物体画像55が新たに表示されたものに更新される。さらに、例えば、表示画面21aは、ロボット22の行動に応じて、図14に示されるように、スコアに応じて、各物体画像の位置が変更されたものに更新される。 That is, for example, the display screen 21a is then updated to display a new object image 53 representing the object "ABC Tea", as shown in FIG. 12, according to the action of the robot 22. Also, on the display screen 21a, an object image 54 representing the object "C carbonated juice" and an object image 55 representing the object "USB memory" are newly displayed according to the action of the robot 22, as shown in FIG. updated. Further, for example, the display screen 21a is updated with the position of each object image changed according to the score as shown in FIG. 14 according to the action of the robot 22.

なお、図14の表示画面21aでは、図13に示した表示画面21aで表示されている物体画像51が、表示されないものとなっている。 Note that the object image 51 displayed on the display screen 21a shown in FIG. 13 is not displayed on the display screen 21a shown in FIG.

図14においては、表示画面21aの左側に表示されるほどに、物体のスコアが高いものとなっており、物体画像を表示する位置によって、物体のスコアを表すようにしている。 In FIG. 14, the score of an object increases as it is displayed on the left side of the display screen 21a, and the score of the object is represented by the position where the object image is displayed.

このため、物体画像52乃至55を、対応する各物体のスコアに応じた位置で表示させる場合、表示画面21aや物体画像の大きさに起因して、物体画像51を表示できない。 Therefore, when the object images 52 to 55 are displayed at positions corresponding to the scores of the corresponding objects, the object image 51 cannot be displayed due to the size of the display screen 21a and the object images.

なお、図14において、物体画像51の物体「鳥の置物」のスコアは、物体画像55の物体「USBメモリ」のスコアよりも十分に小さいものとする。 In FIG. 14 , the score of the object “bird figurine” in the object image 51 is sufficiently lower than the score of the object “USB memory” in the object image 55 .

また、図14において、物体画像53の物体「ABC お茶」のスコアは、物体画像52の物体「十八茶」のスコアよりも小さいものとなっている。 In addition, in FIG. 14, the score of the object “ABC tea” in the object image 53 is lower than the score of the object “eighteen tea” in the object image 52 .

しかしながら、三角印は、物体画像53の物体「ABC お茶」を指し示しており、ロボット22は、物体「ABC お茶」を持って帰ろうとしている。これは、ロボット22が、物体のスコアのみならず、物体が存在する位置や、ユーザの好みを加味して、持って帰ろうとする物体を決定することによる。 However, the triangular mark points to the object "ABC tea" in the object image 53, and the robot 22 is about to take the object "ABC tea" home. This is because the robot 22 determines the object to be brought back by considering not only the score of the object but also the position where the object exists and the user's preference.

ところで、第1の実施の形態では、図6乃至図14に示したように、物体のスコアが高い順序で、表示画面21aの左側から右方向に並べて表示させるようにした。しかしながら、右方向の他、任意の方向(例えば、右側から左方向)に表示させることができる。 By the way, in the first embodiment, as shown in FIGS. 6 to 14, objects are arranged and displayed from left to right on the display screen 21a in descending order of score. However, it can be displayed in any direction other than the right direction (for example, from the right to the left).

また、例えば、第1の実施の形態では、図6乃至図14に示したように、物体のスコアが高い順序で任意の方向に並べて表示するとともに、物体のスコアに応じた位置に、物体画像を表示させるようにしている。 Further, for example, in the first embodiment, as shown in FIGS. 6 to 14, the object images are arranged in an arbitrary direction in descending order of the object scores, and the object images are displayed at positions corresponding to the object scores. is displayed.

しかしながら、表示画面21aには、スコアの順序のみを用いて、物体画像を表示するようにしてもよい。その他、例えば、表示画面21aには、スコアの順序を用いずに、物体のスコアに応じた位置で、物体画像を表示させることができる。 However, the object image may be displayed on the display screen 21a using only the order of scores. In addition, for example, object images can be displayed on the display screen 21a at positions according to the scores of the objects without using the order of the scores.

また、例えば、物体のスコアに応じて、物体画像の順序、位置、大きさ、明るさ(輝度等)、鮮明度、又は色の少なくとも1つを変更して表示するようにしてもよい。 Further, for example, at least one of the order, position, size, brightness (brightness, etc.), sharpness, and color of the object image may be changed and displayed according to the score of the object.

さらに、例えば、物体のスコアを、物体画像に対応付けて表示させるようにしてもよい。なお、スコアは、例えば、棒グラフや、円グラフで表示することができる。スコアの表示として、円グラフを用いる場合、現在、最もスコアが高い物体のスコアに対するパーセンテージを、円グラフとして表示するようにしてもよい。 Furthermore, for example, the score of the object may be displayed in association with the object image. Note that the score can be displayed, for example, as a bar graph or a pie chart. When a pie chart is used to display the score, the percentage of the score of the object with the highest score at present may be displayed as a pie chart.

また、例えば、表示画面21aにおいて、物体のスコアの変化を、矢印等で表示するようにしてもよい。 Further, for example, on the display screen 21a, the change in the score of the object may be displayed with an arrow or the like.

具体的には、例えば、図15に示されるように、物体画像54に対応する物体「C炭酸ジュース」のスコアが増加するように変化している場合、表示画面21aにおいて、物体画像54に対応付けて、物体「C炭酸ジュース」のスコアの増加を示す白色の矢印を表示する。 Specifically, for example, as shown in FIG. 15, when the score of the object “C carbonated juice” corresponding to the object image 54 is changed so as to increase, the score corresponding to the object image 54 is displayed on the display screen 21a. to display a white arrow indicating an increasing score for the object "C carbonated juice".

また、例えば、図15に示されるように、物体画像52に対応する物体「十八茶」のスコアが減少するように変化している場合、表示画面21aにおいて、物体画像52に対応付けて、物体「十八茶」のスコアの減少を示す黒色の矢印を表示する。 Further, for example, as shown in FIG. 15, when the score of the object "eighteen tea" corresponding to the object image 52 changes so as to decrease, on the display screen 21a, in association with the object image 52, Display a black arrow indicating the decrease in the score of the object "18 tea".

さらに、例えば、図15に示されるように、物体画像55に対応する物体「USBメモリ」のスコアが減少するように変化している場合、表示画面21aにおいて、物体画像55に対応付けて、物体「USBメモリ」のスコアの減少を示す黒色の矢印を表示する。 Furthermore, for example, as shown in FIG. 15, when the score of the object "USB memory" corresponding to the object image 55 changes so as to decrease, on the display screen 21a, in association with the object image 55, the object Shows a black arrow indicating the decrease of the score of "USB memory".

表示画面21aにおいて、図15に示されるような内容が表示される場合、ユーザは、ロボット22が、物体「十八茶」ではなく、物体「C炭酸ジュース」を間違えて持ってくることを予測できる。この場合、ロボット22が、物体「C炭酸ジュース」を間違えて持ってくる前に、ユーザは、例えば、物体「十八茶」を持ってくるように明確に指示を与えるようにすることができる。 When the content shown in FIG. 15 is displayed on the display screen 21a, the user predicts that the robot 22 will mistakenly bring the object "C carbonated juice" instead of the object "eighteen tea". can. In this case, before the robot 22 erroneously brings the object "C carbonated juice", the user can give a clear instruction to bring the object "eighteen tea", for example. .

また、表示画面21aにおいて、図16に示されるような内容が表示される場合、ロボット22が、ユーザの所望する物体「十八茶」を持ってくることを予測できる。この場合、ユーザは、ロボット22に指示を与えることなく、ロボット22が物体「十八茶」を持ってくるまで、仕事等に集中することができる。なお、図16は、図15と同様に構成されているため、図16の説明は省略する。 16 is displayed on the display screen 21a, it can be predicted that the robot 22 will bring the object "eighteen tea" desired by the user. In this case, the user can concentrate on the work or the like without giving instructions to the robot 22 until the robot 22 brings the object “eighteen tea”. Note that FIG. 16 is configured in the same manner as FIG. 15, so description of FIG. 16 is omitted.

さらに、例えば、表示画面21aにおいて、物体のスコアの変化を、矢印等に代えて、棒グラフや、折れ線グラフで表示させるようにしてもよい。その他、例えば、物体のスコアの変化とともに、又は物体のスコアの変化に代えて、スコアの履歴も表示してもよい。 Furthermore, for example, on the display screen 21a, the change in the score of the object may be displayed as a bar graph or a line graph instead of arrows or the like. In addition, for example, a score history may also be displayed along with changes in the score of the object, or instead of changes in the score of the object.

スコアの変化や履歴を表示する場合、ユーザは、表示画面21aを参照することにより、物体のスコアの変化や履歴を把握できるようになるので、スコアの順位の変動を容易に予測でき、ひいては、ロボット22の行動を先立って予測することができるようになる。 When displaying score changes and histories, the user can grasp changes in scores and histories of objects by referring to the display screen 21a. It becomes possible to predict the behavior of the robot 22 in advance.

なお、これらの表示は、制御部42が、記憶部45に記憶させたロボット認識情報を参照することにより実現される。 These displays are realized by referring to the robot recognition information stored in the storage unit 45 by the control unit 42 .

また、指示装置21において、スコアの順位の変動が生じたときには、音を鳴らしたり、振動したり、ランプを点滅させるようにして、その旨をユーザに通知することができる。 In addition, when the order of the score changes, the instruction device 21 can notify the user by making a sound, vibrating, or blinking a lamp.

ところで、第1の実施の形態では、図6乃至図14に示したように、ロボット22により、「ターゲットである」ものとして認識された物体の物体画像を、太線の矩形で囲み、「ターゲットかもしれない」と認識された物体の物体画像をそのままの状態で表示する。 By the way, in the first embodiment, as shown in FIGS. 6 to 14, an object image of an object recognized as a "target" by the robot 22 is surrounded by a thick-line rectangle, The object image of the object recognized as "not possible" is displayed as it is.

また、例えば、ロボット22により、ターゲットであるか否か「まだ分からない」と認識された物体の物体画像を、細線の矩形で囲み、「ターゲットではない」と認識された物体の物体画像を、斜線を付加した状態で表示するようにした。 Also, for example, an object image of an object recognized as being a target by the robot 22 or not is surrounded by a rectangle with a thin line, and an object image of an object recognized as being not a target is It is now displayed with a slanted line.

しかしながら、それぞれの認識状態を表す表示方法は、矩形や斜線等に限定されない。 However, the method of displaying each recognition state is not limited to rectangles, diagonal lines, or the like.

また、例えば、認識状態を表す表示方法と、物体のスコアを表す表示方法とを併用して用いる他、認識状態を表す表示方法と、物体のスコアを表す表示方法との一方のみを用いて、表示画面21aに表示するようにしてもよい。 Further, for example, in addition to using a display method representing the recognition state and a display method representing the score of the object in combination, using only one of the display method representing the recognition state and the display method representing the score of the object, It may be displayed on the display screen 21a.

次に、図17は、表示画面21a上の物体画像に対して、ユーザの選択操作が行われたことに対応して、選択された物体画像の詳細情報を表示する場合の一例を示している。 Next, FIG. 17 shows an example of displaying detailed information of the selected object image in response to the user's selection operation for the object image on the display screen 21a. .

図17に示される表示画面21aには、主に、物体「十八茶」(ペットボトル)の底部分を表す物体画像52a、及び物体「十八茶」の詳細情報として、物体「十八茶」をそれぞれ他の方向から撮像して得られた物体画像52b乃至52eが表示されている。 The display screen 21a shown in FIG. 17 mainly includes an object image 52a representing the bottom portion of the object "eighteen tea" (PET bottle), and the object "eighteen tea" as detailed information of the object "eighteen tea". ' from different directions are displayed.

ロボット22は、例えば、表示画面21aに表示される物体画像として、物体を撮像して得られる最新の撮像画像から、物体画像を抽出し、ロボット認識情報に含めて、指示装置21に送信するようにしている。 For example, the robot 22 extracts an object image as an object image displayed on the display screen 21 a from the latest captured image obtained by imaging the object, includes it in the robot recognition information, and transmits the object image to the instruction device 21 . I have to.

なお、ロボット22は、ロボット認識情報に含める物体画像としては、最新の撮像画像から抽出した物体画像の他、物体が写っている複数の撮像画像のうち、最も解像度の高い撮像画像から抽出した物体画像を採用することができる。 Note that the object image included in the robot recognition information of the robot 22 may be an object image extracted from the latest captured image, or an object extracted from the captured image with the highest resolution among a plurality of captured images in which the object is captured. Images can be used.

また、ロボット認識情報に含める物体画像としては、複数の物体画像のうち、ロボット22により、物体の全体をよく表している抽出画像を採用してもよいし、典型的な抽出画像を採用してもよい。なお、典型的な抽出画像としては、例えば、物体を斜め上45度から撮像した場合の抽出画像が考えられる。 As the object image to be included in the robot recognition information, an extracted image that well represents the entire object by the robot 22 may be adopted from among a plurality of object images, or a typical extracted image may be adopted. good too. As a typical extracted image, for example, an extracted image when an object is imaged obliquely upward at 45 degrees can be considered.

例えば、ロボット22が、過去の撮像により、物体画像52b乃至52eを一部分に含む撮像画像を取得しているものの、最新の撮像により、物体画像52aを一部分に含む撮像画像を取得している場合、物体「十八茶」の底部分が写る物体画像52aを含むロボット認識画像が、指示装置21に送信される。 For example, when the robot 22 acquires a captured image partially including the object images 52b to 52e by past imaging, but acquires a captured image partially including the object image 52a by the latest imaging, A robot recognition image including the object image 52 a showing the bottom portion of the object “eighteen tea” is transmitted to the pointing device 21 .

そして、指示装置21では、図17に示されるように、物体「十八茶」の底部分が写る物体画像52aが、表示画面21aに表示されることとなる。この場合、ユーザは、表示画面21aに表示された物体画像52aを見て、物体画像52aが表す物体が「十八茶」であると理解できないことが生じ得る。 Then, as shown in FIG. 17, the pointing device 21 displays an object image 52a showing the bottom portion of the object "eighteen tea" on the display screen 21a. In this case, when the user sees the object image 52a displayed on the display screen 21a, the user may not be able to understand that the object represented by the object image 52a is "eighteen tea".

そこで、ロボット22は、物体画像52aの他、物体画像52b乃至52eも含むロボット認識情報を、指示装置21の通信部44に送信するようにしている。この場合、通信部44はロボット22からのロボット認識情報を、制御部42に供給する。 Therefore, the robot 22 transmits robot recognition information including object images 52b to 52e in addition to the object image 52a to the communication unit 44 of the pointing device 21. FIG. In this case, the communication unit 44 supplies robot recognition information from the robot 22 to the control unit 42 .

制御部42は、通信部44からのロボット認識情報に基づいて、表示部43の表示画面21aに、図17に示されるように、図中左側から、物体「スティックのり」の物体画像、物体「十八茶」の物体画像52a、及び物体「財布」の物体画像を表示させる。 Based on the robot recognition information from the communication unit 44, the control unit 42 causes the display screen 21a of the display unit 43 to display an object image of the object "glue stick" and an object " The object image 52a of "18 tea" and the object image of the object "wallet" are displayed.

また、制御部42は、通信部44からのロボット認識情報を、記憶部45に供給して保持させる。 Further, the control unit 42 supplies the robot recognition information from the communication unit 44 to the storage unit 45 to hold it.

指示装置21において、ユーザが、操作部41を用いて、表示画面21a上の物体画像52aを選択する選択操作を行った場合、操作部41は、ユーザの選択操作に対応する操作信号を、制御部42に供給する。 In the instruction device 21, when the user uses the operation unit 41 to perform a selection operation to select the object image 52a on the display screen 21a, the operation unit 41 controls an operation signal corresponding to the user's selection operation. 42.

そして、制御部42は、操作部41からの操作信号に応じて、記憶部45に保持済みのロボット認識情報に含まれる物体画像52b乃至52eを読み出し、表示部43に供給して表示画面21aを表示させる。 Then, in response to an operation signal from the operation unit 41, the control unit 42 reads out the object images 52b to 52e included in the robot recognition information held in the storage unit 45, supplies them to the display unit 43, and displays the display screen 21a. display.

これにより、表示画面21aには、図17に示されるように、物体「十八茶」の詳細情報として、物体画像52b乃至52eが、表示画面21aに表示される。 As a result, as shown in FIG. 17, the object images 52b to 52e are displayed on the display screen 21a as the detailed information of the object "eighteen tea".

このため、ユーザは、物体画像52aから、物体画像52a上の物体を把握できない場合でも、ユーザの選択操作に応じて表示される物体画像52b乃至52eにより、物体画像52aに写る物体が「十八茶」であることを容易に把握できる。 Therefore, even if the user cannot grasp the object on the object image 52a from the object image 52a, the object images 52b to 52e displayed in accordance with the user's selection operation can be used to identify the object in the object image 52a as "18 It is easy to grasp that it is tea.

なお、制御部42は、その他、例えば、操作部41からの操作信号に応じて、ユーザの選択操作が行われた場合、物体画像52aを拡大したものを、詳細情報として表示させるようにすることができる。この場合、例えば、制御部42は、記憶部45に保持済みのロボット認識情報に含まれる物体画像52aを読み出し、所定の拡大率で拡大させて、表示画面21aに表示させる。 In addition, for example, when the user performs a selection operation in response to an operation signal from the operation unit 41, the control unit 42 displays an enlarged object image 52a as detailed information. can be done. In this case, for example, the control unit 42 reads out the object image 52a included in the robot recognition information held in the storage unit 45, enlarges it by a predetermined magnification, and displays it on the display screen 21a.

その他、例えば、制御部42は、物体画像52aの詳細情報として、物体画像52a上の物体「十八茶」が検知された3次元位置を、表示画面21aに表示させるようにしてもよい。この場合、記憶部45には、物体画像52aとともに、物体画像52a上の物体「十八茶」の3次元位置も含むロボット認識情報が記憶されているものとする。 In addition, for example, the control unit 42 may cause the display screen 21a to display, as the detailed information of the object image 52a, the three-dimensional position where the object "eighteen tea" on the object image 52a is detected. In this case, it is assumed that the storage unit 45 stores the robot recognition information including the three-dimensional position of the object "eighteen tea" on the object image 52a together with the object image 52a.

ところで、指示装置21が、例えば、操作部41としてマウスが接続されたパーソナルコンピュータである場合、ユーザは、マウスを用いて、表示画面21a上の物体画像52a上に、カーソル等を移動させるようにして、物体画像52aを選択する選択操作(マウスオーバー)を行うこととなる。 By the way, if the instruction device 21 is, for example, a personal computer to which a mouse is connected as the operation unit 41, the user uses the mouse to move a cursor or the like onto the object image 52a on the display screen 21a. Then, a selection operation (mouseover) is performed to select the object image 52a.

なお、表示画面21aには、複数の物体画像のうち、表示画面21aの画面サイズに応じた所定枚数の物体画像のみが表示される。このため、表示画面21aには、スコアが十分に高い物体画像や、スコアが上位n番までの物体画像、「ターゲットである」又は「ターゲットかもしれない」の少なくとも一方とされた物体画像のみを表示させるようにしている。 Of the plurality of object images, only a predetermined number of object images corresponding to the screen size of the display screen 21a are displayed on the display screen 21a. Therefore, on the display screen 21a, only object images with a sufficiently high score, object images with the top n scores, and at least one of “target” and “potential target” are displayed. I am trying to display it.

したがって、表示画面21aには表示されない物体画像が存在するため、ユーザの操作に応じて、そのような物体画像を、表示画面21aに表示できるように構成することが望ましい。 Therefore, since there is an object image that is not displayed on the display screen 21a, it is desirable to configure such an object image to be displayed on the display screen 21a according to the user's operation.

すなわち、例えば、ユーザは、マウスに設けられたスクロールボタンを回転させるスクロール操作を行うようにして、表示画面21aに表示される各物体画像を縮小させ、表示画面21aにより多くの物体画像を表示させることができる。 That is, for example, the user performs a scrolling operation of rotating a scroll button provided on a mouse to reduce each object image displayed on the display screen 21a and display more object images on the display screen 21a. be able to.

この場合、制御部42は、操作部41から、スクロール操作に対応する操作信号が供給されたことに対応して、記憶部45に保持済みのロボット認識情報を読み出す。そして、制御部42は、読み出したロボット認識情報に基づいて、スクロール操作に応じて縮小された各物体画像を生成し、表示部43に供給して表示画面21aに表示させる。 In this case, the control unit 42 reads the robot recognition information held in the storage unit 45 in response to the operation signal corresponding to the scroll operation being supplied from the operation unit 41 . Then, based on the read robot recognition information, the control unit 42 generates each object image reduced according to the scrolling operation, supplies it to the display unit 43, and displays it on the display screen 21a.

また、例えば、ユーザは、スクロール操作により、表示画面21aに表示される各物体画像を拡大させ、表示画面21aにより少ない物体画像を表示させることができる。 Further, for example, the user can enlarge each object image displayed on the display screen 21a by performing a scroll operation, and display a smaller number of object images on the display screen 21a.

さらに、表示画面21aは、例えば、その中央に、スコアx1の物体画像を表示させ、スコアx1よりも大きなスコアの物体画像を、左側に表示させ、スコアx1よりも小さなスコアの物体画像を、右側に表示させる。 Furthermore, the display screen 21a, for example, displays an object image with a score x1 in the center, an object image with a score greater than the score x1 on the left side, and an object image with a score smaller than the score x1 on the right side. to display.

表示画面21aでは、ユーザ操作に応じて、スコアx1よりも小さなスコアx2(<x1)の物体画像を、表示画面21aの中央に表示させ、スコアx2よりも大きなスコアの物体画像を、左側に表示させ、スコアx2よりも小さなスコアの物体画像を、右側に表示させることができる。 On the display screen 21a, according to the user's operation, an object image with a score x2 (<x1) smaller than the score x1 is displayed in the center of the display screen 21a, and an object image with a score greater than the score x2 is displayed on the left side. and an object image with a score smaller than the score x2 can be displayed on the right side.

すなわち、例えば、ユーザが、カーソル等を、スコアx2の物体画像が表示された位置に移動させ、その位置を、表示画面21aの中央の位置とするように操作部41を操作した場合、制御部42において、表示画面21aの中央の位置に、スコアx2の物体画像を表示させるようなロボット認識画像が生成され、表示部43の表示画面21aに表示されることとなる。 That is, for example, when the user moves the cursor or the like to the position where the object image with the score x2 is displayed and operates the operation unit 41 so as to set the position to the central position of the display screen 21a, the control unit At 42 , a robot recognition image is generated to display an object image with a score of x2 at the center position of the display screen 21 a , and is displayed on the display screen 21 a of the display section 43 .

なお、例えば、ユーザが、スコアx1の物体画像を表示させる位置を、表示画面21aの中央とするように、操作部41を操作した場合、表示画面21aの表示は、その中央に、スコアx1の物体画像が表示される元の表示とされる。 For example, when the user operates the operation unit 41 so that the position where the object image with the score x1 is displayed is the center of the display screen 21a, the display on the display screen 21a is displayed at the center with the score x1. It is taken as the original display in which the object image is displayed.

また、例えば、ユーザが、操作部41を用いて、表示画面21a上の全領域のうち、所定の領域を拡大して表示させるための拡大操作を行った場合、表示画面21aにおける所定の領域が拡大して表示される。 Further, for example, when the user uses the operation unit 41 to perform an enlargement operation for enlarging and displaying a predetermined area out of the entire area on the display screen 21a, the predetermined area on the display screen 21a becomes displayed enlarged.

[指示装置21がロボット認識画像を表示する場合の動作説明]
次に、図18のフローチャートを参照して、指示装置21が行う表示処理を説明する。
[Description of Operation When Instruction Device 21 Displays Robot Recognition Image]
Next, the display processing performed by the instruction device 21 will be described with reference to the flowchart of FIG. 18 .

この表示処理は、例えば、ロボット22からロボット認識情報が送信されたときに開始される。 This display process is started, for example, when the robot recognition information is transmitted from the robot 22 .

ステップS21において、通信部44は、制御部42からの制御にしたがって、ロボット22からのロボット認識情報を受信し、制御部42に供給する。 In step S<b>21 , the communication unit 44 receives robot recognition information from the robot 22 and supplies it to the control unit 42 under the control of the control unit 42 .

ステップS22において、制御部42は、通信部44からのロボット認識情報に基づいて、ロボット認識画像を生成し、表示部43に供給して表示画面21aに表示させる。 In step S22, the control unit 42 generates a robot recognition image based on the robot recognition information from the communication unit 44, supplies it to the display unit 43, and displays it on the display screen 21a.

また、制御部42は、通信部44からのロボット認識情報を、記憶部45に供給して記憶させる。 Further, the control unit 42 supplies the robot recognition information from the communication unit 44 to the storage unit 45 to store it.

ステップS23において、制御部42は、操作部41から、ユーザによる選択操作に対応する操作信号が供給されたか否かに応じて、ユーザによる選択操作が行われたか否かを判定する。 In step S<b>23 , the control unit 42 determines whether or not the user has performed a selection operation, depending on whether or not an operation signal corresponding to the selection operation by the user has been supplied from the operation unit 41 .

そして、ステップS23では、制御部42は、ユーザによる選択操作が行われていないと判定した場合、処理をステップS21に戻し、それ以降同様の処理を繰り返す。 Then, in step S23, when the control unit 42 determines that the selection operation is not performed by the user, the process returns to step S21, and the same process is repeated thereafter.

また、ステップS23において、制御部42は、操作部41から、ユーザによる選択操作に対応する操作信号が供給されたか否かに応じて、ユーザによる選択操作が行われたと判定した場合、処理をステップS24に進める。いまの場合、例えば、図17に示される物体画像52aの詳細情報を表示させるための選択操作が行われたものとする。 Further, in step S23, if the control unit 42 determines that the selection operation has been performed by the user according to whether or not an operation signal corresponding to the selection operation by the user has been supplied from the operation unit 41, the process proceeds to step S23. Proceed to S24. In this case, for example, it is assumed that a selection operation has been performed to display detailed information of the object image 52a shown in FIG.

この場合、ステップS24において、制御部42は、記憶部45に記憶されているロボット認識情報を読み出し、読み出したロボット認識情報に含まれる物体画像52b乃至52eを、表示部43に供給して表示画面21aに表示させる。その後、処理はステップS21に戻され、それ以降、同様の処理が行われる。なお、この表示処理は、例えば、ロボット22からロボット認識情報が送信されなくなったときに終了される。 In this case, in step S24, the control unit 42 reads the robot recognition information stored in the storage unit 45, supplies the object images 52b to 52e included in the read robot recognition information to the display unit 43, and displays them on the display screen. 21a. After that, the process is returned to step S21, and the same process is performed thereafter. Note that this display processing ends, for example, when the robot recognition information is no longer transmitted from the robot 22 .

以上説明したように、表示処理によれば、ロボット22からのロボット認識情報に基づいて、図6乃至図17に示されるような表示画面21aを表示させるようにしたので、ロボット22の行動を容易に予測することが可能となる。 As described above, according to the display processing, the display screen 21a as shown in FIGS. It is possible to predict

また、表示処理によれば、ステップS23において、例えば、図17の物体画像52aを選択する選択操作が行われたことに対応して、ステップS24において、物体画像52aに写る物体を、他の方向から見た場合の物体画像52b乃至52eを表示させるようにした。 Further, according to the display process, in step S23, for example, in response to the selection operation of selecting the object image 52a in FIG. Object images 52b to 52e when viewed from above are displayed.

このため、ユーザは、表示画面21aに表示された物体画像の物体を、より正確に把握することができる。 Therefore, the user can more accurately grasp the object of the object image displayed on the display screen 21a.

[ロボット22の構成例]
次に、図19は、ロボット22の構成例を示している。
[Configuration example of robot 22]
Next, FIG. 19 shows a configuration example of the robot 22. As shown in FIG.

このロボット22は、通信部61、カメラ62、距離センサ63、マイクロホン64、スピーカ65、制御部66、駆動部67、及び記憶部68から構成される。 This robot 22 comprises a communication section 61 , a camera 62 , a distance sensor 63 , a microphone 64 , a speaker 65 , a control section 66 , a drive section 67 and a storage section 68 .

通信部61は、指示装置21からの指示情報や、フィードバック情報、指定範囲情報等を受信し、制御部66に供給する。 The communication unit 61 receives instruction information from the instruction device 21 , feedback information, specified range information, and the like, and supplies them to the control unit 66 .

通信部61は、制御部66からのロボット認識情報を、指示装置21に送信する。 The communication unit 61 transmits robot recognition information from the control unit 66 to the instruction device 21 .

カメラ62は、光を感知する「目」に相当するものであり、例えば、CCD(Charge Coupled Device)イメージセンサ等により構成される。カメラ62は、ロボット22の周囲を撮像し、その撮像により得られる撮像画像を、制御部66に供給する。 The camera 62 corresponds to an "eye" that senses light, and is configured by, for example, a CCD (Charge Coupled Device) image sensor. The camera 62 captures an image of the surroundings of the robot 22 and supplies the captured image obtained by the capture to the control section 66 .

距離センサ63は、ロボット22から物体までの距離を測るセンサであり、物体までの距離を測って制御部66に供給する。 The distance sensor 63 is a sensor that measures the distance from the robot 22 to an object, measures the distance to the object, and supplies the measured distance to the control unit 66 .

マイクロホン64は、音を感知する「耳」に相当するものであり、音声を集音し、その集音により得られる音声信号を、制御部66に供給する。 The microphone 64 corresponds to an “ear” that senses sound, collects sound, and supplies an audio signal obtained by the collected sound to the control unit 66 .

スピーカ65は、ロボット22の「口」に相当するものであり、制御部66からの制御にしたがって、所定の音声を出力する。 The speaker 65 corresponds to the “mouth” of the robot 22 and outputs a predetermined sound under the control of the control section 66 .

制御部66は、通信部61乃至スピーカ65、及び駆動部67を制御する。すなわち、例えば、制御部66は、カメラ62からの撮像画像、距離センサ63からの距離、マイクロホン64からの音声信号などに基づいて、周囲の状況等を把握し、把握した周囲の状況に応じて、駆動部67を制御する。 The control section 66 controls the communication section 61 to the speaker 65 and the driving section 67 . That is, for example, the control unit 66 grasps the surrounding situation based on the captured image from the camera 62, the distance from the distance sensor 63, the audio signal from the microphone 64, and the like, and responds to the grasped surrounding situation. , controls the drive unit 67 .

また、制御部66は、通信部61からの指示情報に基づいて、駆動部67を制御して、ユーザにより指示された行動を自律的に行う。すなわち、例えば、制御部66は、駆動部67を制御して、ロボット22に、指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとして自律的に探索させる。 The control unit 66 also controls the driving unit 67 based on the instruction information from the communication unit 61 to autonomously perform the action instructed by the user. That is, for example, the control unit 66 controls the driving unit 67 to cause the robot 22 to autonomously search for an object belonging to the category represented by the category information included in the instruction information as a target.

さらに、制御部66は、カメラ62からの撮像画像に基づいて、撮像画像上の物体を検知し、検知した物体を表す物体画像を抽出する。また、制御部66は、カメラ62からの撮像画像に基づいて、検知した物体のスコアを計算する。 Furthermore, the control unit 66 detects an object on the captured image based on the captured image from the camera 62, and extracts an object image representing the detected object. Also, the control unit 66 calculates the score of the detected object based on the captured image from the camera 62 .

すなわち、例えば、制御部66は、通信部61からの指示情報に基づいて、ターゲットとされる物体の識別器を、記憶部68から読み出す。また、制御部66は、カメラ62からの撮像画像から、検知した物体の特徴を表す特徴量を抽出する。 That is, for example, based on the instruction information from the communication unit 61 , the control unit 66 reads the discriminator of the target object from the storage unit 68 . Also, the control unit 66 extracts a feature quantity representing the feature of the detected object from the captured image from the camera 62 .

そして、制御部66は、抽出した特徴量に基づいて、読み出した識別器を用いて、検知した物体のスコアを計算する。すなわち、例えば、制御部66は、識別器から得られる識別結果(スコア)を、そのまま、検知した物体のスコアとすることもできるし、時系列的に、識別器から得られる識別結果を統合的に判断して、最終的なスコアを計算することもできる。 Then, the control unit 66 calculates the score of the detected object using the read classifier based on the extracted feature amount. That is, for example, the control unit 66 can use the identification result (score) obtained from the classifier as the score of the detected object as it is, or can integrate the identification results obtained from the classifier in time series. It is also possible to judge and calculate the final score.

制御部66は、計算した物体のスコアに基づいて、その物体の認識状態を決定する。なお、認識状態の決定については、図20を参照して後述する。 The control unit 66 determines the recognition state of the object based on the calculated score of the object. Determination of the recognition state will be described later with reference to FIG.

また、制御部66は、計算した物体のスコアや、決定した物体の認識状態に基づいて、表示画面21aに表示させる物体画像を決定する。なお、表示画面21aに表示させる物体画像の決定方法は、図21を参照して後述する。 Further, the control unit 66 determines an object image to be displayed on the display screen 21a based on the calculated score of the object and the determined recognition state of the object. A method of determining an object image to be displayed on the display screen 21a will be described later with reference to FIG.

制御部66は、例えば、物体の認識状態に応じて、表示画面21aに表示することに決定した物体画像を変更(例えば、矩形で囲んだり、斜線を付加)し、変更後の物体画像、物体のスコア、表示対象情報等を含むロボット認識情報を生成し、通信部61に供給する。 For example, the control unit 66 changes the object image determined to be displayed on the display screen 21a (for example, encloses it in a rectangle or adds diagonal lines) according to the recognition state of the object, and displays the changed object image, the object robot recognition information including the score, display target information, and the like, and supplies it to the communication unit 61 .

また、制御部66は、距離センサ63を制御して、検知した物体までの距離を計測させる。これにより、距離センサ63は、制御部66が検知した物体までの距離を、制御部66に供給する。 The control unit 66 also controls the distance sensor 63 to measure the distance to the detected object. Thereby, the distance sensor 63 supplies the distance to the object detected by the control unit 66 to the control unit 66 .

制御部66は、カメラ62からの撮像画像や、カメラ62の姿勢(位置及び向き)等に基づいて、カメラ62(ロボット22)の3次元位置を検出する。なお、ロボット22の3次元位置の検出方法の詳細は、例えば、特開2008-304268号公報等に記載されている。 The control unit 66 detects the three-dimensional position of the camera 62 (robot 22) based on the captured image from the camera 62, the posture (position and orientation) of the camera 62, and the like. Details of the method for detecting the three-dimensional position of the robot 22 are described in, for example, Japanese Unexamined Patent Application Publication No. 2008-304268.

なお、制御部66は、例えば、GPS(global positioning system)やWi-Fiを用いた測位技術を用いて、ロボット22の3次元位置を検出するようにしてもよい。 Note that the control unit 66 may detect the three-dimensional position of the robot 22 using, for example, positioning technology using GPS (global positioning system) or Wi-Fi.

制御部66は、検出した3次元位置と、距離センサ63から供給される距離とに基づいて、検知した物体の3次元位置を算出し、その物体が写った撮像画像に対応付けて、記憶部68に供給して記憶させる。 Based on the detected three-dimensional position and the distance supplied from the distance sensor 63, the control unit 66 calculates the three-dimensional position of the detected object, associates it with the captured image showing the object, and stores it in the storage unit. 68 for storage.

また、制御部66は、記憶部68に保持された撮像画像(例えば、図3の周囲画像31や部分画像35)等を読み出し、読み出した撮像画像も含むロボット認識画像を生成し、通信部61に供給する。 In addition, the control unit 66 reads captured images (for example, the surrounding image 31 and the partial image 35 in FIG. 3) held in the storage unit 68, and generates a robot recognition image including the read captured images. supply to

制御部66は、通信部61からの指定範囲情報と、記憶部68に保持されている撮像画像とに基づいて、ユーザの指定操作により指定された領域を表す指定領域を検出する。 Based on the specified range information from the communication unit 61 and the captured image held in the storage unit 68, the control unit 66 detects the specified area representing the area specified by the user's specifying operation.

また、制御部66は、検出した指定領域上の物体に対応付けられている3次元位置を、記憶部68から読み出し、読み出した3次元位置に基づいて、指定領域に対応する探索範囲を算出する。 Further, the control unit 66 reads the three-dimensional position associated with the detected object on the designated area from the storage unit 68, and calculates the search range corresponding to the designated area based on the read three-dimensional position. .

そして、制御部66は、駆動部67を制御して、ロボット22の手や足に相当する部位を駆動させ、算出した探索範囲内でターゲット(カテゴリ情報が表すカテゴリに属する物体)を探索する動作を実行させる。 Then, the control unit 66 controls the driving unit 67 to drive parts corresponding to the hands and feet of the robot 22, and searches for a target (an object belonging to the category represented by the category information) within the calculated search range. to run.

駆動部67は、制御部66からの制御にしたがって、ロボット22の「手」や「足」に相当する部分を駆動させる。これにより、ロボット22は、自律的に行動する。 The drive unit 67 drives parts corresponding to the “hands” and “legs” of the robot 22 under the control of the control unit 66 . Thereby, the robot 22 acts autonomously.

記憶部68は、例えば、制御部66により実行される制御用プログラムを予め保持する他、制御部66から書込みが指示されたデータ等を記憶(保持)する。 The storage unit 68 stores, for example, a control program to be executed by the control unit 66 in advance, and also stores (holds) data instructed to be written by the control unit 66 .

また、記憶部68は、複数の項目それぞれの物体毎に、その物体を識別するための識別器を記憶している。この識別器は、物体の特徴量を入力として、物体のスコアを出力する関数である。なお、この識別器は、予め行なわれた学習により生成されて記憶されているものとする。 The storage unit 68 also stores a discriminator for discriminating the object for each object of each of the plurality of items. This discriminator is a function that receives the feature amount of the object and outputs the score of the object. It is assumed that this discriminator is generated and stored by learning performed in advance.

さらに、記憶部68は、制御部66からの撮像画像(撮像画像上の物体の3次元位置が対応付けられている撮像画像であって、例えば、周囲画像31や部分画像35等)を記憶する。 Further, the storage unit 68 stores captured images from the control unit 66 (captured images associated with the three-dimensional positions of objects on the captured images, such as the surrounding image 31 and the partial image 35). .

次に、図20は、物体の認識状態の状態遷移図の一例を示している。 Next, FIG. 20 shows an example of a state transition diagram of object recognition states.

図20には、制御部66が認識する認識状態として、「未検出(検知)」、「まだ分からない」、「ターゲットかもしれない」、「ターゲットである」、及び「ターゲットではない」が示されている。 FIG. 20 shows "undetected (detected)", "unknown yet", "might be a target", "target", and "not a target" as recognition states recognized by the control unit 66. It is

制御部66は、計算した物体のスコアに応じて、その物体を、「まだ分からない」、「ターゲットかもしれない」、「ターゲットである」、又は「ターゲットではない」のいずれの状態として認識する。 The control unit 66 recognizes the object as "not yet known", "may be a target", "is a target", or "is not a target" according to the calculated score of the object. .

すなわち、例えば、制御部66は、物体のスコアが閾値th1以上である場合、その物体を、「ターゲットである」ものとして認識し、物体のスコアが閾値th1未満であり、閾値th2(<th1)以上である場合、「ターゲットかもしれない」と認識する。 That is, for example, when the score of an object is equal to or greater than the threshold th1, the control unit 66 recognizes the object as being a "target", and if the score of the object is less than the threshold th1, the threshold th2 (<th1) If it is above, it recognizes that it may be a target.

また、例えば、制御部66は、物体のスコアが閾値th2未満であり、閾値th3(<th2)以上である場合、その物体を、ターゲットであるか否か「まだ分からない」ものとして認識し、物体のスコアが閾値th3未満である場合、「ターゲットではない」ものとして認識する。 Also, for example, when the score of an object is less than the threshold th2 and is equal to or greater than the threshold th3 (<th2), the control unit 66 recognizes that the object is a target or not as “not yet known”, If an object's score is less than a threshold th3, it is recognized as "non-target".

なお、制御部66は、ユーザによるフィードバック操作が行われる場合を除き、物体を「ターゲットである」ものとして認識する際に、必ず、「ターゲットかもしれない」と認識した状態を経由するようにしている。 It should be noted that the control unit 66 always goes through the state of recognizing "may be a target" when recognizing an object as "a target", except when a feedback operation is performed by the user. there is

したがって、表示画面21aにおいて、ターゲットであるか否か「まだ分からない」ものとして認識されている物体(細線の矩形で囲まれた物体画像に対応)が、急に「ターゲットである」ものとして認識された物体(太線の矩形で囲まれた物体画像に対応)とされることを防止できる。 Therefore, on the display screen 21a, an object (corresponding to the object image surrounded by the thin-line rectangle) which is recognized as being "not yet known" as to whether it is a target or not is suddenly recognized as being "a target". object (corresponding to the object image surrounded by a thick rectangle).

このため、ユーザは、表示画面21aにおいて、「ターゲットかもしれない」ものとして認識された物体(そのままの状態で表示される物体画像に対応)にのみ、ターゲットに相応しくないものが存在するか否かに注意を払えばよいものとなる。 Therefore, on the display screen 21a, the user can check whether or not there is an object unsuitable for the target only among the objects recognized as "possible targets" (corresponding to the object images displayed as they are). It will be good if you pay attention to

このように、物体を「ターゲットである」ものとして認識する際に、必ず、「ターゲットかもしれない」と認識した状態を経由するようにしているのは、表示画面21aにおいて、ターゲットであるか否か「まだ分からない」ものとして認識されている物体が、急に「ターゲットである」ものとして認識された物体とされる場合、ユーザは、表示画面21aにおいて、すべての物体に注意を払わなければならず、非常に面倒であることによる。 In this way, when recognizing an object as ``a target'', the reason why the ``might be a target'' recognition state is always passed through is that the display screen 21a indicates whether or not the object is a target. If an object recognized as ``not yet known'' suddenly becomes an object recognized as ``target'', the user must pay attention to all the objects on the display screen 21a. not because it is very troublesome.

次に、図21は、制御部66が、物体のスコアに応じて、表示画面21aに表示させる物体画像を決定する決定方法の一例を示している。 Next, FIG. 21 shows an example of a determination method by which the control unit 66 determines an object image to be displayed on the display screen 21a according to the score of the object.

図21には、スコアの高い順序で、図中左側から、物体71、物体72、物体73、…物体74が示されている。 FIG. 21 shows an object 71, an object 72, an object 73, .

制御部66は、計算した物体71のスコアに基づいて、物体71を「ターゲットである」と認識している。また、制御部66は、物体72のスコアに基づいて、物体72を「ターゲットかもしれない」と認識している。 The control unit 66 recognizes the object 71 as “a target” based on the calculated score of the object 71 . Also, based on the score of the object 72, the control unit 66 recognizes the object 72 as “may be a target”.

さらに、制御部66は、物体73のスコアに基づいて、物体73を、ターゲットであるか否か「まだ分からない」ものと認識している。また、制御部66は、物体74のスコアに基づいて、物体74を、「ターゲットではない」と認識している。 Furthermore, based on the score of the object 73, the control unit 66 recognizes that the object 73 is “not yet known” as to whether it is a target. Also, the control unit 66 recognizes the object 74 as “not a target” based on the score of the object 74 .

例えば、制御部66は、図21に示されるように、検知した複数の物体のうち、スコアが高い上位N番までの物体に対応する物体画像を、指示装置21の表示画面21aに表示させるものとして決定することができる。 For example, as shown in FIG. 21, the control unit 66 causes the display screen 21a of the instruction device 21 to display the object images corresponding to the objects having the highest scores among the plurality of detected objects. can be determined as

また、例えば、制御部66は、図21に示されるように、検知した複数の物体のうち、「ターゲットである」及び「ターゲットかもしれない」と認識している物体に対応する物体画像を、少なくとも、指示装置21の表示画面21aに表示させるものとして決定してもよい。 In addition, for example, as shown in FIG. 21, the control unit 66 selects object images corresponding to objects recognized as "targets" and "may be targets" among the plurality of detected objects. At least, it may be determined to be displayed on the display screen 21 a of the pointing device 21 .

[ロボット22がスコアを計算するときの動作説明]
次に、図22のフローチャートを参照して、ロボット22が行うスコア計算処理について説明する。
[Description of the operation when the robot 22 calculates the score]
Next, the score calculation process performed by the robot 22 will be described with reference to the flowchart of FIG.

このスコア計算処理は、例えば、ロボット22が、指示装置21からの指示情報に基づいて、室内を探索するときに開始される。 This score calculation process is started, for example, when the robot 22 searches the room based on instruction information from the instruction device 21 .

ステップS41において、カメラ62は、ロボット22の周囲の撮像を行い、その撮像により得られる撮像画像を、制御部66に供給する。 In step S<b>41 , the camera 62 takes an image of the surroundings of the robot 22 and supplies the captured image obtained by the imaging to the control section 66 .

ステップS42において、制御部66は、カメラ62からの撮像画像に基づいて、撮像画像上の物体を検知することを試みる。 At step S<b>42 , the control unit 66 attempts to detect an object on the captured image based on the captured image from the camera 62 .

そして、制御部66は、カメラ62からの撮像画像に基づいて、その撮像画像から物体を検知したことに対応して、処理をステップS43に進める。なお、制御部66は、カメラ62からの撮像画像に基づいて、その撮像画像から物体を検知しなかった場合、処理をステップS41に戻し、それ以降同様の処理が行われる。 Based on the captured image from the camera 62, the control unit 66 advances the process to step S43 in response to detecting the object from the captured image. Based on the captured image from the camera 62, if the control unit 66 does not detect an object from the captured image, the control unit 66 returns the processing to step S41, and the same processing is performed thereafter.

制御部66は、指示装置21から通信部61を介して供給される指示情報に基づいて、ロボット22の処理対象を表すターゲットを判定し、判定したターゲット用の識別器を、記憶部68から読み出す。 The control unit 66 determines the target representing the processing target of the robot 22 based on the instruction information supplied from the instruction device 21 via the communication unit 61 and reads out the discriminator for the determined target from the storage unit 68 . .

ステップS43において、制御部66は、カメラ62からの撮像画像から、検知した物体の特徴量を算出する。そして、制御部66は、算出した特徴量に基づいて、記憶部68から読み出した識別器を用いて、物体のスコアを計算する。 In step S<b>43 , the control unit 66 calculates the feature amount of the detected object from the captured image from the camera 62 . Then, the control unit 66 calculates the score of the object using the discriminator read from the storage unit 68 based on the calculated feature amount.

ステップS44では、制御部66は、計算したスコアや、記憶部68に記憶済みの撮像画像などを含むロボット認識情報を生成し、通信部61に供給する。 In step S<b>44 , the control unit 66 generates robot recognition information including the calculated score and captured images stored in the storage unit 68 and supplies the information to the communication unit 61 .

ステップS45では、通信部61は、制御部66からのロボット認識情報を、指示装置21に送信し、処理はステップS41に戻され、それ以降同様の処理が行われる。 In step S45, the communication unit 61 transmits the robot recognition information from the control unit 66 to the instruction device 21, the process returns to step S41, and the same process is performed thereafter.

なお、スコア計算処理は、例えば、ロボット22がターゲットを見つけて、ユーザのところに持って帰ったときに終了される。 Note that the score calculation process ends, for example, when the robot 22 finds the target and brings it back to the user.

以上説明したように、スコア計算処理によれば、検知した物体のスコアを計算し、計算したスコア等を含むロボット認識情報を、指示装置21に送信するようにした。 As described above, according to the score calculation process, the score of the detected object is calculated, and the robot recognition information including the calculated score is transmitted to the instruction device 21 .

よって、指示装置21の表示画面21aにおいて、図6乃至図17に示されるようなロボット認識画像を表示できるようになるので、ユーザは、ロボット22の行動を容易に予測することが可能となる。 6 to 17 can be displayed on the display screen 21a of the instruction device 21, so that the user can easily predict the behavior of the robot 22. FIG.

<2.第1の実施の形態の変形例>
[ロボット認識画像の他の表示例]
ところで、図6乃至図17を参照して、スコアの高い物体ほど、表示画面21aの左に表示させるようにしたロボット認識画像を説明したが、ロボット認識画像は、これに限定されない。
<2. Modification of First Embodiment>
[Another display example of the robot recognition image]
By the way, the robot recognition image has been described in which an object with a higher score is displayed on the left side of the display screen 21a with reference to FIGS. 6 to 17, but the robot recognition image is not limited to this.

次に、図23は、ロボット認識画像の他の表示例を示している。 Next, FIG. 23 shows another display example of the robot recognition image.

図23において、表示画面21aの上側の画面を表す上側画面81には、スコアの高い物体の物体画像ほど、表示画面21aの左側に配置されたロボット認識画像が表示される。いまの場合、物体91、物体92、物体93、物体94の順序でスコアが高いものとなっている。 In FIG. 23, on the upper screen 81 representing the upper screen of the display screen 21a, the robot recognition image arranged on the left side of the display screen 21a is displayed as the object image of the object with the higher score. In this case, the objects 91, 92, 93, and 94 have higher scores in that order.

また、表示画面21aの上側の画面を表す下側画面82には、カメラ62の撮像により得られた最新の撮像画像が表示される。この撮像画像には、図23に示されるように、上側画面81に表示された物体91(「りんごジュース」)及び物体92(「C炭酸ジュース」)が写っている。 In addition, the latest image captured by the camera 62 is displayed on the lower screen 82 representing the screen on the upper side of the display screen 21a. As shown in FIG. 23, this captured image shows an object 91 (“apple juice”) and an object 92 (“C carbonated juice”) displayed on the upper screen 81 .

表示画面21aにおいて、上側画面81上の物体91及び下側画面82上の物体91(「りんごジュース」)は、点線で接続されており、上側画面81と下側画面82に表示された物体91との対応関係がわかるようになっている。 In the display screen 21a, the object 91 on the upper screen 81 and the object 91 ("apple juice") on the lower screen 82 are connected by a dotted line, and the objects 91 displayed on the upper screen 81 and the lower screen 82 are connected. It is possible to understand the correspondence relationship between

このことは、物体92についても同様である。なお、この場合、ロボット認識情報には、カメラ62の撮像により得られた最新の撮像画像が含まれる。 This is the same for the object 92 as well. In this case, the robot recognition information includes the latest image captured by the camera 62 .

すなわち、図23では、下側画面82に、カメラ62の撮像により得られる最新の撮像画像を表示する点が、図6乃至図17を参照して説明した場合と異なるものとなる。 That is, FIG. 23 differs from the case described with reference to FIGS. 6 to 17 in that the latest image captured by the camera 62 is displayed on the lower screen 82 .

図23において、上側画面81を見ると、物体91及び物体92それぞれの物体画像が太線の矩形で囲まれているため、ロボット22は、物体91及び92をターゲットと認識していることが予測される。また、図23において、下側画面82を見ると、ロボット22は、物体91及び92の近くに存在することが予測される。 In FIG. 23, looking at the upper screen 81, the object images of the objects 91 and 92 are surrounded by rectangles with thick lines, so it is predicted that the robot 22 recognizes the objects 91 and 92 as targets. be. 23, looking at the lower screen 82, the robot 22 is predicted to be near the objects 91 and 92. In FIG.

このため、ユーザは、図23の上側画面81のみを参照する場合と比較して、図23の上側画面81及び下側画面82を参照することにより、ロボット22が、物体91又は物体92の一方を、ターゲットとして持ち帰る行動をとることを、より容易に推測できる。 Therefore, the user can see the robot 22 by referring to either the object 91 or the object 92 by referring to the upper screen 81 and the lower screen 82 in FIG. can be more easily inferred to take action to bring back as a target.

なお、図23において、下側画面82には、カメラ62の撮像により得られた最新の撮像画像を表示するようにしたが、その他、例えば、任意の時刻でカメラ62の撮像により得られた撮像画像を表示することができる。また、カメラ62の撮像により得られた複数の撮像画像を合成して作成した合成画像(パノラマビューのような画像)を表示するようにしてもよい。 In FIG. 23, although the latest captured image obtained by imaging with the camera 62 is displayed on the lower screen 82, other images obtained by imaging with the camera 62 at any time, for example, can also be displayed. Images can be displayed. Alternatively, a composite image (an image such as a panoramic view) created by synthesizing a plurality of images captured by the camera 62 may be displayed.

さらに、例えば、表示画面21aには、カメラ62の撮像により得られた撮像画像上に、太線の矩形等を直接、重畳させる(例えば、撮像画像上のりんごジュースを太線の矩形で囲む)ようにしたものを表示させるようにしてもよい。この場合、表示画面21aには、図23に示した上側画面81に表示される画像は表示されず、撮像画像のみが表示されることとなる。 Further, for example, on the display screen 21a, a thick line rectangle or the like is directly superimposed on the captured image obtained by the camera 62 (for example, the apple juice on the captured image is surrounded by a thick line rectangle). You may make it display what was done. In this case, the image displayed on the upper screen 81 shown in FIG. 23 is not displayed on the display screen 21a, and only the captured image is displayed.

また、例えば、図24に示されるように、カメラ62の撮像により得られる最新の撮像画像に代えて、表示画面21aの下側画面82に、室内の空間を表す空間図を表示させるようにしてもよい。この場合、ロボット認識情報には、室内の空間図を表す空間情報が含まれる。なお、空間情報は、例えば、ロボット22の記憶部68に予め保持されているものとする。 Alternatively, for example, as shown in FIG. 24, instead of the latest captured image obtained by imaging with the camera 62, a space map representing the indoor space is displayed on the lower screen 82 of the display screen 21a. good too. In this case, the robot recognition information includes spatial information representing a spatial map of the room. It is assumed that the spatial information is stored in advance in the storage unit 68 of the robot 22, for example.

また、図24に示されるように、下側画面82に表示される空間図には、ロボット22がこれから移動する経路が、点線101で示されている。なお、図24では、上側画面81に表示された物体と、その物体が存在する空間図上の位置とが点線で接続され、対応関係がわかるようになっている。 Further, as shown in FIG. 24, in the space map displayed on the lower screen 82, the route along which the robot 22 will move is indicated by a dotted line 101. As shown in FIG. In FIG. 24, the object displayed on the upper screen 81 and the position of the object on the spatial diagram are connected by dotted lines so that the correspondence can be understood.

このため、ユーザは、図24の表示画面21aの上側画面81のみを参照する場合と比較して、図24の表示画面21aの上側画面81及び下側画面82を参照することにより、ロボット22が、物体91(「りんごジュース」)を、ターゲットとして持ち帰るだろうと推測できる。 Therefore, the user can see the robot 22 by referring to the upper screen 81 and the lower screen 82 of the display screen 21a of FIG. , object 91 ("apple juice") as a target.

なお、図23及び図24のような表示画面21aを表示させるようにする場合、ロボット22の近くに存在する物体(ロボット22の位置から所定の範囲内に存在する物体)を、物体画像として優先的に表示させることが望ましい。 When displaying the display screen 21a as shown in FIGS. 23 and 24, an object existing near the robot 22 (an object existing within a predetermined range from the position of the robot 22) is prioritized as an object image. It is desirable to display

また、表示画面21aには、例えば、図23に示される下側画面82に撮像画像を表示し、図24に示される下側画面82に空間図を表示させるようにしたが、その他、例えば、撮像画像と空間図との両方を表示させるようにしてもよい。 In addition, the display screen 21a displays, for example, the captured image on the lower screen 82 shown in FIG. 23 and displays the space map on the lower screen 82 shown in FIG. Both the captured image and the spatial map may be displayed.

この場合、例えば、表示画面21aには、図23に示されるような表示とともに、ロボット22がこれから移動する経路を表す点線101を含む空間図が表示されることとなる。 In this case, for example, on the display screen 21a, the display as shown in FIG. 23 is displayed together with a space map including the dotted line 101 representing the path along which the robot 22 will move.

次に、図25は、ロボット認識画像のさらに他の表示例を示している。 Next, FIG. 25 shows still another display example of the robot recognition image.

図25には、表示画面21aに、ロボット22のカメラ62の撮像により得られた最新の撮像画像が表示される。この撮像画像には、主に、ロボット22により検知された物体111乃至114が写っている。 In FIG. 25, the latest image captured by the camera 62 of the robot 22 is displayed on the display screen 21a. This captured image mainly shows objects 111 to 114 detected by the robot 22 .

そして、物体111及び113には、それぞれ、その物体に対してロボット22が行おうとしている行動が、吹き出し111a乃至113aにより表示されている。 On the objects 111 and 113, speech balloons 111a to 113a indicate actions that the robot 22 intends to take with respect to the objects.

吹き出し111aには、行動「捨てる」が表示され、吹き出し112aには、行動「持ってくる」が表示され、吹き出し113aには、行動「持ってくる」が表示され、吹き出し114aには、行動「捨てる」が表示される。なお、図25に示されるような表示画面21aが表示される場合、ロボット22からのロボット認識情報には、物体(例えば、「鳥の置物」)を処理対象とするロボット22の処理(例えば、「捨てる」)を表す処理情報が含まれる。 The balloon 111a displays the action "throw away", the balloon 112a displays the action "bring", the balloon 113a displays the action "bring", the balloon 114a displays the action " Discard” is displayed. Note that when the display screen 21a as shown in FIG. 25 is displayed, the robot recognition information from the robot 22 includes the processing of the robot 22 that targets an object (for example, "bird figurine") (for example, "discard").

また、吹き出し111a乃至113aの大きさは、例えば、吹き出しが付加された物体のスコアに応じた大きさとされる。なお、スコアは、吹き出しの大きさの他、吹き出しの色で表すようにしてもよい。 Also, the sizes of the balloons 111a to 113a are set according to the score of the object to which the balloon is added, for example. Note that the score may be represented by the color of the balloon in addition to the size of the balloon.

第1の実施の形態では、ユーザが、指示装置21を用いて、ロボット22に、ターゲットとしての「お茶」を持ってくる旨を指示するようにしたが、指示は、これに限定されず、その他、例えば、ターゲットをゴミ箱に捨てる旨を指示することができる。 In the first embodiment, the user uses the instruction device 21 to instruct the robot 22 to bring "tea" as a target, but the instruction is not limited to this. In addition, for example, it is possible to instruct to throw the target in the trash can.

その他、例えば、ユーザは、指示装置21を用いて、ターゲットを「つかむ」、「拾う」、「片付ける」等の指示を行うことができる。 In addition, for example, the user can use the instruction device 21 to give instructions such as “grab”, “pick up”, and “put away” the target.

図25では、例えば、ユーザが、指示装置21を用いて、ロボット22に、「ジュース」を持ってくる旨を指示するとともに、「小物」をゴミ箱に捨てる旨を指示した場合に、指示装置21の表示画面21aに表示される表示例である。 In FIG. 25, for example, when the user uses the instruction device 21 to instruct the robot 22 to bring "juice" and to discard "small items" in the trash can, the instruction device 21 is a display example displayed on the display screen 21a.

すなわち、表示画面21aに表示されるロボット認識画像は、ユーザが、ロボット22の行動を直感的に予測できるものであれば、どのような表示方法であってもよい。 That is, the robot recognition image displayed on the display screen 21a may be displayed in any manner as long as the user can intuitively predict the behavior of the robot 22 .

また、例えば、ユーザは、指示装置21を用いて、ターゲットとして、「お茶」等の他、ターゲットとして人を選択することができる。この場合、ユーザは、指示装置21を用いて、ターゲットとしての人を「呼んでくる」等の指示を行うことができる。 Further, for example, the user can use the instruction device 21 to select a person as a target in addition to "tea" as a target. In this case, the user can use the instruction device 21 to give an instruction such as “call” the target person.

この場合、表示画面21aには、例えば、検知された人とともに、その人の名前を表示させるようにしてもよい。なお、人の名前は、例えば、その人を識別するための識別器に対応付けて、ロボット22の記憶部68に予め保持されているものとする。 In this case, for example, the name of the detected person may be displayed on the display screen 21a. It is assumed that the person's name is stored in advance in the storage unit 68 of the robot 22 in association with a classifier for identifying the person, for example.

また、表示画面21aに、検知された人を表す名前として、異なる人の名前が表示されている場合には、ユーザは、操作部41を用いて、名前を、検知された人の名前に変更させるようにすることができる。 Further, when a different person's name is displayed as the name representing the detected person on the display screen 21a, the user uses the operation unit 41 to change the name to the detected person's name. can be made to

ところで、例えば、指示装置21は、ロボット22からのロボット認識情報に基づいて、図26に示されるように、表示画面21aに、物体画像121乃至124を含むロボット認識画像を表示するようにしている。 By the way, for example, the pointing device 21 displays a robot recognition image including the object images 121 to 124 on the display screen 21a based on the robot recognition information from the robot 22, as shown in FIG. .

図26に示される表示画面21aでは、ロボット22が、物体画像121に対応する物体「十八茶」を「ターゲットかもしれない」と認識していることが表示される。 On the display screen 21a shown in FIG. 26, it is displayed that the robot 22 recognizes the object "eighteen tea" corresponding to the object image 121 as "may be a target".

さらに、ロボット22が、物体画像122に対応する物体「C炭酸ジュース」及び物体画像123に対応する物体「鉢植え」を、それぞれ、ターゲットであるか否か「まだ分からない」ものとして認識していること、物体画像124に対応する物体「ぬいぐるみ」を、「ターゲットではない」と認識していることが表示される。 Furthermore, the robot 22 recognizes that the object "C carbonated juice" corresponding to the object image 122 and the object "potted plant" corresponding to the object image 123 are "not yet known" as targets. In other words, it is displayed that the object "stuffed toy" corresponding to the object image 124 is recognized as "not a target".

したがって、ユーザは、図26に示される表示画面21aを参照して、ロボット22の行動を、以下のように推測することができる。すなわち、例えば、ユーザにおいては、ロボット22が、「ターゲットかもしれない」と認識している物体「十八茶」を、いずれ「ターゲットである」ものとして認識するようになり、物体「十八茶」を持って帰るだろうと推測することができる。 Therefore, the user can refer to the display screen 21a shown in FIG. 26 and guess the behavior of the robot 22 as follows. That is, for example, in the user, the robot 22 recognizes the object "eighteen tea" as a "target" eventually, and the object "eighteen tea" is recognized as a "target". It can be inferred that he will bring home.

この場合、ユーザは、ロボット22が、物体「十八茶」を持って帰るまで待つことが考えられる。 In this case, the user may wait until the robot 22 returns with the object "eighteen tea".

また、例えば、図27に示される表示画面21aには、ロボット22が、物体画像141に対応する物体「ABC お茶」、及び物体画像142に対応する物体「S茶」のいずれも「ターゲットである」ものとして認識していることを表す太線の矩形が表示される。 Also, for example, the display screen 21a shown in FIG. ” is displayed, indicating that it is recognized as an object.

さらに、例えば、図27に示される表示画面21aには、ロボット22が、物体「ABC お茶」を持って帰ろうとしていることを表す三角印が表示される。 Further, for example, on the display screen 21a shown in FIG. 27, a triangular mark indicating that the robot 22 is going to take the object "ABC tea" home is displayed.

したがって、ロボット22は、物体「ABC お茶」及び物体「S茶」のいずれを持って帰ろうか迷っているものの、とりあえず、物体「ABC お茶」を持って帰ろうとしていることが、ユーザにより推測される。 Therefore, although the robot 22 is wondering whether to bring home the object "ABC tea" or the object "S tea", the user guesses that the robot 22 is going to take the object "ABC tea" for the time being. be.

ユーザは、物体「ABC お茶」及び物体「S茶」のどちらでもよい場合には、指示装置21を特に操作することなく、ロボット22が、物体「ABC お茶」又は物体「S茶」の一方を持って帰るのを待つこととなる。 If the user can select either the object "ABC tea" or the object "S tea", the robot 22 can select either the object "ABC tea" or the object "S tea" without operating the pointing device 21. I will have to wait to bring it home.

なお、例えば、図27の表示画面21aにおいて、三角印が表示されておらず、ユーザが、物体「ABC お茶」又は物体「S茶」のどちらでもよいので、早く持ってきて欲しいと思ったときには、ロボット22に、例えば物体「ABC お茶」を持ってくるように指示できることが望ましい。 For example, in the display screen 21a of FIG. 27, when the triangular mark is not displayed and the user wants to bring either the object "ABC tea" or the object "S tea" as soon as possible, , the robot 22 may be instructed to bring, for example, the object "ABC Tea".

そこで、例えば、指示装置21は、図28に示されるように、表示画面21aに表示された物体画像161乃至165のうち、ユーザが持ってきて欲しいと思っている物体「十八茶」に対応する物体画像162を、ユーザの操作により指示できるようにしている。 Therefore, for example, as shown in FIG. 28, the instruction device 21 corresponds to the object "eighteen tea" that the user wants to bring among the object images 161 to 165 displayed on the display screen 21a. The object image 162 to be displayed can be designated by the user's operation.

なお、図28では、表示画面21aにおいて、例えば、三角印が表示されていない場合に、ユーザが持ってきて欲しいと思っている物体「十八茶」に対応する物体画像162が、ユーザの操作により指示されたことに対応して、太線の矩形で囲まれ、三角印で指示された物体画像162が表示されることとなる。 Note that in FIG. 28, for example, when the triangular mark is not displayed on the display screen 21a, the object image 162 corresponding to the object "eighteen tea" that the user wants to bring is displayed by the user's operation. , an object image 162 surrounded by a thick-line rectangle and indicated by a triangle is displayed.

また、例えば、図29に示されるような表示画面21aにおいて、物体画像181乃至187のうち、物体画像182に対応する物体「ABC お茶」を指し示す三角印が表示されている場合、ロボット22が、物体「ABC お茶」を持って帰るだろうと推測される。 Further, for example, in the display screen 21a as shown in FIG. 29, when a triangular mark pointing to the object "ABC tea" corresponding to the object image 182 among the object images 181 to 187 is displayed, the robot 22 It is speculated that he will return with the object "ABC Tea".

ユーザが、物体「ABC お茶」ではなく、物体「S茶」を持って帰って欲しいと思っている場合、指示装置21の操作部41を操作することにより、物体「ABC お茶」に代えて、物体画像184に対応する物体「S茶」を持ってくるように指示することができる。 When the user wishes to bring back the object "S tea" instead of the object "ABC tea", by operating the operation unit 41 of the instruction device 21, instead of the object "ABC tea", An instruction can be given to bring the object “S brown” corresponding to the object image 184 .

すなわち、例えば、ユーザは、図30に示されるように、表示画面21a上の物体画像184を、ポインタ(矢印)等により指定するようにして、物体画像184に対応する物体「S茶」を持ってくるように指示することができる。 That is, for example, as shown in FIG. 30, the user designates an object image 184 on the display screen 21a with a pointer (arrow) or the like, and holds an object "S brown" corresponding to the object image 184. You can tell it to come.

これにより、表示画面21aにおいて、物体画像182に対応する物体「ABC お茶」を指し示していた三角印(図29)に代えて、物体画像184に対応する物体「S茶」を指し示す三角印(図30)が表示されることとなる。 As a result, in the display screen 21a, the triangular mark (FIG. 29) pointing to the object "ABC tea" corresponding to the object image 182 is replaced with the triangular mark (FIG. 29) pointing to the object "S brown" corresponding to the object image 184. 30) is displayed.

<3.第2の実施の形態>
[表示画面21aを見ているユーザが、ロボット22に指示を与える場合の一例]
次に、図31乃至図38は、ユーザが、指示装置21の操作部41を操作して、ロボット22に指示を与えるためのフィードバック操作を行う場合の一例を示している。
<3. Second Embodiment>
[Example of a case where a user looking at the display screen 21a gives an instruction to the robot 22]
Next, FIGS. 31 to 38 show an example of a case where the user operates the operation section 41 of the instruction device 21 to perform a feedback operation for giving instructions to the robot 22. FIG.

図31は、ユーザが、指示装置21の表示画面21aを参照して、指示装置21の操作部41を用いて、フィードバック操作を行う場合の一例を示している。 FIG. 31 shows an example of a case where the user refers to the display screen 21a of the instruction device 21 and uses the operation section 41 of the instruction device 21 to perform a feedback operation.

図31には、表示画面21aに表示される物体画像201乃至204が示されている。なお、物体画像201及び202は、ロボット22の認識状態が「ターゲットである」であることを示す矩形で囲まれている。 FIG. 31 shows object images 201 to 204 displayed on the display screen 21a. The object images 201 and 202 are surrounded by a rectangle indicating that the recognition state of the robot 22 is "target".

また、物体画像203は、そのままの状態で表示され、物体「C炭酸ジュース」に対するロボット22の認識状態が「まだ分からない」ものであることを示している。さらに、物体画像204は、ロボット22の認識状態が「ターゲットではない」ことを示す斜線が付加されている。 The object image 203 is displayed as it is, indicating that the recognition state of the robot 22 with respect to the object "carbonated juice C" is "not yet understood". Further, the object image 204 is added with diagonal lines indicating that the recognition state of the robot 22 is "not a target".

ユーザは、指示装置21の操作部41を用いて、例えば、物体画像203が表す物体「C炭酸ジュース」の認識状態を、矢印221で示されるように、「まだ分からない」から「ターゲットである」に変更するフィードバック操作を行うことができる。 The user uses the operation unit 41 of the instruction device 21 to change, for example, the recognition state of the object “C carbonated juice” represented by the object image 203 from “not yet known” to “target” as indicated by an arrow 221 . You can perform a feedback operation to change to .

また、例えば、ユーザは、指示装置21の操作部41を用いて、物体画像202が表す物体「十八茶」の認識状態を、矢印222で示されるように、「ターゲットである」から「ターゲットではない」に変更するフィードバック操作を行うことができる。 Further, for example, the user uses the operation unit 41 of the instruction device 21 to change the recognition state of the object “eighteen tea” represented by the object image 202 from “target” to “target” as indicated by the arrow 222 . It is possible to perform a feedback operation to change to "is not".

制御部42は、操作部41からの、フィードバック操作に対応する操作信号に応じて、対応するフィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、ロボット22に供給する。 The control unit 42 generates corresponding feedback information according to an operation signal corresponding to the feedback operation from the operation unit 41 and supplies the corresponding feedback information to the communication unit 44 . The communication unit 44 supplies feedback information from the control unit 42 to the robot 22 .

ロボット22は、通信部44からのフィードバック情報に基づいて、物体のスコアを再計算し、その結果得られるスコアに基づいて、各物体の認識状態を変化させる。 The robot 22 recalculates the score of the object based on the feedback information from the communication unit 44, and changes the recognition state of each object based on the resulting score.

次に、図32は、指示装置21からのフィードバック情報に応じて、ロボット22の制御部66が、物体の認識状態を変化させる場合の一例を示している。 Next, FIG. 32 shows an example in which the controller 66 of the robot 22 changes the recognition state of the object according to the feedback information from the pointing device 21. As shown in FIG.

例えば、指示装置21において、ユーザが、操作部41を用いてフィードバック操作を行った場合、操作部41は、フィードバック操作に対応する操作信号を、制御部42に供給する。 For example, when the user performs a feedback operation using the operation unit 41 of the instruction device 21 , the operation unit 41 supplies an operation signal corresponding to the feedback operation to the control unit 42 .

制御部42は、操作部41からの操作信号に基づいて、フィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、ロボット22に送信する。 The control unit 42 generates feedback information based on the operation signal from the operation unit 41 and supplies the feedback information to the communication unit 44 . The communication unit 44 transmits feedback information from the control unit 42 to the robot 22 .

いまの場合、図31に示したように、例えば、ユーザが、指示装置21の操作部41を用いて、物体画像203が表す物体「C炭酸ジュース」の認識状態を、矢印221で示されるように、「まだ分からない」から「ターゲットである」に変更するフィードバック操作を行った場合を考える。 In this case, as shown in FIG. 31, for example, the user uses the operation unit 41 of the instruction device 21 to change the recognition state of the object “C carbonated juice” represented by the object image 203 as indicated by an arrow 221. Then, consider the case where a feedback operation is performed to change from "don't know yet" to "target".

この場合、ロボット22において、制御部66は、指示装置21の通信部44から通信部61を介して供給されるフィードバック情報に基づいて、物体「C炭酸ジュース」のスコアを再計算する。 In this case, in the robot 22 , the control unit 66 recalculates the score of the object “C carbonated juice” based on the feedback information supplied from the communication unit 44 of the instruction device 21 via the communication unit 61 .

これにより、制御部66は、再計算により得られた新たなスコアに基づいて、物体「C炭酸ジュース」の認識状態を、矢印2211で示されるように、「まだ分からない」から「ターゲットである」に決定(変更)する。 As a result, based on the new score obtained by recalculation, the control unit 66 changes the recognition state of the object "carbonated juice C" from "not yet known" to "target" as indicated by an arrow 2211. ” is decided (changed).

なお、フィードバック操作として、物体の認識状態を、「ターゲットかもしれない」から「ターゲットである」に変更するフィードバック操作が行われた場合、制御部66では以下の処理が行われる。すなわち、例えば、制御部66は、通信部61からのフィードバック情報に基づいて、物体の認識状態を、矢印2212で示されるように、「ターゲットかもしれない」から「ターゲットである」に決定する。 Note that when a feedback operation is performed to change the recognition state of an object from "may be a target" to "is a target" as a feedback operation, the control unit 66 performs the following processing. That is, for example, based on the feedback information from the communication unit 61, the control unit 66 determines the recognition state of the object from "may be a target" to "is a target" as indicated by an arrow 2212.

また、フィードバック操作として、物体の認識状態を、「ターゲットではない」から「ターゲットである」に変更するフィードバック操作が行われた場合、制御部66では以下の処理が行われる。すなわち、例えば、制御部66は、通信部61からのフィードバック情報に基づいて、物体の認識状態を、矢印2213で示されるように、「ターゲットではない」から「ターゲットである」に決定する。 Further, when a feedback operation is performed to change the recognition state of an object from "not a target" to "is a target" as a feedback operation, the control unit 66 performs the following processing. That is, for example, based on the feedback information from the communication unit 61, the control unit 66 determines the recognition state of the object from "not a target" to "is a target" as indicated by an arrow 2213.

さらに、例えば、図31に示したように、ユーザが、指示装置21の操作部41を用いて、物体画像202を表す物体「十八茶」の認識状態を、矢印222で示されるように、「ターゲットである」から「ターゲットではない」に変更するフィードバック操作を行った場合を考える。 Further, for example, as shown in FIG. 31, the user uses the operation unit 41 of the instruction device 21 to change the recognition state of the object "eighteen tea" representing the object image 202 as indicated by an arrow 222. Consider a feedback operation that changes from "target" to "not target".

この場合、制御部66は、図32に示されるように、通信部61からのフィードバック情報に基づいて、物体「十八茶」の認識状態を、矢印222で示されるように、「ターゲットである」から「ターゲットではない」に決定する。 In this case, as shown in FIG. 32, based on the feedback information from the communication unit 61, the control unit 66 changes the recognition state of the object "eighteen tea" to "target" as indicated by an arrow 222. ” to “not a target”.

[フィードバック操作の一例]
次に、図33乃至図38を参照して、ユーザが、指示装置21の表示画面21aを参照して、フィードバック操作を行う場合について説明する。
[Example of feedback operation]
Next, a case where the user refers to the display screen 21a of the instruction device 21 and performs a feedback operation will be described with reference to FIGS. 33 to 38. FIG.

指示装置21において、制御部42は、ロボット22から通信部44を介して供給されるロボット認識情報に基づいて、表示部43の表示画面21aに、例えば、図33に示されるような、物体画像241乃至244を含むロボット認識画像を表示させる。 In the pointing device 21, the control unit 42 displays an object image, for example, as shown in FIG. A robot recognition image including 241 to 244 is displayed.

また、ロボット22が、物体画像242が表す物体「スポドリンク」を「ターゲットである」と認識した場合、制御部42は、ロボット22から通信部44を介して送信されてくるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。 Further, when the robot 22 recognizes the object “Spodrink” represented by the object image 242 as “a target”, the control unit 42 based on the robot recognition information transmitted from the robot 22 via the communication unit 44 to display the robot recognition image on the display screen 21a.

これにより、表示画面21aには、図34に示されるように、物体画像241乃至244を含むロボット認識画像が表示される。 As a result, a robot recognition image including object images 241 to 244 is displayed on the display screen 21a as shown in FIG.

図34に示される表示画面21aでは、ロボット22が、ユーザが所望する物体「十八茶」(物体画像245が表す物体)とは異なる物体「スポドリンク」(物体画像242が表す物体)を、ターゲットとして認識していることが推測される。 On the display screen 21a shown in FIG. 34, the robot 22 displays the object "Spodrink" (the object represented by the object image 242) different from the object "Eighteen Tea" (the object represented by the object image 245) desired by the user. It is presumed that it is recognized as a target.

そして、ロボット22が、物体「スポドリンク」をターゲットとして持って帰る行動をとる場合、制御部42は、ロボット22から通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。 Then, when the robot 22 takes action to bring back the object “Spodrink” as a target, the control unit 42 displays the following on the display screen 21a based on the robot recognition information transmitted from the robot 22 via the communication unit 44. , to display the robot recognition image.

これにより、表示画面21aは、図35に示されるように、物体「スポドリンク」をターゲットとして持って帰ることを示す三角印が付加された物体画像242を表示する。 As a result, the display screen 21a displays an object image 242 added with a triangular mark indicating that the object "Spodrink" is to be brought home as a target, as shown in FIG.

この場合、ユーザは、図35に示されるように、指示装置21の操作部41を用いて、物体「スポドリンク」はターゲットではない旨を指示するフィードバック操作を行う。このとき、操作部41は、ユーザのフィードバック操作に対応する操作信号を、制御部42に供給する。 In this case, as shown in FIG. 35, the user uses the operation unit 41 of the instruction device 21 to perform a feedback operation to indicate that the object "Spodrink" is not the target. At this time, the operation unit 41 supplies an operation signal corresponding to the user's feedback operation to the control unit 42 .

制御部42は、操作部41からの操作信号に基づいて、フィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、ロボット22に送信する。この場合、例えば、ロボット22(制御部66)は、通信部44からのフィードバック情報に基づいて、物体「スポドリンク」のスコアを再計算する。 The control unit 42 generates feedback information based on the operation signal from the operation unit 41 and supplies the feedback information to the communication unit 44 . The communication unit 44 transmits feedback information from the control unit 42 to the robot 22 . In this case, for example, the robot 22 (control unit 66) recalculates the score of the object “Spodrink” based on the feedback information from the communication unit 44. FIG.

これにより、物体「スポドリンク」のスコアは、例えば、物体「十八茶」のスコアよりも低いスコアとされ、ロボット22は、物体「十八茶」をターゲットとして持って帰るように行動する。また、ロボット22は、再計算したスコアに基づいて、物体「スポドリンク」の認識状態を、「ターゲットである」から「ターゲットではない」に変更する。 As a result, the score of the object "Spodrink" is, for example, lower than the score of the object "18 tea", and the robot 22 acts to bring the object "18 tea" as a target. Also, the robot 22 changes the recognition state of the object "Spodrink" from "target" to "not a target" based on the recalculated score.

この場合、指示装置21において、制御部42は、ロボット22から通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。なお、ロボット認識情報には、少なくとも、ユーザのフィードバック操作に応じたフィードバック情報により再計算されたスコアが含まれる。 In this case, in the instruction device 21, the control unit 42 causes the display screen 21a to display a robot recognition image based on the robot recognition information transmitted from the robot 22 via the communication unit 44. FIG. Note that the robot recognition information includes at least a score recalculated based on feedback information according to the user's feedback operation.

これにより、表示画面21aは、図36に示されるように、物体「十八茶」をターゲットとして持って帰ることを示す三角印が付加された物体画像245を表示する。 As a result, the display screen 21a displays an object image 245 added with a triangular mark indicating that the object "eighteen tea" is to be brought home as a target, as shown in FIG.

なお、ユーザは、物体「スポドリンク」はターゲットではない旨を指示するフィードバック操作を行う他、例えば、図37に示されるように、物体「十八茶」がターゲットである旨を指示するフィードバック操作を行うようにしても良い。 Note that the user performs a feedback operation instructing that the object "Spodrink" is not the target, and also performs a feedback operation instructing that the object "eighteen tea" is the target, as shown in FIG. may be performed.

この場合、例えば、ロボット22(制御部66)は、通信部44からのフィードバック情報に基づいて、物体「十八茶」のスコアを再計算する。これにより、物体「十八茶」のスコアは、例えば、物体「スポドリンク」のスコアよりも高いスコアとされ、ロボット22は、物体「十八茶」をターゲットとして持って帰るように行動する。 In this case, for example, the robot 22 (control unit 66) recalculates the score of the object “eighteen tea” based on the feedback information from the communication unit 44. FIG. As a result, the score of the object "eighteen tea" is, for example, higher than the score of the object "spodrink", and the robot 22 acts to bring back the object "eighteen tea" as a target.

これに対して、指示装置21の制御部42は、ロボット22から通信部44を介して送信されるロボット認識情報に基づいて、表示画面21aに、ロボット認識画像を表示させる。 On the other hand, the control unit 42 of the instruction device 21 displays a robot recognition image on the display screen 21 a based on the robot recognition information transmitted from the robot 22 via the communication unit 44 .

これにより、表示画面21aは、図38に示されるように、物体「十八茶」をターゲットとして持って帰ることを示す三角印が付加された物体画像245を表示する。 As a result, the display screen 21a displays an object image 245 added with a triangular mark indicating that the object "eighteen tea" is to be brought home as a target, as shown in FIG.

なお、例えば、フィードバック操作により、物体がターゲットではない旨を指示する場合、ユーザは、操作部41を用いて、ターゲットではない物体(の物体画像)を指定し、
指定された物体を、ターゲットであるものとすることが考えられる。
Note that, for example, when instructing that the object is not the target by the feedback operation, the user uses the operation unit 41 to specify (an object image of) the object that is not the target,
It is conceivable that the specified object is the target.

この場合、制御部42は、ユーザにより指定された物体がターゲットではない旨を表すフィードバック情報を生成する。 In this case, the control unit 42 generates feedback information indicating that the object designated by the user is not the target.

また、例えば、フィードバック操作により、物体がターゲットではない旨を指示する場合、ユーザは、操作部41を用いて、ターゲットである物体(の物体画像)を指定し、指定されていない物体を、ターゲットではないものとすることが考えられる。 Further, for example, when instructing that the object is not the target by the feedback operation, the user uses the operation unit 41 to specify (the object image of) the object that is the target, and the unspecified object is the target. It is conceivable that it is not.

この場合、制御部42は、ユーザにより指定されていない物体がターゲットではない旨を表すフィードバック情報を生成する。 In this case, the control unit 42 generates feedback information indicating that an object not specified by the user is not the target.

なお、物体の指定は、指定したい表示画面21a上の物体を、枠などで囲むようにして指定するようにしてもよい。また、操作部41にマウスが含まれている場合には、指定したい表示画面21a上の物体に、カーソル等を移動させ、マウスの左クリック(シングルクリック又はダブルクリック)で物体を指定してもよい。 The object may be specified by enclosing the object on the display screen 21a to be specified with a frame or the like. If the operation unit 41 includes a mouse, the object can be specified by moving the cursor or the like to the object on the display screen 21a to be specified and left-clicking (single-clicking or double-clicking) the mouse. good.

さらに、指示装置21がパーソナルコンピュータなどであり、操作部41としてコントロールキーやシフトキーが設けられている場合には、コントロールキーやシフトキーを併用して左クリックを行うことにより、同時に、複数の物体を指定することができる。 Furthermore, if the pointing device 21 is a personal computer or the like, and a control key and a shift key are provided as the operation unit 41, a plurality of objects can be simultaneously moved by left-clicking using the control key and the shift key together. can be specified.

また、例えば、ユーザは、物体を指定した後、マウスを用いた右クリックにより表示される選択肢「ターゲットである」、「ターゲットでない」等のうち、選択肢「ターゲットでない」を選択することにより、指定済みの物体がターゲットではない旨を表すフィードバック操作を行うようにしてもよい。 Further, for example, after specifying an object, the user selects an option "not a target" from the options "is a target", "not a target", etc. displayed by right-clicking with a mouse. A feedback operation may be performed to indicate that the already-existing object is not the target.

さらに、例えば、ユーザは、指定済みの物体に対して、再度、マウスを用いた左クリックを行うことにより、物体の指定を解除することができる。その他、例えば、ユーザは、物体を、左クリックにより選択して、表示画面21aの枠外に投げ捨てるような投げ捨て操作を、物体が「ターゲットではない」旨を表すフィードバック操作として行うことができる。 Further, for example, the user can cancel the designation of the object by left-clicking the designated object again using the mouse. In addition, for example, the user can select an object by left-clicking and throw the object out of the frame of the display screen 21a as a feedback operation indicating that the object is not a target.

例えば、操作部41に「Enter」キーが含まれる場合、物体が指定されている状態で「Enter」キーを押下する押下操作を、指定された物体がターゲットである旨を表すフィードバック操作として採用することができる。 For example, when the operation unit 41 includes an "Enter" key, a pressing operation of pressing the "Enter" key while an object is specified is adopted as a feedback operation indicating that the specified object is the target. be able to.

また、例えば、操作部41に「Delete」キーが含まれる場合、物体が指定された状態で「Delete」キーを押下する押下操作を、指定された物体がターゲットではない旨を表すフィードバック操作として採用することができる。 Further, for example, if the operation unit 41 includes a "Delete" key, a pressing operation of pressing the "Delete" key while an object is specified is adopted as a feedback operation indicating that the specified object is not a target. can do.

その他、例えば、操作部41に「Tab」キーが含まれる場合、ユーザは、「Tab」キーが押下される毎に、表示画面21a上に表示されるフォーカスを移動させるようにすることができる。 In addition, for example, if the operation unit 41 includes a "Tab" key, the user can move the focus displayed on the display screen 21a each time the "Tab" key is pressed.

これらのことは、指定された物体がターゲットである旨を表すフィードバック操作を行う場合についても同様である。 The same applies to the feedback operation indicating that the designated object is the target.

[指示装置21が行うフィードバック処理について]
次に、図39のフローチャートを参照して、指示装置21が行うフィードバック処理について説明する。
[Feedback processing performed by the pointing device 21]
Next, feedback processing performed by the instruction device 21 will be described with reference to the flowchart of FIG. 39 .

なお、このフィードバック処理は、例えば、指示装置21の電源がオンされたときに開始される。また、表示画面21aには、物体画像が表示されているものとする。 This feedback process is started, for example, when the power of the pointing device 21 is turned on. It is also assumed that an object image is displayed on the display screen 21a.

ステップS61において、制御部42は、操作部41から、フィードバック操作に対応する操作信号が供給されたか否かに基づいて、ユーザによるフィードバック操作が行われたか否かを判定し、ユーザによるフィードバック操作が行われたと判定するまで、ステップS61の処理を繰り返して行う。 In step S<b>61 , the control unit 42 determines whether or not the user has performed a feedback operation based on whether or not an operation signal corresponding to the feedback operation has been supplied from the operation unit 41 . The process of step S61 is repeated until it is determined that the process has been performed.

ステップS61において、制御部42は、フィードバック操作に対応する操作信号が供給されたか否かに基づいて、ユーザによるフィードバック操作が行われたと判定した場合、処理をステップS62に進める。 If the control unit 42 determines in step S61 that the user has performed a feedback operation based on whether or not an operation signal corresponding to the feedback operation has been supplied, the process proceeds to step S62.

ステップS62において、制御部42は、ユーザによるフィードバック操作に基づいて、フィードバック情報を生成し、通信部44に供給する。 In step S<b>62 , the control unit 42 generates feedback information based on the user's feedback operation, and supplies the feedback information to the communication unit 44 .

ステップS63において、通信部44は、制御部42からのフィードバック情報を、無線通信等を用いて、ロボット22に送信し、処理をステップS61に戻し、それ以降、同様の処理が行われる。なお、このフィードバック処理は、例えば、指示装置21の電源がオフされたときに終了される。 In step S63, the communication unit 44 transmits the feedback information from the control unit 42 to the robot 22 using wireless communication or the like, returns the processing to step S61, and thereafter performs the same processing. Note that this feedback processing ends, for example, when the power of the pointing device 21 is turned off.

以上説明したように、フィードバック処理によれば、ユーザによるフィードバック操作に応じて、表示画面21aに表示された物体を、ターゲットである等と指示できるようにした。 As described above, according to the feedback processing, it is possible to instruct the object displayed on the display screen 21a to be the target, etc., according to the user's feedback operation.

このため、例えば、ロボット22が、ターゲットではない物体を、ターゲットとして認識している場合等に、指示装置21により、その物体が、ターゲットではないことをロボット22にフィードバックさせることが可能となる。 Therefore, for example, when the robot 22 recognizes an object that is not a target as a target, the pointing device 21 can feed back to the robot 22 that the object is not a target.

[ロボット22が行うスコア再計算処理について]
次に、図40のフローチャートを参照して、ロボット22が行うスコア再計算処理を説明する。
[Regarding the score recalculation process performed by the robot 22]
Next, the score recalculation process performed by the robot 22 will be described with reference to the flowchart of FIG.

なお、このスコア再計算処理は、例えば、ロボット22の電源がオンされたときに開始される。 Note that this score recalculation process is started, for example, when the power of the robot 22 is turned on.

ステップS81において、通信部61は、指示装置21からのフィードバック情報を受信するまで、ステップS81の処理を繰り返す。そして。ステップS81では、通信部61は、指示装置21からのフィードバック情報を受信した場合、受信したフィードバック情報を、制御部66に供給して、処理をステップS82に進める。 In step S<b>81 , the communication section 61 repeats the process of step S<b>81 until feedback information is received from the instruction device 21 . and. In step S81, when feedback information is received from the instruction device 21, the communication section 61 supplies the received feedback information to the control section 66, and the process proceeds to step S82.

ステップS82において、制御部66は、通信部61からのフィードバック情報に基づいて、物体のスコアを再計算して、処理をステップS83に進める。 In step S82, the control unit 66 recalculates the score of the object based on the feedback information from the communication unit 61, and advances the process to step S83.

ステップS83において、制御部66は、再計算したスコアに基づいて、ロボット認識情報を生成し、通信部61に供給して、処理をステップS84に進める。 In step S83, the control unit 66 generates robot recognition information based on the recalculated score, supplies it to the communication unit 61, and advances the process to step S84.

ステップS84では、通信部61は、制御部66からのロボット認識情報を、無線通信等により、指示装置21に送信して、処理をステップS81に戻し、それ以降、同様の処理が行われる。なお、このスコア再計算処理は、例えば、ロボット22の電源がオフされたときに終了される。 In step S84, the communication unit 61 transmits the robot recognition information from the control unit 66 to the instruction device 21 by wireless communication or the like, returns the process to step S81, and thereafter performs the same process. Note that this score recalculation process ends, for example, when the power of the robot 22 is turned off.

以上説明したように、スコア再計算処理によれば、指示装置21からのフィードバック情報に基づいて、スコアを再計算するようにしたので、ユーザからのフィードバックを反映したスコアを計算することができる。 As described above, according to the score recalculation process, the score is recalculated based on the feedback information from the instruction device 21, so the score reflecting the feedback from the user can be calculated.

<4.第2の実施の形態の変形例>
第2の実施の形態では、ユーザが、表示画面21aを参照して、所定の物体が、ターゲットである旨又はターゲットではない旨のフィードバック操作を行うようにしたが、ユーザによるフィードバック操作は、これに限定されない。
<4. Modification of Second Embodiment>
In the second embodiment, the user refers to the display screen 21a and performs a feedback operation indicating that a predetermined object is a target or not. is not limited to

すなわち、例えば、表示画面21aに、図41に示されるようにして、物体261乃至263が1つの物体として表示される場合、ロボット22は、物体261乃至物体263を1つの物体として認識しているものとなる。 That is, for example, when the objects 261 to 263 are displayed as one object on the display screen 21a as shown in FIG. 41, the robot 22 recognizes the objects 261 to 263 as one object. become a thing.

この場合、ユーザは、指示装置21の操作部41を用いて、例えば、1つの物体が表示された領域を指定するフィードバック操作を行うようにして、ロボット22に、物体261乃至263を、それぞれ、1つの物体として認識させるようにすることができる。 In this case, the user uses the operation unit 41 of the instruction device 21 to perform a feedback operation of specifying, for example, a region in which one object is displayed, so that the objects 261 to 263 are displayed on the robot 22, respectively. It can be made to recognize as one object.

なお、1つの物体が表示された領域を指定するフィードバック操作は、例えば、操作部41にマウスが含まれる場合、マウスを用いて、1つの物体が表示された領域を指定し、右クリックにより表示される選択肢「分離」を選択するようにして行われる。 Note that the feedback operation for designating an area in which one object is displayed is, for example, when the operation unit 41 includes a mouse, the mouse is used to designate an area in which one object is displayed, and the display is performed by right-clicking. This is done by selecting the option "separate".

そして、制御部42は、操作部41から、フィードバック操作に対応する操作信号が供給されたことに対応して、フィードバック情報を生成し、通信部44に供給する。通信部44は、制御部42からのフィードバック情報を、無線通信等によりロボット22に送信する。 Then, in response to the supply of the operation signal corresponding to the feedback operation from the operation unit 41 , the control unit 42 generates feedback information and supplies the feedback information to the communication unit 44 . The communication unit 44 transmits feedback information from the control unit 42 to the robot 22 by wireless communication or the like.

ロボット22において、通信部61は、通信部44からのフィードバック情報を制御部66に供給する。制御部66は、通信部61からのフィードバック情報に基づいて、1つの物体として認識していた物体261乃至263を、それぞれ、1つの物体261,262,263として認識する。 In the robot 22 , the communication section 61 supplies feedback information from the communication section 44 to the control section 66 . Based on the feedback information from the communication unit 61, the control unit 66 recognizes the objects 261 to 263, which have been recognized as one object, as one object 261, 262, and 263, respectively.

また、制御部66は、1つの物体として認識した物体261、物体262、物体263についてのスコアを計算し、その計算結果などに基づいて、ロボット認識情報を生成し、通信部61を介して、指示装置21に送信する。 In addition, the control unit 66 calculates the scores for the objects 261, 262, and 263 recognized as one object, generates robot recognition information based on the calculation results, etc., and via the communication unit 61, Send to the pointing device 21 .

指示装置21では、制御部42は、ロボット22の通信部61から、通信部44を介して送信されるロボット認識情報に基づいて、表示部43の表示画面21aに、図42に示されるようなロボット認識画像を表示させる。 In the instruction device 21, the control unit 42 causes the display screen 21a of the display unit 43 to display an image as shown in FIG. Display the robot recognition image.

また、例えば、1つの物体とされるべきもの(例えば、同時に使用されるナイフ、フォーク、及びスプーンのセット等)が、分離して複数の物体として表示画面21aに表示される場合には、ユーザは、指示装置21の操作部41を用いて、例えば、分離して表示された複数の物体を含む領域を指定するフィードバック操作を行うようにして、ロボット22に、分離して表示された複数の物体を、1つの物体として認識させるようにすることができる。 Also, for example, when an item that should be regarded as one object (for example, a set of knives, forks, and spoons that are used at the same time) is displayed as a plurality of separate objects on the display screen 21a, the user uses the operation unit 41 of the instruction device 21 to perform, for example, a feedback operation to designate an area including a plurality of objects displayed separately, so that the robot 22 displays the plurality of objects displayed separately. Objects can be made to be recognized as one object.

なお、分離して表示された複数の物体を含む領域を指定するフィードバック操作は、例えば、操作部41にマウスが含まれる場合、マウスを用いて、各物体が表示された領域をそれぞれ指定し、右クリックにより表示される選択肢「マージ」を選択するようにして行われる。 Note that the feedback operation for designating an area containing a plurality of objects displayed separately is, for example, when a mouse is included in the operation unit 41, using the mouse to designate an area in which each object is displayed, This is done by selecting the option "Merge" displayed by right-clicking.

ところで、例えば、第2の実施の形態では、表示画面21aに表示された物体に対して、フィードバック操作を行うようにした。 By the way, for example, in the second embodiment, a feedback operation is performed on an object displayed on the display screen 21a.

しかしながら、その他、例えば、撮像画像上の物体が、制御部66により検知されていない場合には、撮像画像上の、未検知の物体を含む領域を指定する領域指定操作により、未検知の物体を、物体としてロボット22に検知(認識)させるようにすることができる。 However, in addition, for example, when an object on the captured image is not detected by the control unit 66, the undetected object is detected by an area specifying operation for specifying an area including the undetected object on the captured image. , can be detected (recognized) by the robot 22 as an object.

これにより、ロボット22は、図43に示されるように、未検知(検出)の物体を検知し、検知した物体の認識状態を、「未検出」から「まだ分からない」に決定することとなる。 As a result, the robot 22 detects an undetected (detected) object, and determines the recognition state of the detected object from "undetected" to "not yet known", as shown in FIG. .

すなわち、例えば、ユーザは、指示装置21の操作部41を用いて、ロボット22が物体を探索するための探索範囲を指定する領域指定操作を行うようにして、ロボット22に探索範囲内での探索を行わせるようにすることができる。 That is, for example, the user uses the operation unit 41 of the instruction device 21 to perform an area designation operation for designating a search range for the robot 22 to search for an object, so that the robot 22 can search within the search range. can be made to occur.

<5.第3の実施の形態>
次に、図44は、撮像画像を用いて、探索範囲を指定する場合の一例を示している。
<5. Third Embodiment>
Next, FIG. 44 shows an example of specifying a search range using a captured image.

例えば、ロボット認識情報に、撮像画像として、図44Aに示されるような周囲画像31が含まれる場合、指示装置21の制御部42は、そのロボット認識情報に基づいて、表示画面21aに周囲画像31を表示することとなる。 For example, when the robot recognition information includes a surrounding image 31 as shown in FIG. 44A as a captured image, the controller 42 of the pointing device 21 displays the surrounding image 31 on the display screen 21a based on the robot recognition information. will be displayed.

この場合、ユーザは、指示装置21の操作部41を用いて、図44Aに示されるように、表示画面21aに表示された周囲画像31上の部分領域281を、ターゲットを探索する探索範囲に対応する領域として指定する領域指定操作を行うことができる。 In this case, the user uses the operation unit 41 of the instruction device 21 to set a partial area 281 on the surrounding image 31 displayed on the display screen 21a to correspond to the search range for searching for the target, as shown in FIG. 44A. It is possible to perform an area specification operation to specify an area to be used.

これにより、操作部41は、ユーザの領域指定操作が行われたことに応じて、対応する操作信号を、制御部42に供給する。 Thereby, the operation unit 41 supplies the corresponding operation signal to the control unit 42 in response to the user's region designation operation.

制御部42は、操作部41からの操作信号に応じて、周囲画像31上の全領域のうち、ユーザの領域指定操作により指定された部分領域281を表す指定範囲情報を生成し、通信部44に供給する。通信部44は、制御部42からの指定範囲情報を、ロボット22に送信する。 In response to an operation signal from the operation unit 41 , the control unit 42 generates specified range information representing the partial area 281 specified by the user's area specifying operation, out of the entire area on the surrounding image 31 . supply to The communication unit 44 transmits the designated range information from the control unit 42 to the robot 22 .

これに対して、ロボット22の通信部61は、指示装置21の通信部44からの指定範囲情報を受信し、制御部66に供給する。制御部66は、通信部61からの指定範囲情報に基づいて、記憶部68に保持されている周囲画像31上の部分領域281を検出する。 On the other hand, the communication section 61 of the robot 22 receives the designated range information from the communication section 44 of the pointing device 21 and supplies it to the control section 66 . Based on the designated range information from the communication unit 61 , the control unit 66 detects the partial area 281 on the surrounding image 31 held in the storage unit 68 .

そして、制御部66は、部分領域281上の各物体に対応付けられた複数の3次元位置を、記憶部68から読み出し、読み出した複数の3次元位置に基づいて、ターゲットを探索するための探索範囲を算出(特定)する。 Then, the control unit 66 reads a plurality of three-dimensional positions associated with each object on the partial area 281 from the storage unit 68, and based on the read-out plurality of three-dimensional positions, performs a search for searching for a target. Calculate (specify) the range.

なお、制御部66が、探索範囲を算出する算出方法は、これに限定されない。すなわち、例えば、制御部66は、部分領域281に3次元位置等が対応付けられていなくても、部分領域281や、カメラ62の有効視野角、有効画素数、位置、及び向き等を表すパラメータから、探索範囲を算出することができる。 Note that the calculation method by which the control unit 66 calculates the search range is not limited to this. That is, for example, even if the partial area 281 is not associated with a three-dimensional position or the like, the control unit 66 can set parameters representing the partial area 281, the effective viewing angle, the number of effective pixels, the position, the orientation, and the like of the camera 62. , the search range can be calculated.

この場合、記憶部68には、例えば、周囲画像31に対応付けて、撮像により周囲画像31が得られた撮像時刻とともに、撮像時刻におけるカメラ62の位置及び向き等を表す第1のパラメータが、カメラ62の撮像時に、制御部66により記憶されるものとする。また、記憶部68には、カメラ62の有効視野角及び有効画素数等を表す第2のパラメータが予め記憶されているものとする。 In this case, in the storage unit 68, for example, a first parameter representing the position and orientation of the camera 62 at the imaging time is stored in association with the surrounding image 31, together with the imaging time at which the surrounding image 31 was obtained by imaging. It is assumed that the information is stored by the control unit 66 when the camera 62 takes an image. It is also assumed that the storage unit 68 stores in advance a second parameter representing the effective viewing angle, the number of effective pixels, and the like of the camera 62 .

すなわち、例えば、制御部66は、撮像により周囲画像31が得られた撮像時刻におけるカメラ62の位置及び向き等を表す第1のパラメータと、カメラ62の有効視野角及び有効画素数等を表す第2のパラメータを、記憶部68から読み出す。 That is, for example, the control unit 66 sets a first parameter representing the position, orientation, and the like of the camera 62 at the imaging time when the surrounding image 31 was captured, and a 2 parameters are read from the storage unit 68 .

そして、制御部66は、第1及び第2のパラメータを用いることにより、周囲画像31上を占める部分領域281から、部分領域281に対応する3次元的な視野範囲、つまり、撮像時刻において、部分領域281として撮像された実空間上の領域を特定する。 Then, by using the first and second parameters, the control unit 66 determines, from the partial area 281 occupying the surrounding image 31, the three-dimensional visual field range corresponding to the partial area 281, that is, at the imaging time, the partial A region on the real space imaged as the region 281 is specified.

なお、探索範囲としては、視野範囲のうち、ロボット22が行動可能な領域が採用される。 As the search range, an area in which the robot 22 can act within the visual field range is adopted.

制御部66は、駆動部67を制御して、ロボット22の手や足に相当する部位を駆動させ、算出した探索範囲内でターゲットを探索する動作を実行させる。 The control unit 66 controls the driving unit 67 to drive the parts corresponding to the hands and feet of the robot 22 to perform the operation of searching for the target within the calculated search range.

また、例えば、ロボット認識情報に、図44Bに示されるような部分画像35が含まれる場合、指示装置21の制御部42は、そのロボット認識情報に基づいて、表示画面21aに部分画像35を表示することとなる。 Further, for example, when the robot recognition information includes a partial image 35 as shown in FIG. 44B, the controller 42 of the pointing device 21 displays the partial image 35 on the display screen 21a based on the robot recognition information. It will be done.

この場合、ユーザは、指示装置21の操作部41を操作して、表示画面21aに表示された部分画像35上の物体「りんごジュース」を検知させるように、部分画像35上の部分領域282を指定する領域指定操作を行うことができる。 In this case, the user operates the operation unit 41 of the instruction device 21 to move the partial area 282 on the partial image 35 so that the object "apple juice" on the partial image 35 displayed on the display screen 21a is detected. It is possible to perform area specification operation to specify.

これにより、ロボット22は、部分画像35上の部分領域282に対応する探索範囲内でターゲットを探索する動作を実行することとなる。よって、物体「りんごジュース」をロボット22に検知させることができる。 As a result, the robot 22 will perform the operation of searching for the target within the search range corresponding to the partial area 282 on the partial image 35 . Therefore, the robot 22 can detect the object "apple juice".

なお、部分画像35としては、例えば、ユーザの領域指定操作により指定された領域を、より近距離で撮像した場合に得られる撮像画像や、過去の撮像により得られた撮像画像の一部分の画像を採用することができる。 Note that the partial image 35 may be, for example, a captured image obtained when the region specified by the user's region specifying operation is captured at a closer distance, or a partial image of a captured image obtained in the past. can be adopted.

次に、図45は、室内の空間図を用いて、探索範囲を指定する場合の一例を示している。 Next, FIG. 45 shows an example of designating a search range using an indoor space map.

例えば、ロボット認識情報に、図45に示されるような空間画像301(室内の空間図を表す画像)が含まれる場合、指示装置21の制御部42は、そのロボット認識情報に基づいて、表示画面21aに空間画像301を表示することとなる。なお、記憶部45に、予め空間画像301を保持するように構成すれば、制御部42は、記憶部45から空間画像301を読み出して、表示画面21aに表示することとなる。 For example, when the robot recognition information includes a spatial image 301 (an image representing an indoor space diagram) as shown in FIG. A spatial image 301 is displayed on 21a. If the storage unit 45 is configured to hold the spatial image 301 in advance, the control unit 42 reads the spatial image 301 from the storage unit 45 and displays it on the display screen 21a.

この場合、ユーザは、指示装置21の操作部41を操作して、表示画面21aに表示された空間画像301上の部分領域321を、探索範囲として指定する領域指定操作を行うようことができる。 In this case, the user can operate the operation unit 41 of the instruction device 21 to perform an area designation operation for designating a partial area 321 on the spatial image 301 displayed on the display screen 21a as a search range.

これにより、操作部41は、ユーザの領域指定操作が行われたことに応じて、対応する操作信号を、制御部42に供給する。 Thereby, the operation unit 41 supplies the corresponding operation signal to the control unit 42 in response to the user's region designation operation.

制御部42は、操作部41からの操作信号に応じて、空間画像301上の全領域のうち、ユーザの領域指定操作により指定された部分領域321を表す指定範囲情報を生成し、通信部44に供給する。通信部44は、制御部42からの指定範囲情報を、ロボット22に送信する。なお、指定範囲情報は、ロボット22が、ターゲットを探索するための探索範囲を特定(把握)するための特定情報として用いられる。 In response to an operation signal from the operation unit 41 , the control unit 42 generates specified range information representing the partial area 321 specified by the user's area specifying operation, out of the entire area on the spatial image 301 , and transmits the specified range information to the communication unit 44 . supply to The communication unit 44 transmits the designated range information from the control unit 42 to the robot 22 . The designated range information is used as specific information for the robot 22 to identify (grasp) the search range for searching for the target.

これに対して、ロボット22の通信部61は、指示装置21の通信部44からの指定範囲情報を受信し、制御部66に供給する。制御部66は、通信部61からの指定範囲情報に基づいて、記憶部68に保持されている空間画像301上の部分領域321を検出する。 On the other hand, the communication section 61 of the robot 22 receives the designated range information from the communication section 44 of the pointing device 21 and supplies it to the control section 66 . Based on the designated range information from the communication unit 61 , the control unit 66 detects a partial area 321 on the spatial image 301 held in the storage unit 68 .

そして、制御部66は、部分領域321を構成する各小領域に対応付けられた複数の3次元位置を、記憶部68から読み出し、読み出した複数の3次元位置に基づいて、探索範囲を算出する。 Then, the control unit 66 reads out from the storage unit 68 a plurality of three-dimensional positions associated with each small region that constitutes the partial region 321, and calculates a search range based on the read out plurality of three-dimensional positions. .

制御部66は、駆動部67を制御して、ロボット22の手や足に相当する部位を駆動させ、算出した探索範囲内でターゲットを探索する動作を実行させる。なお、制御部66は、通信部61からの指示情報に基づいて、その指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとして、探索範囲内で探索する動作を実行させる。また、例えば、制御部66は、指示装置21から通信部61を介して指示情報を受信していない場合、ターゲットを自律的に決定して、探索範囲内を探索する動作を実行させる。 The control unit 66 controls the driving unit 67 to drive the parts corresponding to the hands and feet of the robot 22 to perform the operation of searching for the target within the calculated search range. Based on the instruction information from the communication unit 61, the control unit 66 causes an object belonging to the category indicated by the category information included in the instruction information to be searched within the search range as a target. Further, for example, when the control unit 66 does not receive instruction information from the instruction device 21 via the communication unit 61, the control unit 66 autonomously determines the target and causes the search range to be searched.

これにより、ロボット22は、空間画像301上の部分領域321に対応する探索範囲内でターゲットを探索する動作を実行することとなる。 As a result, the robot 22 performs an operation of searching for the target within the search range corresponding to the partial area 321 on the spatial image 301 .

なお、表示画面21aに空間画像301が表示されている場合、ユーザが、操作部41を用いて、例えば、空間画像301上の全領域のうち、部分領域322を選択したときには、部分領域322内での撮像により得られた撮像画像341を、表示画面21aに表示させることができる。 Note that when the spatial image 301 is displayed on the display screen 21a, for example, when the user uses the operation unit 41 to select the partial area 322 from the entire area on the spatial image 301, the partial area 322 A captured image 341 obtained by capturing an image at 1 can be displayed on the display screen 21a.

すなわち、例えば、指示装置21において、制御部42は、ロボット22から通信部44を介して送信されてくるロボット認識情報を、記憶部45に供給して記憶させている。 That is, for example, in the pointing device 21, the control unit 42 supplies the robot recognition information transmitted from the robot 22 via the communication unit 44 to the storage unit 45 and stores the information.

したがって、記憶部45には、図45に示されるような空間画像301とともに、撮像画像341が、空間画像301上の部分領域322に対応付けられて記憶されている。 Therefore, the storage unit 45 stores a spatial image 301 as shown in FIG.

このため、制御部42は、ユーザにより部分領域322の選択が行われた場合、記憶部45から、ユーザにより選択された部分領域322に対応する撮像画像341を読み出し、図45に示されるようにして、表示画面21aに表示させる。 Therefore, when the partial area 322 is selected by the user, the control unit 42 reads out the captured image 341 corresponding to the partial area 322 selected by the user from the storage unit 45, and displays it as shown in FIG. to display it on the display screen 21a.

そして、ユーザは、操作部41を用いて、表示画面21aに表示された撮像画像341に対して、図44Bを参照した場合と同様にして、撮像画像341上の部分領域361を指定する領域指定操作を行うことができる。 Then, the user uses the operation unit 41 to designate a partial area 361 on the captured image 341 displayed on the display screen 21a in the same manner as in the case of referring to FIG. 44B. operation can be performed.

これにより、ロボット22は、撮像画像341上の部分領域361に対応する探索範囲内でターゲットを探索する動作を実行することとなる。 As a result, the robot 22 performs the operation of searching for the target within the search range corresponding to the partial area 361 on the captured image 341 .

なお、撮像画像341は、ロボット認識情報に含まれた状態で、ロボット22から指示装置21に送信される。 Note that the captured image 341 is transmitted from the robot 22 to the pointing device 21 while being included in the robot recognition information.

ところで、ロボット22から指示装置21に送信されるロボット認識情報は、無線通信等におけるデータの輻輳を避けるために、少ないデータ量であることが望ましい。 By the way, the robot recognition information transmitted from the robot 22 to the instruction device 21 is desirably a small amount of data in order to avoid data congestion in wireless communication or the like.

そこで、例えば、ロボット22が、撮像画像341を、ロボット認識情報に含めて送信する場合には、図46Bに示される高画質な撮像画像341のデータ量を少なくした、図46Aに示されるような低画質の撮像画像341'を送信するようにしてもよい。なお、この撮像画像341'は、ユーザによる領域の指定等には用いられず、例えば、物体「りんごジュース」の物体画像を、表示画面21aに表示する際に用いられる。また、ユーザによる領域の指定等に用いられる撮像画像は、高画質のままで送信され、表示画面21aに表示されることが望ましい。 Therefore, for example, when the robot 22 transmits the captured image 341 included in the robot recognition information, the data amount of the high-quality captured image 341 shown in FIG. 46B is reduced, as shown in FIG. A captured image 341' of low image quality may be transmitted. Note that this captured image 341' is not used for designation of an area by the user, but is used, for example, when displaying an object image of an object "apple juice" on the display screen 21a. Also, it is desirable that the captured image used for designation of an area by the user is transmitted with high image quality and displayed on the display screen 21a.

撮像画像341'は、撮像画像341'上の全領域のうち、物体(「りんごジュース」のペットボトル)が写る部分領域381は、物体画像として用いるため、高画質とされ、それ以外の部分(斜線で示される部分)は、低画質とされている。 Of the entire region of the captured image 341′, a partial region 381 in which an object (“apple juice” PET bottle) is captured is used as an object image, so that the image quality is set to high. The shaded area) is considered to be of low image quality.

すなわち、例えば、部分領域381は、高解像度又はカラーとされ、部分領域381以外は、低解像度又はモノクロとされる。 That is, for example, the partial area 381 is high resolution or color, and the areas other than the partial area 381 are low resolution or monochrome.

[指示装置21が行う領域指定処理について]
次に、図47のフローチャートを参照して、指示装置21が行う領域指定処理について説明する。
[Regarding area designation processing performed by the pointing device 21]
Next, with reference to the flowchart of FIG. 47, the area specifying process performed by the pointing device 21 will be described.

ステップS101において、通信部44は、ロボット22からのロボット認識情報を受信して、制御部42に供給する。なお、ロボット認識情報には、例えば、撮像画像として、周囲画像31が含まれているものとする。 In step S<b>101 , the communication unit 44 receives robot recognition information from the robot 22 and supplies it to the control unit 42 . It should be noted that the robot recognition information includes, for example, the surrounding image 31 as a captured image.

ステップS102において、制御部42は、通信部44からのロボット認識情報に含まれる周囲画像31を、表示部43に供給して、表示部43の表示画面21aに表示させる。 In step S<b>102 , the control unit 42 supplies the surrounding image 31 included in the robot recognition information from the communication unit 44 to the display unit 43 to display it on the display screen 21 a of the display unit 43 .

ステップS103において、制御部42は、操作部41から、ユーザの領域指定操作に対応する操作信号が供給されたか否かに応じて、ユーザによる領域指定操作が行われたか否かを判定する。なお、領域指定操作とは、例えば、表示画面21aに表示された周囲画像31上の全領域のうち、所定の部分領域281を指定する操作をいう。 In step S<b>103 , the control unit 42 determines whether or not the user has performed an area designation operation, depending on whether or not an operation signal corresponding to the user's area designation operation has been supplied from the operation unit 41 . Note that the area designation operation is, for example, an operation of designating a predetermined partial area 281 out of the entire area on the surrounding image 31 displayed on the display screen 21a.

そして、ステップS103では、制御部42は、操作部41からの操作信号に応じて、ユーザの領域指定操作が行われたと判定するまで、ステップS103の処理を繰り返して行う。 In step S<b>103 , the control unit 42 repeats the process of step S<b>103 in response to the operation signal from the operation unit 41 until it determines that the user has performed the region specifying operation.

ステップS103において、制御部42は、ユーザの領域指定操作が行われたと判定した場合、処理をステップS104に進める。この場合、操作部41から制御部42には、ユーザの領域指定操作に対応する操作信号が供給される。 In step S103, when the control unit 42 determines that the user has performed the region specifying operation, the process proceeds to step S104. In this case, an operation signal corresponding to the user's region designation operation is supplied from the operation unit 41 to the control unit 42 .

ステップS104において、制御部42は、操作部41からの操作信号に応じて、周囲画像31上の、領域指定操作により指定された部分領域281を表す指定範囲情報を生成し、通信部44に供給する。なお、指定範囲情報は、ロボット22が、ターゲットを探索するための探索範囲を特定(把握)するための特定情報として用いられる。 In step S<b>104 , the control unit 42 generates specified range information representing the partial area 281 specified by the area specifying operation on the surrounding image 31 according to the operation signal from the operation unit 41 , and supplies it to the communication unit 44 . do. The designated range information is used as specific information for the robot 22 to identify (grasp) the search range for searching for the target.

ステップS105では、通信部44は、制御部42からの指定範囲情報を、無線通信等を用いて、ロボット22に供給し、ロボット22に、探索範囲で探索を行わせる。以上で、この領域指定処理は終了される。 In step S105, the communication unit 44 supplies the specified range information from the control unit 42 to the robot 22 using wireless communication or the like, and causes the robot 22 to search within the search range. This is the end of the area designation process.

以上説明したように、領域指定処理によれば、ユーザによる領域指定操作により、ロボット22がターゲットを探索する探索範囲を指示できるようにしたので、例えば、ユーザが所望する範囲内を、ロボット22に探索させることが可能となる。 As described above, according to the region designation process, the user can designate a search range in which the robot 22 searches for a target. It is possible to explore.

特に、例えば、ユーザによる領域指定操作により、ロボット22が未検知の物体を少なくとも含む範囲を、探索範囲として指定することで、ロボット22に、未検知の物体を検知させるようにすることが可能となる。 In particular, for example, the robot 22 can be made to detect an undetected object by designating a range including at least an undetected object by the robot 22 as a search range through an area designation operation by the user. Become.

[ロボット22が行う探索処理について]
次に、図48のフローチャートを参照して、ロボット22が行う探索処理について説明する。
[Regarding the search process performed by the robot 22]
Next, the search processing performed by the robot 22 will be described with reference to the flowchart of FIG.

ステップS121において、通信部61は、指示装置21の通信部44からの指定範囲情報を受信し、制御部66に供給する。なお、ステップS121は、後述するステップa122及びステップS123と並行して行われる。すなわち、例えば、通信部61は、ステップS122又はステップS122の処理が実行中でも、指示装置21の通信部44からの指定範囲情報を受信することができる。 In step S<b>121 , the communication section 61 receives the specified range information from the communication section 44 of the pointing device 21 and supplies it to the control section 66 . Note that step S121 is performed in parallel with steps a122 and S123, which will be described later. That is, for example, the communication section 61 can receive the designated range information from the communication section 44 of the pointing device 21 even while the process of step S122 or step S122 is being executed.

ステップS122において、制御部66は、通信部61からの指定範囲情報に基づいて、記憶部68に保持されている周囲画像31上の部分領域281を検出する。 In step S<b>122 , the control unit 66 detects the partial area 281 on the surrounding image 31 held in the storage unit 68 based on the specified range information from the communication unit 61 .


そして、制御部66は、部分領域281を構成する各小領域に対応付けられた複数の3次元位置を、記憶部68から読み出し、読み出した複数の3次元位置に基づいて、探索範囲を算出(特定)する。
r
Then, the control unit 66 reads from the storage unit 68 a plurality of three-dimensional positions associated with each small region that constitutes the partial region 281, and calculates a search range based on the read-out plurality of three-dimensional positions ( Identify.

ステップS123において、制御部66は、算出した探索範囲で、ロボット22がターゲットを探索できるように、駆動部67を駆動させる。なお、制御部66は、例えば、通信部61からの指示情報に基づいて、その指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとするようにしている。以上で、探索処理は終了される。 In step S123, the control unit 66 drives the driving unit 67 so that the robot 22 can search for the target within the calculated search range. For example, based on instruction information from the communication unit 61, the control unit 66 targets an object belonging to a category represented by category information included in the instruction information. With this, the search processing is terminated.

以上説明したように、探索処理では、ユーザの領域指定操作により指定された探索範囲内で、ターゲットを探索するようにした。 As described above, in the search process, the target is searched within the search range designated by the user's region designation operation.

このため、例えば、ユーザによる領域指定操作により、ロボット22が未検知の物体を少なくとも含む範囲が、探索範囲として指定された場合、ロボット22により、未検知の物体を検知することが可能となる。 Therefore, for example, when a range including at least an undetected object by the robot 22 is specified as a search range by the user's region specifying operation, the robot 22 can detect the undetected object.

なお、物体そのものではなく、ユーザの領域指定操作により探索範囲を指定するようにしているのは、ロボット22が未検知の物体を指定することができないためである。 The reason why the search range is specified by the user's area specifying operation rather than the object itself is that the robot 22 cannot specify an undetected object.

よって、ユーザは、ロボット22が未検知の物体を含む探索範囲を指定することにより、ロボット22に、指定された探索範囲を探索させて、未検知の物体を検知させることができる。 Therefore, by designating a search range that includes an undetected object by the robot 22, the user can cause the robot 22 to search the designated search range and detect the undetected object.

また、領域指定処理のステップS103において、例えば、ユーザが、表示画面21aに表示された周囲画像31上の全領域のうち、所定の部分領域281を指定するようにして、探索範囲を指定するようにしたが、探索範囲の指定方法は、これに限定されない。 Further, in step S103 of the region designation process, for example, the user designates a predetermined partial region 281 out of the entire region on the surrounding image 31 displayed on the display screen 21a, thereby designating the search range. However, the method of specifying the search range is not limited to this.

すなわち、例えば、指示装置21が、ユーザを撮像して得られる撮像画像から、ユーザのジェスチャやポスチャ等(以下、ジェスチャ等という)を認識できる場合には、ユーザは、ジェスチャ等により、探索範囲を指定することができる。 That is, for example, if the instruction device 21 can recognize a user's gesture, posture, or the like (hereinafter referred to as a gesture or the like) from a captured image obtained by imaging the user, the user can use the gesture or the like to define the search range. can be specified.

また、例えば、指示装置21が、音声を認識できる場合には、ユーザは、音声により、探索範囲を指定することができる。この場合、ユーザは、例えば、探索範囲として、「台所」や「ぼくの部屋」等と発話することで、探索範囲を指定することができる。 Further, for example, when the instruction device 21 can recognize voice, the user can specify the search range by voice. In this case, the user can specify the search range by saying, for example, "kitchen" or "my room" as the search range.

このような場合、その他、例えば、ユーザは、音声やジェスチャ等により、ターゲットとされる物体のカテゴリを指定(指示)することもできる。これにより、指示装置21では、ユーザに指定されたカテゴリを表すカテゴリ情報を含む指示情報が生成される。 In such a case, for example, the user can specify (indicate) the category of the target object by voice, gesture, or the like. As a result, the instruction device 21 generates instruction information including category information representing the category designated by the user.

さらに、例えば、ロボット22が、ユーザを撮像して得られる撮像画像からジェスチャ等を認識できる場合には、ユーザは、ジェスチャ等により、直接に、ロボット22に対して探索範囲を指定することができる。 Furthermore, for example, if the robot 22 can recognize a gesture or the like from a captured image obtained by imaging the user, the user can directly designate a search range to the robot 22 by the gesture or the like. .

この場合、例えば、制御部66は、カメラ62からの撮像画像に基づいて、ユーザのジェスチャを認識し、その認識結果を、探索範囲を特定するために用いられる特定情報として取得(生成)する。そして、制御部66は、取得した特定情報を用いて、探索範囲を特定し、駆動部67を制御して、特定した探索範囲でロボット22に探索を行なわせる。 In this case, for example, the control unit 66 recognizes the user's gesture based on the captured image from the camera 62, and acquires (generates) the recognition result as specific information used to specify the search range. Then, the control unit 66 specifies the search range using the acquired specific information, and controls the drive unit 67 to cause the robot 22 to search within the specified search range.

また、例えば、ロボット22が、音声を認識できる場合には、ユーザは、音声により、直接に、ロボット22に対して探索範囲を指定することができる。 Also, for example, if the robot 22 can recognize voice, the user can directly designate a search range for the robot 22 by voice.

この場合、例えば、制御部66は、マイクロホン64から入力されるユーザの音声に基づいて、ユーザの音声を認識し、その認識結果を、特定情報として取得(生成)する。そして、制御部66は、取得した特定情報を用いて、探索範囲を特定し、駆動部67を制御して、特定した探索範囲でロボット22に探索を行なわせる。 In this case, for example, the control unit 66 recognizes the user's voice based on the user's voice input from the microphone 64, and acquires (generates) the recognition result as the specific information. Then, the control unit 66 specifies the search range using the acquired specific information, and controls the drive unit 67 to cause the robot 22 to search within the specified search range.

このような場合、その他、例えば、ユーザは、音声やジェスチャ等により、ターゲットとされる物体のカテゴリを、直接にロボット22に対して指定(指示)することもできる。 In such a case, for example, the user can directly specify (instruct) the category of the target object to the robot 22 by voice, gesture, or the like.

これにより、制御部66では、ユーザに指定されたカテゴリを表すカテゴリ情報を含む指示情報が生成され、生成された指示情報に含まれるカテゴリ情報が表すカテゴリに属する物体を、ターゲットとしてロボット22に探索を行わせる。 As a result, the control unit 66 generates instruction information including category information representing the category specified by the user, and the robot 22 searches for an object belonging to the category represented by the category information included in the generated instruction information as a target. to do

ところで、指示装置21としては、例えば、パーソナルコンピュータ等を適用することができる。 By the way, as the pointing device 21, for example, a personal computer or the like can be applied.

なお、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or by software. When a series of processes is executed by software, the programs that make up the software can be installed in a computer that is built into dedicated hardware, or various functions can be executed by installing various programs. It is installed from a program recording medium, for example, on a general-purpose computer.

[コンピュータの構成例]
図49は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアのTを示すブロック図である。
[Computer configuration example]
FIG. 49 is a block diagram showing hardware T of a computer that executes the series of processes described above by a program.

CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、又は記憶部508に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータ等が適宜記憶される。これらのCPU501、ROM502、及びRAM503は、バス504により相互に接続されている。 A CPU (Central Processing Unit) 501 executes various processes according to programs stored in a ROM (Read Only Memory) 502 or a storage unit 508 . A RAM (random access memory) 503 stores programs and data executed by the CPU 501 as appropriate. These CPU 501 , ROM 502 and RAM 503 are interconnected by a bus 504 .

CPU501にはまた、バス504を介して入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホン等よりなる入力部506、ディスプレイ、スピーカ等よりなる出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行する。そして、CPU501は、処理の結果を出力部507に出力する。 An input/output interface 505 is also connected to the CPU 501 via a bus 504 . The input/output interface 505 is connected to an input section 506 including a keyboard, a mouse, a microphone, etc., and an output section 507 including a display, a speaker, and the like. The CPU 501 executes various processes in response to commands input from the input unit 506 . The CPU 501 then outputs the processing result to the output unit 507 .

入出力インタフェース505に接続されている記憶部508は、例えばハードディスクからなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。 A storage unit 508 connected to the input/output interface 505 comprises, for example, a hard disk, and stores programs executed by the CPU 501 and various data. A communication unit 509 communicates with an external device via a network such as the Internet or a local area network.

また、通信部509を介してプログラムを取得し、記憶部508に記憶してもよい。 Alternatively, the program may be acquired via the communication unit 509 and stored in the storage unit 508 .

入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア511が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部508に転送され、記憶される。 A drive 510 connected to an input/output interface 505 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and reads programs and data recorded therein. etc. The acquired programs and data are transferred to and stored in the storage unit 508 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図49に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア511、又は、プログラムが一時的もしくは永続的に格納されるROM502や、記憶部508を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部509を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。 As shown in FIG. 49, recording media for recording (storing) a program that is installed in a computer and made executable by the computer include magnetic disks (including flexible disks), optical disks (CD-ROM (Compact Disc-ROM), etc.). (including Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disc (including MD (Mini-Disc)), or removable media 511, which is package media made of semiconductor memory, etc., or the program is temporary or It is composed of a ROM 502 that permanently stores data, a hard disk that constitutes a storage unit 508, and the like. Recording of the program on the recording medium is performed using a wired or wireless communication medium such as a local area network, the Internet, or a digital satellite broadcast via the communication unit 509, which is an interface such as a router or modem, if necessary. will be

なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In this specification, the steps describing the series of processes described above are not only processes performed chronologically in the described order, but also processes not necessarily performed chronologically, in parallel or individually. It also includes the processing to be performed.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the term "system" refers to an entire device composed of a plurality of devices.

なお、本開示は、第1乃至第3の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。 It should be noted that the present disclosure is not limited to the first to third embodiments, and various modifications are possible within the scope of the present disclosure.

1 ロボット制御システム, 21 指示装置, 21a 表示画面, 22 ロボット, 41 操作部, 42 制御部, 43 表示部, 44 通信部, 45 記憶部, 61 通信部, 62 カメラ, 63 距離センサ, 64 マイクロホン, 65 スピーカ, 66 制御部, 67 駆動部, 68 記憶部 1 robot control system, 21 instruction device, 21a display screen, 22 robot, 41 operation unit, 42 control unit, 43 display unit, 44 communication unit, 45 storage unit, 61 communication unit, 62 camera, 63 distance sensor, 64 microphone, 65 speaker, 66 control section, 67 drive section, 68 storage section

Claims (16)

移動体の動きを制御可能に駆動する駆動部と、
撮影画像を撮影し、画像データを生成する撮影部と、
前記移動体の現在位置情報を、GPSに基づく対象位置に生成する位置情報生成部と、
前記移動体の前記現在位置情報に基づいて前記移動体の計画された移動経路に沿った現在位置を示す地図と、前記画像データに基づいて前記撮影画像の中の2以上のターゲットとして認識された物体を示す認識状態を表す表示とを表示する指示装置に、前記現在位置情報と前記画像データとを送信する送信部と、
前記撮影画像の中で前記ターゲットとして認識された物体を示す前記認識状態を表す表示に対してのユーザの選択操作を示すフィードバック情報を、前記指示装置から受信する受信部と、
前記フィードバック情報に基づいて、前記移動体の動作を制御する制御部と
を備える移動体。
a driving unit that drives the movement of the moving body so as to be controllable;
an imaging unit that captures a captured image and generates image data;
a location information generating unit that generates the current location information of the mobile object at a target location based on GPS;
A map indicating the current position along the planned movement route of the mobile object based on the current position information of the mobile object, and two or more targets in the captured image based on the image data. a transmission unit configured to transmit the current position information and the image data to an instruction device that displays an indication representing a recognition state indicating an object ;
a receiving unit that receives, from the pointing device, feedback information indicating a user's selection operation on the display representing the recognition state indicating the object recognized as the target in the captured image;
and a control unit that controls the operation of the mobile body based on the feedback information.
前記フィードバック情報は、前記ターゲットとして認識された物体の選択を示すコマンド入力に基づいて生成される
請求項1に記載の移動体。
2. The mobile object of claim 1, wherein the feedback information is generated based on a command input indicating selection of the object recognized as the target .
前記駆動部は、前記移動体が前記ターゲットとして認識された物体に向かって移動するように制御する
請求項2に記載の移動体。
The moving body according to claim 2, wherein the driving section controls the moving body to move toward the object recognized as the target .
前記制御部は、前記フィードバック情報に基づいて認識された前記ターゲットとして認識された物体を含む、前記撮影部で連続的に撮影された前記撮影画像の前記画像データを取得する
請求項1に記載の移動体。
2. The control unit according to claim 1, wherein the control unit acquires the image data of the photographed images continuously photographed by the photographing unit, including the object recognized as the target and recognized based on the feedback information. Mobile.
前記送信部は、前記ターゲットとして認識された物体を含む前記撮影画像の前記画像データを送信する
請求項4に記載の移動体。
The mobile body according to claim 4, wherein the transmission unit transmits the image data of the captured image including the object recognized as the target .
前記制御部は、前記移動体の前記駆動部を制御して、前記移動体を動かす
請求項1に記載の移動体。
The moving body according to claim 1, wherein the control section controls the driving section of the moving body to move the moving body.
前記制御部は、少なくとも前記現在位置情報に基づいて、前記移動体の移動範囲を制御する
請求項1に記載の移動体。
The moving object according to claim 1, wherein the control unit controls a movement range of the moving object based on at least the current position information.
前記制御部は、少なくとも前記フィードバック情報に基づいて、前記移動体の移動範囲を制御する
請求項1に記載の移動体。
The moving object according to claim 1, wherein the control unit controls a movement range of the moving object based on at least the feedback information.
前記移動体は、前記移動体の前記移動範囲に基づいて制御される
請求項8に記載の移動体。
The mobile body according to claim 8, wherein the mobile body is controlled based on the movement range of the mobile body.
前記制御部は、前記移動体の距離センサにより、前記移動体から前記ターゲットとして認識された物体までの距離を取得する
請求項1に記載の移動体。
The moving body according to claim 1, wherein the control unit acquires a distance from the moving body to the object recognized as the target by a distance sensor of the moving body.
前記制御部は、前記移動体の前記現在位置情報と前記距離に基づいて前記ターゲットとして認識された物体の位置情報を算出する
請求項10に記載の移動体。
The moving object according to claim 10, wherein the control unit calculates position information of the object recognized as the target based on the current position information of the moving object and the distance.
前記移動体は、前記ターゲットとして認識された物体の位置情報に基づいて制御される
請求項1に記載の移動体。
The mobile object according to claim 1, wherein the mobile object is controlled based on the position information of the object recognized as the target .
前記認識状態を表す表示は、前記ターゲットとして認識された物体の画像を矩形で囲んだ状態での表示であるThe display representing the recognition state is a display in which the image of the object recognized as the target is surrounded by a rectangle.
請求項1に記載の移動体。 The moving object according to claim 1.
前記認識状態を表す表示は、前記ターゲットとして認識された物体の画像に斜線を付加した状態での表示であるThe display representing the recognition state is a display in which oblique lines are added to the image of the object recognized as the target.
請求項1に記載の移動体。 The moving object according to claim 1.
移動体が、
前記移動体の動きを制御可能に駆動し、
撮影画像を撮影し、画像データを生成し、
前記移動体の現在位置情報を、GPSに基づく対象位置に生成し、
前記移動体の前記現在位置情報に基づいて前記移動体の計画された移動経路に沿った現在位置を示す地図と、前記画像データに基づいて前記撮影画像の中の2以上のターゲットとして認識された物体を示す認識状態を表す表示とを表示する指示装置に、前記現在位置情報と前記画像データとを送信し、
前記撮影画像の中で前記ターゲットとして認識された物体を示す前記認識状態を表す表示に対してのユーザの選択操作を示すフィードバック情報を、前記指示装置から受信し、
前記フィードバック情報に基づいて、前記移動体の動作を制御する
制御方法。
the moving body
controllably driving the movement of the moving body;
Take a shot image, generate image data,
generating the current location information of the mobile object at a target location based on GPS;
A map indicating the current position along the planned movement route of the mobile object based on the current position information of the mobile object, and two or more targets in the captured image based on the image data. transmitting the current position information and the image data to a pointing device that displays a display representing a recognition state indicating an object ;
receiving, from the pointing device, feedback information indicating a user's selection operation on the display representing the recognition state indicating the object recognized as the target in the captured image;
A control method for controlling the operation of the moving object based on the feedback information.
移動体の動きを制御可能に駆動する駆動部と、
撮影画像を撮影し、画像データを生成する撮影部と
を備える前記移動体のコンピュータを、
前記移動体の現在位置情報を、GPSに基づく対象位置に生成する位置情報生成部と、
前記移動体の前記現在位置情報に基づいて前記移動体の計画された移動経路に沿った現在位置を示す地図と、前記画像データに基づいて前記撮影画像の中の2以上のターゲットとして認識された物体を示す認識状態を表す表示とを表示する指示装置に、前記現在位置情報と前記画像データとを送信する送信部と、
前記撮影画像の中で前記ターゲットとして認識された物体を示す前記認識状態を表す表示に対してのユーザの選択操作を示すフィードバック情報を、前記指示装置から受信する受信部と、
前記フィードバック情報に基づいて、前記移動体の動作を制御する制御部と
して機能させるプログラム。
a driving unit that drives the movement of the moving body so as to be controllable;
an imaging unit that captures a captured image and generates image data;
a location information generating unit that generates the current location information of the mobile object at a target location based on GPS;
A map indicating the current position along the planned movement route of the mobile object based on the current position information of the mobile object, and two or more targets in the captured image based on the image data. a transmission unit configured to transmit the current position information and the image data to an instruction device that displays a display representing a recognition state indicating an object ;
a receiving unit that receives, from the pointing device, feedback information indicating a user's selection operation on the display representing the recognition state indicating the object recognized as the target in the captured image;
A program that functions as a control unit that controls the operation of the moving object based on the feedback information.
JP2021120290A 2019-12-24 2021-07-21 Mobile object, control method and program Active JP7338662B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021120290A JP7338662B2 (en) 2019-12-24 2021-07-21 Mobile object, control method and program
JP2023129859A JP2023138731A (en) 2019-12-24 2023-08-09 Mobile body, control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019232391A JP6922969B2 (en) 2018-07-20 2019-12-24 Mobiles, control methods, and programs
JP2021120290A JP7338662B2 (en) 2019-12-24 2021-07-21 Mobile object, control method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019232391A Division JP6922969B2 (en) 2018-07-20 2019-12-24 Mobiles, control methods, and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023129859A Division JP2023138731A (en) 2019-12-24 2023-08-09 Mobile body, control method, and program

Publications (2)

Publication Number Publication Date
JP2021166106A JP2021166106A (en) 2021-10-14
JP7338662B2 true JP7338662B2 (en) 2023-09-05

Family

ID=78022204

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021120290A Active JP7338662B2 (en) 2019-12-24 2021-07-21 Mobile object, control method and program
JP2023129859A Pending JP2023138731A (en) 2019-12-24 2023-08-09 Mobile body, control method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023129859A Pending JP2023138731A (en) 2019-12-24 2023-08-09 Mobile body, control method, and program

Country Status (1)

Country Link
JP (2) JP7338662B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007152443A (en) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd Clearing-away robot
JP2009129058A (en) 2007-11-21 2009-06-11 Mitsubishi Heavy Ind Ltd Position specifying apparatus, operation instruction apparatus, and self-propelled robot
JP2009531184A (en) 2006-03-27 2009-09-03 コミッサリア タ レネルジー アトミーク Intelligent interface device for gripping an object by an operating robot and method of operating this device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007152443A (en) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd Clearing-away robot
JP2009531184A (en) 2006-03-27 2009-09-03 コミッサリア タ レネルジー アトミーク Intelligent interface device for gripping an object by an operating robot and method of operating this device
JP2009129058A (en) 2007-11-21 2009-06-11 Mitsubishi Heavy Ind Ltd Position specifying apparatus, operation instruction apparatus, and self-propelled robot

Also Published As

Publication number Publication date
JP2021166106A (en) 2021-10-14
JP2023138731A (en) 2023-10-02

Similar Documents

Publication Publication Date Title
US12036672B2 (en) Display control device, display control method, computer program product, and communication system
JP5892361B2 (en) Control device, control method, program, and robot control system
KR20140043665A (en) Image processing device, image processing method, and storage medium
JP6439806B2 (en) Robot apparatus and program
JP6249247B2 (en) Control device, control method, and program
JP6642644B2 (en) Moving object, control method, and program
JP6922969B2 (en) Mobiles, control methods, and programs
JP7338662B2 (en) Mobile object, control method and program
JP6168179B2 (en) Control device, control method, and program
JP6372730B2 (en) Control device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R151 Written notification of patent or utility model registration

Ref document number: 7338662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151