[go: up one dir, main page]

JP7650485B2 - Flying robot, flying robot control program, and flying robot control method - Google Patents

Flying robot, flying robot control program, and flying robot control method Download PDF

Info

Publication number
JP7650485B2
JP7650485B2 JP2020219047A JP2020219047A JP7650485B2 JP 7650485 B2 JP7650485 B2 JP 7650485B2 JP 2020219047 A JP2020219047 A JP 2020219047A JP 2020219047 A JP2020219047 A JP 2020219047A JP 7650485 B2 JP7650485 B2 JP 7650485B2
Authority
JP
Japan
Prior art keywords
flying robot
camera
flying
appendix
predetermined range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020219047A
Other languages
Japanese (ja)
Other versions
JP2022104060A (en
JP2022104060A5 (en
Inventor
郁子 岸田
Original Assignee
合同会社酒井総合研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 合同会社酒井総合研究所 filed Critical 合同会社酒井総合研究所
Priority to JP2020219047A priority Critical patent/JP7650485B2/en
Publication of JP2022104060A publication Critical patent/JP2022104060A/en
Publication of JP2022104060A5 publication Critical patent/JP2022104060A5/ja
Priority to JP2025034322A priority patent/JP2025078765A/en
Application granted granted Critical
Publication of JP7650485B2 publication Critical patent/JP7650485B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Catching Or Destruction (AREA)

Description

この発明は、ゴミ集積所などを監視する飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に関する。 This invention relates to a flying robot that monitors garbage collection sites, a control program for the flying robot, and a control method for the flying robot.

従来、人間が出す残飯などのゴミを、カラスが食い散らかしてゴミが道幅いっぱいに散らばってしまい、美観を損ねたり、ゴミ収集に支障をきたすなどの問題がある。また、ゴミを食する利便性が高いことから、カラスは、ゴミ集積場の近く、すなわち、繁華街や住宅街などの市街地に近い場所に営巣してヒナを育てるため、繁殖期には巣の近くを通る人間を威嚇したり襲ったりするなどの問題がある。 Traditionally, crows have eaten garbage such as food scraps produced by humans, causing the garbage to be strewn across the width of the road, resulting in problems such as spoiling the view and hindering garbage collection. In addition, because it is convenient for them to eat garbage, crows nest and raise their chicks near garbage collection sites, that is, in places close to urban areas such as downtowns and residential areas, which creates problems such as threatening and attacking people who pass by their nests during the breeding season.

このような、カラスによる問題を解決するため、従来、カラスによるゴミの散乱被害を防止するための各種の技術があった。具体的には、従来、たとえば、カラスに視認されづらいネットや重りをつけたポリバケツなどをゴミの上から被せるようにした技術があった(たとえば、下記特許文献1、2を参照。)。また、具体的には、従来、たとえば、赤外線センサーを用いてカラスなどの撃退対象の接近を検知し、撃退対象が接近した場合に爆発音を発生させるなどして威嚇するようにした技術があった(たとえば、下記特許文献3を参照。)。 In order to solve these problems caused by crows, various technologies have been used in the past to prevent crows from scattering garbage. Specifically, for example, there has been a technology that covers garbage with a net that is difficult for crows to see, or a weighted plastic bucket (see, for example, Patent Documents 1 and 2 below). Also, specifically, for example, there has been a technology that uses an infrared sensor to detect the approach of a target to be repelled, such as a crow, and scares them off by emitting an explosion sound when the target approaches (see, for example, Patent Document 3 below).

実用新案登録第3228895号公報Utility Model Registration No. 3228895 実用新案登録第3226773号公報Utility Model Registration No. 3226773 特開2016-73266号公報JP 2016-73266 A

しかしながら、上述した特許文献1、2のような従来の技術は、ゴミをネットなどで覆うことで一時的にゴミの散乱被害を抑えることができても、カラスは知能や学習能力が高く、やがてネットの隙間からゴミを引っ張り出してしまうという問題があった。また、ゴミを覆うネットに触れることを忌避するためにゴミを十分に覆うことができていないなどの、ゴミを捨てる人間側の理由により、ゴミを覆うことによるゴミの散乱被害の防止には限界があるという題があった。 However, conventional technologies such as those described in Patent Documents 1 and 2 above have the problem that, although covering the garbage with a net or the like can temporarily prevent the damage caused by garbage scattering, crows are highly intelligent and have high learning abilities, and will eventually pull the garbage out through the gaps in the net. In addition, there is a problem that there is a limit to how much covering the garbage can will prevent the garbage from scattering due to reasons on the part of the people who throw the garbage, such as the garbage not being covered sufficiently in order to avoid touching the net that covers it.

また、上述した特許文献3のような従来の技術は、赤外線センサーは人間が接近した場合も反応するため、市街地に設置することは難しく、仮に市街地に設置した場合に接近した人間を不用意に驚かせてしまう、市街地において爆発音を多発させてしまうなどの問題があった。 In addition, conventional technologies such as those described in Patent Document 3 above have problems with being difficult to install in urban areas because the infrared sensors react when humans approach, and even if they are installed in urban areas, they can startle approaching people and cause frequent explosions in urban areas.

この発明は、上述した従来技術による問題点を解消するため、人間に害を与えることなくカラスによるゴミの散乱被害を確実に防止することができる飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法を提供することを目的とする。 The purpose of this invention is to provide a control program and a control method for a flying robot that can reliably prevent crows from scattering garbage without harming humans, in order to solve the problems of the conventional technology described above.

上述した課題を解決し、目的を達成するため、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、を備え、前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行することを特徴とする。 To solve the above problems and achieve the objective, the flying robot of the present invention is characterized by comprising an unmanned aerial vehicle that flies by automatic control and a camera mounted on the unmanned aerial vehicle, and when an object is recognized based on an image taken by the camera, the flying robot flies so as to approach the object.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記カメラによって、所定の範囲内を撮影することを特徴とする。 The flying robot of this invention is also characterized in that, in the above invention, the camera photographs a predetermined range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲は、あらかじめ設定されたゴミ集積場であることを特徴とする。 The flying robot of this invention is also characterized in that, in the above invention, the predetermined area is a pre-defined garbage collection area.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記対象物に接近するように飛行した後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻ることを特徴とする。 The flying robot of this invention is also characterized in that, after flying to approach the target object, it returns to a station installed within the specified range or in the vicinity of the specified range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲内を、設定速度以下の速度で飛行することを特徴とする。 The flying robot of this invention is also characterized in that it flies within the specified range at a speed equal to or less than a set speed.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲内の任意の位置において、ホバリング飛行することを特徴とする。 The flying robot according to the present invention is characterized in that it flies in a hovering manner at any position within the predetermined range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の範囲内の任意の位置において、上下飛行することを特徴とする。 The flying robot of this invention is also characterized in that it flies up and down at any position within the predetermined range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたスピーカーを備え、前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力するとともに、当該対象物に接近するように飛行することを特徴とする。 The flying robot of this invention is also characterized in that, in the above invention, it is equipped with a speaker mounted on the unmanned aerial vehicle, and when it recognizes an object based on an image captured by the camera, it outputs a predetermined sound from the speaker and flies so as to approach the object.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記対象物に対して前記スピーカーから前記所定の音声を出力することを特徴とする。 The flying robot according to the present invention is also characterized in that, in the above invention, the predetermined sound is output from the speaker to the target object.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする。 The flying robot of this invention is also characterized in that in the above invention, the predetermined sound is a recorded cry of a bird of prey or a synthetic sound that imitates the cry of a bird of prey.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする。 The flying robot of this invention is also characterized in that in the above invention, the predetermined sound is a recorded gunshot or a synthetic sound that imitates a gunshot.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする。 The flying robot of this invention is also characterized in that in the above invention, the predetermined sound is a recorded dog barking or a synthetic sound that imitates a dog barking.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする。 The flying robot of this invention is also characterized in that in the above invention, the predetermined sound is a recorded sound made by an attacked crow, an alert crow, or a frightened crow, or a synthetic sound that imitates these sounds.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された光源を備え、前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光するとともに、当該対象物に接近するように飛行することを特徴とする。 The flying robot of this invention is also characterized in that, in the above invention, it is equipped with a light source mounted on the unmanned aerial vehicle, and when it recognizes an object based on an image captured by the camera, it emits light from the light source and flies so as to approach the object.

また、この発明にかかる飛行型ロボットは、上記の発明において、猛禽を模した外観をなすことを特徴とする。 The flying robot of this invention is also characterized by having an appearance that imitates a bird of prey in the above invention.

また、この発明にかかる飛行型ロボットの制御プログラムは、カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットのコンピュータに、前記カメラによる撮影をおこなわせ、前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行させる、処理を実行させることを特徴とする。 The control program for the flying robot according to the present invention is characterized in that it causes a computer of the flying robot, which is equipped with a camera and has an unmanned aerial vehicle that flies by automatic control, to take pictures with the camera, and when it recognizes an object based on the image taken by the camera, causes the robot to fly so as to approach the object.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記カメラによって、所定の範囲内を撮影させることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the camera is caused to take pictures of a predetermined range.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記カメラによって、あらかじめ設定されたゴミ集積場を撮影させることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the camera is caused to take an image of a pre-set garbage collection area.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記対象物に接近するように飛行させた後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻るように飛行させることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the flying robot is flown so as to approach the target object, and then flies so as to return to a station installed within or near the specified range.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲内を、設定速度以下の速度で飛行させることを特徴とする。 The control program for the flying robot of this invention is characterized in that, in the above invention, the flying robot flies within the specified range at a speed equal to or less than a set speed.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲内の任意の位置において、ホバリング飛行させることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the flying robot is caused to hover at any position within the predetermined range.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の範囲内の任意の位置において、上下飛行させることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the flying robot is caused to fly up and down at any position within the predetermined range.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記無人航空機に搭載されたスピーカーを備えた前記飛行型ロボットのコンピュータに、前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力させるとともに、当該対象物に接近するように飛行させることを特徴とする。 The flying robot control program of the present invention is characterized in that, in the above invention, when the flying robot's computer, which is equipped with a speaker mounted on the unmanned aerial vehicle, recognizes an object based on an image captured by the camera, it outputs a predetermined sound from the speaker and flies the robot so as to approach the object.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記対象物に対して前記スピーカーから前記所定の音声を出力させることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the predetermined sound is output from the speaker to the target object.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the predetermined sound is a recorded cry of a bird of prey or a synthetic sound that imitates the cry of a bird of prey.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the predetermined sound is a recorded gunshot or a synthesized sound that imitates a gunshot.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the predetermined sound is a recorded dog barking or a synthetic sound that imitates a dog barking.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする。 The control program for the flying robot of this invention is also characterized in that, in the above invention, the predetermined sound is a recorded sound made by an attacked crow, an alert crow, or a frightened crow, or a synthetic sound that imitates these sounds.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記無人航空機に搭載された光源を備えた前記飛行型ロボットのコンピュータに、前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光させるとともに、当該対象物に接近するように飛行させることを特徴とする。 The control program for the flying robot according to the present invention is characterized in that, in the above invention, the flying robot's computer equipped with a light source mounted on the unmanned aerial vehicle, when it recognizes an object based on an image captured by the camera, causes the light source to emit light and causes the robot to fly close to the object.

また、この発明にかかる飛行型ロボットの制御方法は、カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットのコンピュータに、前記カメラによる撮影をおこなわせ、前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行させる、処理を実行させることを特徴とする。 The flying robot control method according to the present invention is characterized in that the flying robot's computer, which is equipped with a camera and an unmanned aerial vehicle that flies automatically, executes a process to take pictures using the camera, and if an object is recognized based on the image taken by the camera, to fly the robot so as to approach the object.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記カメラによって、所定の範囲内を撮影させることを特徴とする。 The flying robot control method according to the present invention is also characterized in that, in the above invention, the camera is caused to take pictures of a predetermined range.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記カメラによって、あらかじめ設定されたゴミ集積場を撮影させることを特徴とする。 The control method for a flying robot according to the present invention is also characterized in that, in the above invention, the camera is caused to photograph a predetermined garbage collection area.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記対象物に接近するように飛行させた後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻るように飛行させることを特徴とする。 The control method for a flying robot according to the present invention is characterized in that, in the above invention, the flying robot is flown so as to approach the target object, and then the flying robot is flown so as to return to a station installed within or near the specified range.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲内を、設定速度以下の速度で飛行させることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the flying robot flies within the predetermined range at a speed equal to or less than a set speed.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲内の任意の位置において、ホバリング飛行させることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the flying robot is caused to hover at any position within the predetermined range.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の範囲内の任意の位置において、上下飛行させることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the flying robot is caused to fly up and down at any position within the predetermined range.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記無人航空機に搭載されたスピーカーを備えた前記飛行型ロボットのコンピュータに、前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力させるとともに、当該対象物に接近するように飛行させることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, when the flying robot's computer, which is equipped with a speaker mounted on the unmanned aerial vehicle, recognizes the target object based on an image captured by the camera, it outputs a predetermined sound from the speaker and flies the robot so as to approach the target object.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記対象物に対して前記スピーカーから前記所定の音声を出力させることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the predetermined sound is output from the speaker to the target object.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the predetermined sound is a recorded cry of a bird of prey or a synthetic sound that imitates the cry of a bird of prey.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the predetermined sound is a recorded gunshot or a synthetic sound that imitates a gunshot.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the predetermined sound is a recorded dog barking or a synthetic sound that imitates a dog barking.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, the predetermined sound is a recorded sound made by an attacked crow, an alert crow, or a frightened crow, or a synthetic sound that imitates these sounds.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記無人航空機に搭載された光源を備えた前記飛行型ロボットのコンピュータに、前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光させるとともに、当該対象物に接近するように飛行させることを特徴とする。 The flying robot control method according to the present invention is characterized in that, in the above invention, when a target object is recognized based on an image captured by the camera, the flying robot computer equipped with a light source mounted on the unmanned aerial vehicle causes the light source to emit light and flies the robot so as to approach the target object.

この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法によれば、人間に害を与えることなくカラスによるゴミの散乱被害を確実に防止することができるという効果を奏する。 The flying robot, flying robot control program, and flying robot control method of the present invention have the effect of reliably preventing the scattering of garbage by crows without causing harm to humans.

この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図である。1 is an explanatory diagram showing an example of the appearance of a flying robot according to a first embodiment of the present invention; この発明にかかる実施の形態1の飛行型ロボットのハードウエアの一例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of hardware of a flying robot according to a first embodiment of the present invention. ステーションの構成を示す説明図(その1)である。FIG. 1 is an explanatory diagram (part 1) showing the configuration of a station. ステーションの構成を示す説明図(その2)である。FIG. 2 is an explanatory diagram (part 2) showing the configuration of a station. この発明にかかる飛行型ロボットの機能的構成を示す説明図である。FIG. 1 is an explanatory diagram showing a functional configuration of a flying robot according to the present invention. この発明にかかる実施の形態1の飛行型ロボットの処理手順を示すフローチャートである。4 is a flowchart showing a processing procedure of the flying robot of the first embodiment according to the present invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その1)である。FIG. 1 is an explanatory diagram (part 1) showing an example of a usage mode of the flying robot of the first embodiment of the present invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その2)である。FIG. 2 is an explanatory diagram (part 2) showing an example of a usage mode of the flying robot of the first embodiment of the present invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その3)である。FIG. 3 is an explanatory diagram (part 3) showing an example of a usage mode of the flying robot of the first embodiment of the present invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その4)である。FIG. 4 is an explanatory diagram (part 4) showing an example of a usage mode of the flying robot of the first embodiment of the present invention. この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of the appearance of a flying robot according to a second embodiment of the present invention. この発明にかかる実施の形態2の飛行型ロボット101の処理手順を示すフローチャートである。13 is a flowchart showing a processing procedure of the flying robot 101 according to the second embodiment of the present invention. この発明にかかる実施の形態2の飛行型ロボットの利用態様の一例を示す説明図(その1)である。FIG. 11 is an explanatory diagram (part 1) showing an example of a usage mode of the flying robot of the second embodiment of the present invention. この発明にかかる実施の形態2の飛行型ロボットの利用態様の一例を示す説明図(その2)である。FIG. 11 is an explanatory diagram (part 2) showing an example of a usage mode of the flying robot of the second embodiment of the present invention.

以下に添付図面を参照して、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法の好適な実施の形態1を詳細に説明する。 The following describes in detail a preferred embodiment 1 of the flying robot, the flying robot control program, and the flying robot control method of the present invention with reference to the attached drawings.

<実施の形態1>
(飛行型ロボットの外観の一例)
まず、この発明にかかる実施の形態1の飛行型ロボットの外観の一例について説明する。図1は、この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図である。図1に示すように、飛行型ロボット101は、ドローン(無人航空機)の態様をなす。
<First embodiment>
(An example of the appearance of a flying robot)
First, an example of the external appearance of the flying robot according to the first embodiment of the present invention will be described. Fig. 1 is an explanatory diagram showing an example of the external appearance of the flying robot according to the first embodiment of the present invention. As shown in Fig. 1, the flying robot 101 takes the form of a drone (unmanned aerial vehicle).

ドローンは、具体的には、たとえば、4つのプロペラ102を備えたクアッドコプターを採用することができる。ドローンは、クアッドコプターに限るものではなく、6つのプロペラを備えたヘキサコプター、8つのプロペラを備えたオクトコプターなど、各種のマルチコプターを採用することができる。 Specifically, the drone may be, for example, a quadcopter with four propellers 102. The drone is not limited to a quadcopter, and various types of multicopters may be used, such as a hexacopter with six propellers or an octocopter with eight propellers.

この発明にかかる実施の形態1の飛行型ロボット101は、たとえば、ゴミ集積場に飛来し、ゴミを散乱させるカラスを対象物として認識し、当該カラスをゴミ集積場から追い払う。飛行型ロボット101は、たとえば、図1に示すように、鳥類、特に、カラスが苦手とする鷹などの猛禽を模した形状とすることができる。具体的に、飛行型ロボット101は、嘴を備えた頭部、鳥類の翼や尾を模した部材105などを備えている。嘴を備えた頭部、鳥類の翼や尾を模した部材105は、それぞれ可動式であってもよい。 The flying robot 101 of the first embodiment of the present invention recognizes, for example, crows that fly into a garbage dump and scatter garbage as an object, and chases the crows away from the garbage dump. As shown in FIG. 1, the flying robot 101 can be shaped to resemble a bird, particularly a bird of prey such as a hawk, which crows fear. Specifically, the flying robot 101 is equipped with a head with a beak, and members 105 that resemble bird wings and a tail. The head with a beak and members 105 that resemble bird wings and a tail may each be movable.

具体的には、たとえば、モーターやギア列あるいはリンク機構によって嘴、頭部、翼、尾などの部材105をそれぞれ独立して動かすことができるようにしてもよい。これにより、飛行型ロボット101は、尾を振ったり、翼を動かしたりする動作を模すことができる。 Specifically, for example, the beak, head, wings, tail, and other members 105 may be moved independently by a motor, a gear train, or a link mechanism. This allows the flying robot 101 to mimic the movements of wagging its tail or moving its wings.

なお、飛行型ロボット101は、鷹などの鳥類を模した形状に限るものではない。飛行型ロボット101は、現代において実在している鳥獣類に限らず、恐竜などのように絶滅した動物や、竜やユニコーンのような幻獣、あるいは、昆虫を模した形状とし、嘴・頭部・翼・尾に限らず、尻尾、耳、足(脚、肢)、角、牙、髭などの部材を備えていてもよい。 The flying robot 101 is not limited to a shape that imitates a bird such as a hawk. The flying robot 101 is not limited to birds and beasts that exist in the present day, but may be shaped to imitate extinct animals such as dinosaurs, mythical beasts such as dragons and unicorns, or insects, and may be equipped with parts such as a tail, ears, feet (legs, limbs), horns, fangs, whiskers, etc., in addition to a beak, head, wings, and tail.

また、飛行型ロボット101は、カメラ103を備えている。カメラ103は、たとえば、汎用的なデジタルカメラによって実現することができる。図1に示すように、鷹などの鳥類を模した形状の飛行型ロボット101においては、たとえば、目に相当する部分に、カメラ103のレンズを設けることができる。あるいは、カメラ103は、ドローンの筐体の下側(腹側)に設けてもよい。カメラ103のレンズは、標準レンズであってもよく、広角レンズや魚眼レンズであってもよい。魚眼レンズを用いることにより、広い範囲を撮影することができる。 Flying robot 101 also includes camera 103. Camera 103 can be realized, for example, by a general-purpose digital camera. As shown in FIG. 1, in a flying robot 101 shaped like a bird such as a hawk, the lens of camera 103 can be provided in the area that corresponds to the eye, for example. Alternatively, camera 103 may be provided on the underside (ventral side) of the drone's housing. The lens of camera 103 may be a standard lens, or may be a wide-angle lens or a fisheye lens. Using a fisheye lens makes it possible to capture a wide range.

飛行型ロボット101は、カメラ103により、飛行型ロボット101の周囲の画像を撮影する。飛行型ロボット101は、たとえば、あらかじめ設定された所定の範囲内を撮影する。所定の範囲は、たとえば、あらかじめ設定されたゴミ集積場とすることができる。所定の範囲の設定は、たとえば、所定のアプリケーションをインストールしたスマートフォンなどの端末装置から該当する範囲を指定する信号を受信することによっておこなうことができる。 The flying robot 101 takes images of the surroundings of the flying robot 101 using the camera 103. The flying robot 101 takes images within a predetermined range that has been set in advance, for example. The predetermined range can be, for example, a garbage collection area that has been set in advance. The predetermined range can be set, for example, by receiving a signal that specifies the relevant range from a terminal device such as a smartphone on which a predetermined application has been installed.

所定の範囲は、具体的には、たとえば、標準地域メッシュによって特定することができる。より具体的には、画像投影装置100の移動範囲は、たとえば、第1次メッシュ、第2次メッシュ、第3次メッシュなどによって特定することができる。また、画像投影装置100の移動範囲は、たとえば、第3次メッシュをさらに細分化した、2分の1地域メッシュ、4分の1地域メッシュ、8分の1地域メッシュなどの分割地域メッシュなどによって特定してもよい。所定の範囲を標準地域メッシュによって特定することにより、GPSセンサー(図2を参照)を用いた位置情報に基づき、飛行型ロボット101が飛行する所定の範囲を精密に制限することができる。 The predetermined range can be specifically specified by, for example, a standard area mesh. More specifically, the movement range of the image projection device 100 can be specified by, for example, a first mesh, a second mesh, a third mesh, etc. The movement range of the image projection device 100 may also be specified by, for example, a divided area mesh, such as a half area mesh, a quarter area mesh, or an eighth area mesh, which is a further subdivision of the third mesh. By specifying the predetermined range by a standard area mesh, the predetermined range in which the flying robot 101 flies can be precisely restricted based on position information obtained using a GPS sensor (see FIG. 2).

飛行型ロボット101は、カメラ103によって撮影された画像に基づいて、カラスを認識する。カラスの認識は、たとえば、画像認識によりおこなうことができる。画像認識においては、ノイズ除去や背景除去などの画像前処理や、特徴の抽出をおこなって、カメラ103によって撮影された画像におけるカラスの有無を判断する。飛行型ロボット101は、撮影された画像に関する情報を、飛行型ロボット101が備えるメモリ(図2を参照)に記憶してもよい。 The flying robot 101 recognizes crows based on images captured by the camera 103. Crows can be recognized, for example, by image recognition. In image recognition, image preprocessing such as noise removal and background removal and feature extraction are performed to determine whether or not a crow is present in the image captured by the camera 103. The flying robot 101 may store information about the captured image in a memory provided in the flying robot 101 (see FIG. 2).

この実施の形態1の飛行型ロボット101は、ゴミ集積場などの所定の範囲内に入り込んだカラスを、所定の範囲外へ追い払うように飛行する(図6~図9を参照)。具体的には、たとえば、飛行型ロボット101への充電機能を備えたステーション(図3Aおよび図3Bを参照)において、所定の範囲内を撮影し、撮影された画像にカラスが含まれる場合に、飛行を開始してステーションから飛び立ち、カラスに接近するように飛行する。ステーションは、たとえば、所定の範囲内、あるいは、当該所定の範囲の近傍に設置することができる。 The flying robot 101 of this embodiment 1 flies so as to chase away crows that have entered a predetermined range, such as a garbage collection area, out of the predetermined range (see Figures 6 to 9). Specifically, for example, at a station (see Figures 3A and 3B) equipped with a charging function for the flying robot 101, an image of the predetermined range is taken, and if a crow is included in the captured image, the flying robot 101 starts flying, takes off from the station, and flies so as to approach the crow. The station can be installed, for example, within the predetermined range or in the vicinity of the predetermined range.

カメラ103は、汎用的なデジタルカメラに代えて、光に対して感度を増幅させることによって暗い場所を撮影する暗視カメラ、赤外線に感度を有する赤外線カメラ、赤外線カメラによって撮影された画像における白黒の濃淡を解析してカラー画像を撮影する赤外線カラー暗視カメラなどによって実現してもよい。暗視カメラ、赤外線カメラ、赤外線カラー暗視カメラなどを用いて画像を撮影することにより、夜間や照度の低い室内などにおいても、ユーザーを精度よく認識することができる。 Instead of a general-purpose digital camera, the camera 103 may be realized by a night vision camera that captures images in dark places by amplifying its sensitivity to light, an infrared camera that is sensitive to infrared rays, or an infrared color night vision camera that captures color images by analyzing the black and white shading in images captured by an infrared camera. By capturing images using a night vision camera, an infrared camera, an infrared color night vision camera, or the like, the user can be recognized with high accuracy even at night or indoors with low illumination.

飛行型ロボット101が備えるカメラ103は、1台であってもよく、複数台であってもよい。複数台のカメラ103を備える飛行型ロボット101においては、1種類のカメラ103に限るものではなく、異なる複数種類のカメラ103を備えていてもよい。図1に示すように、動物のような形状の飛行型ロボット101においては、たとえば、目に相当する部分にカメラ103のレンズを設けてもよい。 The flying robot 101 may be equipped with one camera 103 or multiple cameras 103. A flying robot 101 equipped with multiple cameras 103 is not limited to one type of camera 103, and may be equipped with multiple different types of cameras 103. As shown in FIG. 1, in a flying robot 101 shaped like an animal, the lens of the camera 103 may be provided in the part that corresponds to the eye, for example.

カメラ103は、ドローンに対して、姿勢の調整が可能な状態で連結されていてもよい。カメラ103は、具体的には、たとえば、ドローンの底面部にボールジョイントなどの自在継手を介して連結することができる。カメラ103を、ボールジョイントなどの自在継手を介してドローンに連結することにより、カメラ103の姿勢の調整にかかる高い自由度を確保することができる。 The camera 103 may be connected to the drone in a state in which its attitude can be adjusted. Specifically, the camera 103 can be connected to the bottom of the drone via a universal joint such as a ball joint, for example. By connecting the camera 103 to the drone via a universal joint such as a ball joint, a high degree of freedom in adjusting the attitude of the camera 103 can be ensured.

さらに、飛行型ロボット101は、ドローンに対するカメラ103の姿勢を変化させる駆動機構を備えていてもよい。これにより、人手を介さずに、ドローンに対するカメラ103の姿勢を調整することができる。駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローンに対するカメラ103の姿勢を人手を介さずに調整可能とすることにより、ドローンの姿勢にかかわらず、飛行型ロボット101の飛行中に、撮影方向を任意に調整することができる。カメラ103は、ズーム機能を備えていてもよい。 Furthermore, the flying robot 101 may be equipped with a drive mechanism that changes the attitude of the camera 103 relative to the drone. This allows the attitude of the camera 103 relative to the drone to be adjusted without human intervention. The drive mechanism may be configured, for example, with a motor or a gear train. By making it possible to adjust the attitude of the camera 103 relative to the drone without human intervention, the shooting direction can be adjusted as desired while the flying robot 101 is flying, regardless of the attitude of the drone. The camera 103 may be equipped with a zoom function.

飛行型ロボット101は、ワイヤレス電力伝送(Wireless Power Transfer、Contactless Power Transmission)における受電コイルを備えていてもよい。ワイヤレス電力伝送(ワイヤレス給電)は、バッテリー(図2を参照)に対して、充電用接点を介することなく電力を受電する技術であって、非接触給電あるいは無線給電などとも称される。 The flying robot 101 may be equipped with a receiving coil for wireless power transfer (contactless power transmission). Wireless power transfer (wireless power supply) is a technology for receiving power from a battery (see FIG. 2) without going through a charging contact, and is also called non-contact power supply or wireless power supply.

受電コイルは、飛行型ロボット101の筐体の外装面よりも内側に設けられる。これにより、雨露などの水滴や手油などによる受電コイルの劣化や故障を回避することができる。飛行型ロボット101は、受電コイルに代えて、あるいは、加えて、バッテリーの充電のための充電用接点を備えていてもよい。 The receiving coil is provided inside the exterior surface of the housing of the flying robot 101. This makes it possible to avoid deterioration or failure of the receiving coil due to water droplets from rain or dew, hand oil, etc. The flying robot 101 may be provided with a charging contact for charging the battery instead of or in addition to the receiving coil.

また、図1に示すように、動物のような形状の飛行型ロボット101においては、たとえば、目に相当する部分にLEDランプ(光源)104を設けてもよい。LEDランプ104は、1つであってもよく、複数設けられていてもよい。目玉に相当する部分にカメラ103のレンズがある場合、LEDランプ104は、当該レンズを縁取るように設けてもよい。 As shown in FIG. 1, in an animal-shaped flying robot 101, for example, LED lamps (light sources) 104 may be provided in the areas that correspond to the eyes. There may be one LED lamp 104, or multiple LED lamps 104 may be provided. If the area that corresponds to the eyeball is a camera 103 lens, the LED lamps 104 may be provided so as to frame the lens.

LEDランプ104を複数設ける場合、それぞれのLEDランプ104が単体で、複数の発光色を切り替え可能に発光するものであってもよい。これにより、複数色の光を混ぜ合わせることによって、鳥獣の嫌がる色に調光した光を発することができる。また、それぞれが異なる色の光を発光する複数のLEDランプ104を、並べて配置するようにしてもよい。具体的には、たとえば、赤色の光を発するLEDランプ104の隣に、緑色の光を発するLEDランプ104を配置してもよい。 When multiple LED lamps 104 are provided, each LED lamp 104 may be capable of emitting light in a number of switchable colors on its own. This allows light of multiple colors to be mixed together to emit light that is dimmed to a color disliked by birds and animals. Also, multiple LED lamps 104 that each emit light of a different color may be arranged side by side. Specifically, for example, an LED lamp 104 that emits green light may be arranged next to an LED lamp 104 that emits red light.

飛行型ロボット101は、さらに、太陽光などの外光によって発電するソーラーセル(太陽電池、図3Aおよび図3Bを参照)を備えていてもよい。ソーラーセルは、たとえば、飛行型ロボット101の筐体における上側の面に設ける。これにより、飛行中に確実に外光を取り入れて効率よく発電することができる。また、ソーラーセルを備えることにより、飛行中も充電することができるため、1回当たりの飛行時間を長く確保することができる。 The flying robot 101 may further include a solar cell (a solar battery, see Figures 3A and 3B) that generates electricity using external light such as sunlight. The solar cell is provided, for example, on the upper surface of the housing of the flying robot 101. This ensures that external light is taken in during flight and electricity is generated efficiently. Furthermore, by including the solar cell, charging can be performed during flight, ensuring a long flight time per trip.

(飛行型ロボット101のハードウエア構成)
つぎに、飛行型ロボット101のハードウエア構成について説明する。図2は、この発明にかかる実施の形態1の飛行型ロボット101のハードウエアの一例を示す説明図である。図2に示すように、飛行型ロボット101のハードウエアは、バッテリー201、モーター202、カメラ103、マイク203、スピーカー204、GPSセンサー205、対物センサー206、制御回路207、加速度センサー208、通信I/F209、LEDランプ104、ソーラーセル210などによって構成される。飛行型ロボット101が備える各部103、104、201~210は、バス200によって接続されている。
(Hardware configuration of flying robot 101)
Next, the hardware configuration of the flying robot 101 will be described. Fig. 2 is an explanatory diagram showing an example of the hardware of the flying robot 101 of the first embodiment according to the present invention. As shown in Fig. 2, the hardware of the flying robot 101 is composed of a battery 201, a motor 202, a camera 103, a microphone 203, a speaker 204, a GPS sensor 205, an object sensor 206, a control circuit 207, an acceleration sensor 208, a communication I/F 209, an LED lamp 104, a solar cell 210, etc. The respective units 103, 104, 201 to 210 of the flying robot 101 are connected by a bus 200.

バッテリー201は、飛行型ロボット101が備える各部の動作に要する電源を供給する。バッテリー201は、たとえば、リチウム電池などの二次電池(充電式電池、蓄電池)によって実現することができる。二次電池によって実現されるバッテリー201は、ドローンに対して着脱可能であってもよい。 The battery 201 supplies the power required for the operation of each part of the flying robot 101. The battery 201 can be realized by, for example, a secondary battery (rechargeable battery, storage battery) such as a lithium battery. The battery 201 realized by a secondary battery may be detachable from the drone.

モーター202は、制御回路207によって制御され、回転することによってプロペラ102を回転させる。モーター202は、具体的には、たとえば、回転子が永久磁石であって、固定子がコイルによって構成されるブラシレスモータを使用することができる。モーター202は、プロペラ102の数と同数設けることにより、各プロペラ102をそれぞれ独立して回転させ、飛行型ロボット101を前進させたり、後進させたり左右方向に旋回させたりすることができる。 The motor 202 is controlled by the control circuit 207, and rotates the propellers 102 by rotating. Specifically, the motor 202 may be, for example, a brushless motor in which the rotor is a permanent magnet and the stator is made up of a coil. By providing the same number of motors 202 as the propellers 102, each propeller 102 can be rotated independently, causing the flying robot 101 to move forward, backward, and turn left and right.

飛行型ロボット101が、カメラ103の姿勢を調整する駆動機構を備えている場合、制御回路207は、当該駆動機構を構成するモーターの動作も制御する。これにより、飛行型ロボット101は移動しながら、人手を介することなく、カメラ103の姿勢を調整し、任意の範囲や広範囲を撮影することができる。 If the flying robot 101 is equipped with a drive mechanism that adjusts the attitude of the camera 103, the control circuit 207 also controls the operation of the motor that constitutes the drive mechanism. This allows the flying robot 101 to adjust the attitude of the camera 103 while moving, without human intervention, and to capture images of any range or a wide range.

カメラ103は、撮像素子を備え、撮影レンズを通過したレンズを撮像素子に受光させることにより画像を撮影する。また、カメラ103は、撮影された画像、すなわち撮像素子に受光した光信号を電気信号に変換した画像情報(撮影データ)を、制御回路207に出力する。 The camera 103 has an image sensor and captures an image by having the image sensor receive light that passes through a photographing lens. The camera 103 also outputs the captured image, i.e., image information (capture data) obtained by converting the optical signal received by the image sensor into an electrical signal, to the control circuit 207.

カメラ103は、静止画を撮影するものであってもよく、動画を撮影するものであってもよい。動画は、所定時間間隔で撮影された静止画を連続して撮影したものを含む。画像情報は、所定の動画・音声データの圧縮方式の標準規格(たとえば、MPEG(Moving Picture Experts Group)など)によって圧縮されたものであってもよい。 The camera 103 may be capable of taking still images or video. Video includes a series of still images taken at a predetermined time interval. The image information may be compressed using a predetermined standard for video and audio data compression (e.g., MPEG (Moving Picture Experts Group)).

マイク203は、飛行型ロボット101の周囲の音声を集音する。マイク203は、アナログデータとして入力された音声を電気信号に変換する。具体的に、マイク203は、アナログデータとして入力されたアナログの音声信号を、アナログ/デジタル変換し、デジタル形式の音声データを生成する。 The microphone 203 collects sounds around the flying robot 101. The microphone 203 converts sounds input as analog data into electrical signals. Specifically, the microphone 203 performs analog/digital conversion on the analog sound signal input as analog data, and generates digital sound data.

スピーカー204は、音声信号である電気信号によって振動板を振動させて音声を発生させる。また、スピーカー204は、音声信号を出力する出力端子であってもよく、当該出力端子に外部スピーカー204を接続して、音声を発生させるようにしてもよい。スピーカー204は、一方向にだけ音声を発生させる、いわゆる、指向性スピーカーであってもよい。 The speaker 204 generates sound by vibrating a diaphragm with an electrical signal that is an audio signal. The speaker 204 may also be an output terminal that outputs an audio signal, and an external speaker 204 may be connected to the output terminal to generate sound. The speaker 204 may be a so-called directional speaker that generates sound in only one direction.

GPSセンサー205は、飛行型ロボット101の現在位置を特定する。GPSセンサー205は、具体的には、たとえば、GPSアンテナ、RF(Radio Frequency)部、ベースバンド部などを備えている。GPSアンテナは、GPS衛星が放送する電波を受信する。RF部は、GPSアンテナが受信した変調前の信号をベースバンド信号に復調する。ベースバンド部は、RF部が復調したベースバンド信号に基づいて飛行型ロボット101の現在位置を算出する。GPSセンサー205は、さらに、不要成分を除去するフィルタや、LNA(Low Noise Amplifier)やパワーアンプPA(Power Amplifier)などの増幅器を備えていてもよい。 The GPS sensor 205 identifies the current position of the flying robot 101. Specifically, the GPS sensor 205 includes, for example, a GPS antenna, an RF (Radio Frequency) unit, and a baseband unit. The GPS antenna receives radio waves broadcast by GPS satellites. The RF unit demodulates the unmodulated signal received by the GPS antenna into a baseband signal. The baseband unit calculates the current position of the flying robot 101 based on the baseband signal demodulated by the RF unit. The GPS sensor 205 may further include a filter that removes unnecessary components and an amplifier such as an LNA (Low Noise Amplifier) or a PA (Power Amplifier).

飛行型ロボット101の現在位置は、複数のGPS衛星から送信される電波に基づく測位によって特定することができる。ベースバンド部は、4機のGPS衛星との距離をそれぞれ算出し、それぞれの距離が一つに交わる位置を算出することによって測位をおこなう。GPS衛星から受信した電波に基づいて、GPS衛星と飛行型ロボット101との幾何学的位置を求めるGPSに代えて、みちびき、グローナス(GLONASS)、ガリレオ(Galileo)などの衛星測位システムを用いて飛行型ロボット101の現在位置を特定してもよい。 The current position of the flying robot 101 can be determined by positioning based on radio waves transmitted from multiple GPS satellites. The baseband unit calculates the distances to each of the four GPS satellites and performs positioning by calculating the position where each of the distances intersect. Instead of GPS, which determines the geometric position of the GPS satellite and the flying robot 101 based on radio waves received from the GPS satellite, the current position of the flying robot 101 may be determined using a satellite positioning system such as Michibiki, GLONASS, or Galileo.

対物センサー206は、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出する。障害物は、飛行型ロボット101の飛行の支障になる物体であって、具体的には、たとえば、壁、天井、家具、人物などが該当する。飛行型ロボット101を屋外で飛行させる場合、たとえば、車両、自装置以外の飛行型ロボット101、樹木、建物など、飛行型ロボット101の飛行の支障になるすべての物体が障害物に該当する。 The object sensor 206 detects whether or not there is an obstacle within a predetermined range from the flying robot 101. An obstacle is an object that impedes the flight of the flying robot 101, and specifically includes, for example, a wall, a ceiling, furniture, a person, etc. When the flying robot 101 is flown outdoors, any object that impedes the flight of the flying robot 101, such as a vehicle, a flying robot 101 other than the flying robot itself, trees, buildings, etc., is an obstacle.

対物センサー206は、具体的には、たとえば、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーによって実現することができる。対物センサー206は、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーのうち少なくともいずれかによって実現することができる。飛行型ロボット101は、複数種類の非接触センサーを対物センサー206として搭載していてもよい。また、飛行型ロボット101は、カメラ103によって撮影された画像に基づいて、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出してもよい。 Specifically, the object sensor 206 can be realized by a non-contact sensor such as an infrared sensor, a capacitance sensor, or an ultrasonic sensor. The object sensor 206 can be realized by at least one of a non-contact sensor such as an infrared sensor, a capacitance sensor, or an ultrasonic sensor. The flying robot 101 may be equipped with multiple types of non-contact sensors as the object sensor 206. In addition, the flying robot 101 may detect the presence or absence of an obstacle present within a predetermined range from the flying robot 101 based on an image captured by the camera 103.

加速度センサー208は、飛行型ロボット101にかかる重力、振動などの動き、衝撃などを検出する。加速度センサー208は、たとえば、低ノイズで安定性の高い水晶加速度センサーなどの周波数変化式加速度センサーを用いることができる。また、加速度センサーは、圧電式の加速度センサー、静電容量式の加速度センサー、ピエゾ抵抗式の加速度センサーなどを用いてもよい。 The acceleration sensor 208 detects gravity, vibrations, and other movements, and impacts acting on the flying robot 101. The acceleration sensor 208 may be, for example, a frequency change type acceleration sensor such as a low-noise, highly stable quartz acceleration sensor. Alternatively, the acceleration sensor may be a piezoelectric acceleration sensor, a capacitance acceleration sensor, a piezo-resistance acceleration sensor, or the like.

ソーラーセル210は、プラスを帯びやすいP型シリコン半導体とマイナスを帯びやすいN型シリコン半導体とを、PN接合面を介して張り合わせることによって構成されている。ソーラーセル210においては、太陽光などの外光による光エネルギーがPN接合面に加わると、P型シリコン半導体はプラスを帯び、N型シリコン半導体はマイナスを帯びる。ソーラーセル210において、P型シリコン半導体およびN型シリコン半導体にはそれぞれ電極が接続されており、当該電極にそれぞれ接続された電線を介して発電した電力を取り出すことができる。 The solar cell 210 is constructed by bonding a P-type silicon semiconductor, which is easily positively charged, and an N-type silicon semiconductor, which is easily negatively charged, together via a PN junction surface. When light energy from external light such as sunlight is applied to the PN junction surface of the solar cell 210, the P-type silicon semiconductor becomes positively charged and the N-type silicon semiconductor becomes negatively charged. In the solar cell 210, electrodes are connected to the P-type silicon semiconductor and the N-type silicon semiconductor, respectively, and the generated electricity can be extracted via electric wires connected to the electrodes.

制御回路207は、飛行型ロボット101が備える各部を駆動制御する。制御回路207は、CPUやメモリなどによって構成されるマイコンによって実現することができる。メモリは、この発明にかかる実施の形態1の飛行型ロボットの制御プログラムや、特定の人物に関する情報、飛行型ロボット101のユーザーなどによってあらかじめ入力された情報などの各種の情報を記憶する。制御回路207は、具体的には、たとえば、LSI(Large Scale Integration)やFPGA(Field-Programmable Gate Array)などによって実現することができる。 The control circuit 207 drives and controls each part of the flying robot 101. The control circuit 207 can be realized by a microcomputer composed of a CPU, memory, etc. The memory stores various information such as the control program for the flying robot of the first embodiment of the present invention, information about a specific person, and information input in advance by the user of the flying robot 101. Specifically, the control circuit 207 can be realized by, for example, an LSI (Large Scale Integration) or an FPGA (Field-Programmable Gate Array).

CPUは、メモリに記憶されたプログラムを実行することによって、飛行型ロボット101の全体の制御をつかさどる。メモリは、たとえば、CPUが実行するプログラムや、飛行型ロボット101の動作に関する各種条件に関する情報、カメラ103によって撮影された画像に関する情報などの各種の情報を記憶する。 The CPU is responsible for overall control of the flying robot 101 by executing the programs stored in the memory. The memory stores various information, such as the programs executed by the CPU, information on various conditions related to the operation of the flying robot 101, and information on images captured by the camera 103.

メモリは、具体的には、たとえば、ICメモリやSSD(Solid State Drive)などによって実現することができる。また、メモリは、飛行型ロボット101に対して、飛行型ロボット101に設けられたカードスロットを介して着脱可能なメモリカードであってもよい。メモリカードは、たとえば、SD(Secure Digital)メモリカードなどのICカードによってその機能を実現することができる。メモリは、外付けのUSBメモリなどによって、その機能を実現するようにしてもよい。 Specifically, the memory can be realized by, for example, an IC memory or an SSD (Solid State Drive). The memory may also be a memory card that is detachable from the flying robot 101 via a card slot provided in the flying robot 101. The memory card can realize its function by, for example, an IC card such as an SD (Secure Digital) memory card. The memory may also realize its function by an external USB memory or the like.

また、制御回路207は、ソーラーセル210によって発電された電力をバッテリー201に充電する充電回路や、バッテリー201の残量を計測する残量計測回路などを含んでいる。充電回路は、ソーラーセル210が発電した電力における電圧を調整するDC/DCコンバータなどを含む。残量計測回路は、たとえば、インピーダンス・トラック方式、電圧測定方式、クーロン・カウンタ方式、あるいは、電池セル・モデリング方式など、公知の各種の方式を用いてバッテリー201の残量を計測する。 The control circuit 207 also includes a charging circuit that charges the battery 201 with the power generated by the solar cell 210, and a remaining charge measurement circuit that measures the remaining charge of the battery 201. The charging circuit includes a DC/DC converter that adjusts the voltage of the power generated by the solar cell 210. The remaining charge measurement circuit measures the remaining charge of the battery 201 using various known methods, such as an impedance track method, a voltage measurement method, a coulomb counter method, or a battery cell modeling method.

また、制御回路207は、IMU(Inertial Measurement Unit:慣性センサー)、ESC(Electronic Speed Controller)や、BEC(Battery Elimination Circuit)あるいはUBEC(Universal BEC)などの回路を含んでいる。 The control circuit 207 also includes circuits such as an IMU (Inertial Measurement Unit), an ESC (Electronic Speed Controller), a BEC (Battery Elimination Circuit), or a UBEC (Universal BEC).

IMUは、ドローンが外部の情報を取得するために必要なセンサー類であって、たとえば、加速度センサー208、ジャイロセンサー、気圧センサー、超音波センサー、磁気方位センサー(コンパス)などによって構成される。また、上記のGPSセンサー205も、IMUに含まれる。 The IMU is a set of sensors necessary for the drone to obtain external information, and is composed of, for example, an acceleration sensor 208, a gyro sensor, a barometric pressure sensor, an ultrasonic sensor, and a magnetic orientation sensor (compass). The GPS sensor 205 mentioned above is also included in the IMU.

加速度センサー208は、ドローンの速度の変化量を検出する。ジャイロセンサーおよび加速度センサー208により、ドローンの傾き具合とドローンの速度との両方の変化量を計算することができるので、ドローンが傾いたままであっても、飛行し続けることができる。 The acceleration sensor 208 detects the amount of change in the drone's speed. The gyro sensor and acceleration sensor 208 can calculate the amount of change in both the drone's tilt and the drone's speed, so the drone can continue flying even if it remains tilted.

ジャイロセンサーは、ドローンの角度の変化量を検出する。ジャイロセンサーは、たとえば、コリオリ力を利用して角速度を計測することによって、ドローンの角度の変化量を検出する。ジャイロセンサーにより、ドローンを安定して飛行させることができる。 The gyro sensor detects the amount of change in the drone's angle. The gyro sensor detects the amount of change in the drone's angle, for example, by measuring angular velocity using the Coriolis force. The gyro sensor enables the drone to fly stably.

気圧センサーは、ドローンの高度を検出する。気圧センサーは、たとえば、気圧の変化を検出することによって、ドローンの高度を検出する。気圧センサーによってドローンの高度を測定することにより、ドローンの高度を維持することができる。 The barometric sensor detects the altitude of the drone. The barometric sensor detects the altitude of the drone, for example, by detecting changes in air pressure. By measuring the altitude of the drone with the barometric sensor, the altitude of the drone can be maintained.

超音波センサーは、ドローンの下方に位置する物体(床面、障害物など)からの距離を検出する。超音波センサーは、たとえば、ドローンの下面に設けられ、ドローンの下方に発した超音波の跳ね返りを利用して、ドローンの下方に位置する物体からの距離を検出する。 The ultrasonic sensor detects the distance from an object (floor, obstacle, etc.) located below the drone. The ultrasonic sensor is installed, for example, on the underside of the drone, and detects the distance from an object located below the drone by using the reflection of ultrasonic waves emitted below the drone.

これにより、ドローンの地上(床面、地面など)追跡や、ステーション(図3Aおよび図3Bを参照)への帰還などを安定しておこなうことができる。対物センサー206として超音波センサーを用いる場合、ドローンの全方位に超音波を発し、当該超音波センサーによって、対物センサー206としての機能と、IMUの一部としての機能と、を両立させてもよい。 This allows the drone to be stably tracked on the ground (floor, ground, etc.) and returned to the station (see Figures 3A and 3B). When an ultrasonic sensor is used as the object sensor 206, ultrasonic waves may be emitted in all directions of the drone, and the ultrasonic sensor may function both as the object sensor 206 and as part of the IMU.

磁気方位センサーは、ドローンが東西南北のいずれの方角に向いているかを検出する。飛行型ロボット101は、飛行させる場所によって磁気の影響を受けるため、運用上、飛行させる場所の変更に際しては、コンパスキャリブレーションをおこない、磁気方位センサーの調整をおこなうことが好ましい。 The magnetic orientation sensor detects whether the drone is facing north, south, east or west. Since the flying robot 101 is affected by magnetism depending on the flying location, it is preferable to perform compass calibration and adjust the magnetic orientation sensor when changing the flying location.

IMUは、上記のマイコンとともにフライトコントローラを構成する。フライトコントローラは、モーター202の回転制御にかかる演算をおこない、ESCに対して、プロペラ(プロペラのモーター202)の回転方向や回転数を制御する制御信号を出力する。ESCは、フライトコントローラから出力された制御信号に基づきモーター202を回転制御する。フライトコントローラは、飛行型ロボット101の飛行中、飛行型ロボット101の傾きなどを検知して演算を繰り返しおこない、モーター202に対する制御信号を再帰的に出力する。 The IMU and the microcomputer constitute a flight controller. The flight controller performs calculations related to the rotation control of the motor 202, and outputs a control signal to the ESC that controls the rotation direction and speed of the propeller (propeller motor 202). The ESC controls the rotation of the motor 202 based on the control signal output from the flight controller. While the flying robot 101 is flying, the flight controller detects the inclination of the flying robot 101, etc., performs repeated calculations, and recursively outputs a control signal to the motor 202.

フライトコントローラは、具体的には、たとえば、隣り合うプロペラ102どうしを逆回転させるように制御する制御信号を出力することによって飛行型ロボット101の回転を防止する。また、たとえば、進行方向前方のプロペラ102を進行方向後方のプロペラ102よりも遅く回転させるように制御することによって飛行型ロボット101を前進させる。また、たとえば、進行方向右側のプロペラ102を進行方向左側のプロペラ102よりも遅く回転させるように制御することによって飛行型ロボット101を右方向に旋回させる。 Specifically, the flight controller prevents the flying robot 101 from rotating by, for example, outputting a control signal that controls adjacent propellers 102 to rotate in opposite directions. Also, for example, the flight controller controls the propeller 102 at the front in the direction of travel to rotate slower than the propeller 102 at the rear in the direction of travel, thereby moving the flying robot 101 forward. Also, for example, the flight controller controls the propeller 102 on the right side in the direction of travel to rotate slower than the propeller 102 on the left side in the direction of travel, thereby turning the flying robot 101 to the right.

通信I/F209は、通信回線を通じて飛行型ロボット101とネットワークNとを接続する無線通信インタ-フェースであって、ネットワークNと飛行型ロボット101の内部とのインタ-フェースをつかさどり、ネットワークNを介して接続されている外部装置からのデータの入力および外部装置へのデータの出力を制御する。ネットワークNは、たとえば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現される。 The communication I/F 209 is a wireless communication interface that connects the flying robot 101 to the network N through a communication line, and is responsible for the interface between the network N and the inside of the flying robot 101, and controls the input of data from and the output of data to external devices connected via the network N. The network N is realized, for example, by the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network).

通信I/F209は、たとえば、Wi-Fi(登録商標)による無線インタ-フェースによって実現することができる。また、通信I/F209は、携帯電話回線(たとえばLTE(Long Term Evolution)、PHS(Personal Handy-phone System)などの無線通信のインタ-フェースであってもよい。通信I/F209を介した通信は、所定の時刻、所定時間ごとなど定期的におこなってもよく、通信回線の状況などに応じて任意のタイミングでおこなってもよい。上記のメモリは、通信I/F209を介した通信によって取得した情報を記憶してもよい。 The communication I/F 209 can be realized by, for example, a wireless interface using Wi-Fi (registered trademark). The communication I/F 209 may also be a wireless communication interface such as a mobile phone line (for example, LTE (Long Term Evolution) or PHS (Personal Handy-phone System). Communication via the communication I/F 209 may be performed periodically, such as at a specified time or at specified intervals, or may be performed at any timing depending on the status of the communication line. The above memory may store information acquired by communication via the communication I/F 209.

目に相当する部分に設けられたLEDランプ104は、制御回路207によって制御され、飛行型ロボット101の飛行動作と連動して点灯したり消灯したり点滅したりする。また、LEDランプ104は、飛行型ロボット101の状態を案内してもよい。具体的には、たとえば、充電残量が所定の閾値を下回った場合に、所定のパターンで点滅する。LEDランプ104の発光色は1色に限るものではなく、複数色であってもよい。 The LED lamps 104 provided in the parts that correspond to the eyes are controlled by the control circuit 207, and turn on, off, and blink in conjunction with the flying motion of the flying robot 101. The LED lamps 104 may also provide information on the status of the flying robot 101. Specifically, for example, they blink in a predetermined pattern when the remaining charge falls below a predetermined threshold. The light color of the LED lamps 104 is not limited to one color, and may be multiple colors.

飛行型ロボット101は、その他、図示は省略するが、飛行型ロボット101に対する入力指示をおこなうキーまたはボタンなどの入力デバイスや、飛行型ロボット101の電源のON/OFFを切り替える電源スイッチ、および、目に相当する部分以外の位置に設けられたLEDランプなどを備えていてもよい。 The flying robot 101 may also be equipped with input devices such as keys or buttons for inputting instructions to the flying robot 101, a power switch for turning the flying robot 101 on and off, and LED lamps provided in positions other than those corresponding to the eyes, although these are not shown in the figure.

入力デバイスは、上述した所定の範囲の設定に用いてもよい。具体的には、たとえば、入力デバイスを介して、飛行型ロボット101に対する所定の入力指示を受け付けた場合に、GPSセンサー205などを用いて当該入力指示を受け付けた場所(位置情報)を特定し、特定した場所から所定範囲内を、所定の範囲として設定することができる。入力デバイスは、他の情報処理装置を接続可能な接続端子などによって実現されるものであってもよい。 The input device may be used to set the above-mentioned predetermined range. Specifically, for example, when a predetermined input instruction is received for the flying robot 101 via the input device, the location (location information) where the input instruction was received can be identified using the GPS sensor 205 or the like, and a predetermined range can be set within a predetermined range from the identified location. The input device may be realized by a connection terminal to which another information processing device can be connected.

(ステーションの構成)
つぎに、ステーションの構成について説明する。図3Aおよび図3Bは、ステーションの構成を示す説明図である。図3Aにおいては、ステーションの外観の一例を示している。図3Bにおいては、図3AにおけるA-A断面を示している。
(Station configuration)
Next, the configuration of the station will be described. Figures 3A and 3B are explanatory diagrams showing the configuration of the station. Figure 3A shows an example of the appearance of the station. Figure 3B shows a cross section taken along line AA in Figure 3A.

図3Aおよび図3Bに示すように、ステーション301は、一面が開放された略箱型をなす外装部302を備えている。ステーション301は、外装部302において開放された部分を、所定の範囲、すなわち、ゴミ集積場の側に向けた状態で設置されている。ステーション301は、人間の手が届きにくい高さに設置されていることが好ましい。これにより、ステーション301や飛行型ロボット101への悪戯を防止することができる。 As shown in Figures 3A and 3B, the station 301 has an exterior part 302 that is generally box-shaped and has one open side. The station 301 is installed with the open part of the exterior part 302 facing a predetermined range, i.e., toward the garbage collection area. The station 301 is preferably installed at a height that is difficult for humans to reach. This makes it possible to prevent tampering with the station 301 and the flying robot 101.

ステーション301は、バッテリー303と、ワイヤレス給電における送電コイル304を備えている。バッテリー303は、たとえば、電気自動車などに搭載される大容量バッテリーが好ましい。具体的には、バッテリー303は、たとえば、リチウム電池、鉛蓄電池、ニッケル水素電池などの二次電池(充電式電池、蓄電池)によって実現することができる。バッテリー303は、一次電池であってもよい。バッテリー303は、外装部302に対して着脱可能であってもよく、外装部302とは別体であってもよい。 The station 301 includes a battery 303 and a power transmission coil 304 for wireless power supply. The battery 303 is preferably a large-capacity battery that is installed in an electric vehicle or the like. Specifically, the battery 303 can be realized by a secondary battery (rechargeable battery, storage battery) such as a lithium battery, a lead-acid battery, or a nickel-metal hydride battery. The battery 303 may be a primary battery. The battery 303 may be detachable from the exterior unit 302, or may be separate from the exterior unit 302.

送電コイル304は、バッテリー303に接続され、ABS樹脂やシリコンゴムなどを用いて形成されたカバーに内包され、防水加工が施されている。これにより、ステーション301は、ワイヤレス電力伝送により、バッテリー201に給電をおこなうことができる。 The power transmission coil 304 is connected to the battery 303, enclosed in a cover made of ABS resin, silicone rubber, or the like, and waterproofed. This allows the station 301 to supply power to the battery 201 by wireless power transmission.

また、ステーション301は、太陽光などの外光によって発電するソーラーセル305や、ソーラーセル305によって発電された電力をバッテリー303に充電する充電回路などを備えていてもよい。ソーラーセル305は、ステーション301の外装部302の天面に設けられている。充電回路は、ソーラーセル305が発電した電力における電圧を調整するDC/DCコンバータなどを含む。ステーション301は、ソーラーセル305やバッテリー303を備えず、商用電源あるいは発電機などに接続されていてもよい。 The station 301 may also include a solar cell 305 that generates electricity using external light such as sunlight, and a charging circuit that charges the battery 303 with the electricity generated by the solar cell 305. The solar cell 305 is provided on the top surface of the exterior part 302 of the station 301. The charging circuit includes a DC/DC converter that adjusts the voltage of the electricity generated by the solar cell 305. The station 301 may not include the solar cell 305 or the battery 303, and may be connected to a commercial power source or a generator.

ステーション301は、外装部302の一部に透明アクリル板などを用いた窓を設け、かつ、外装部302の開放された一面に暖簾状の仕切りを設けて構成してもよい。このような構成のステーション301においては、窓を所定の範囲、すなわち、ゴミ集積場の側に向けた状態で設置することで、窓を介して所定の範囲を撮影しながら、ステーション301の内側への埃の侵入などを軽減し、飛行型ロボット101の劣化を抑制することができる。 The station 301 may be configured with a window made of a transparent acrylic plate or the like in part of the exterior 302, and a curtain-like partition on the open side of the exterior 302. In a station 301 configured in this way, the window is installed facing a predetermined range, i.e., the direction toward the garbage collection area, so that the predetermined range can be photographed through the window while reducing the intrusion of dust into the inside of the station 301 and preventing deterioration of the flying robot 101.

このようなステーション301を、上記のように、所定の範囲内、あるいは、当該所定の範囲の近傍に設置することにより、所定の範囲内にカラスが入り込んだ際に、迅速に、カラスに近づき、追い払うことができる。また、飛行による電力の消耗を抑えることができる。上述した所定の範囲は、ステーション301の設置位置に基づいて設定されるものであってもよい。具体的には、たとえば、ステーション301に無線通信機能を設け、ステーション301と飛行型ロボット101との通信距離を設定し、ステーション301との通信が可能な範囲を、所定の範囲として設定してもよい。 By installing such a station 301 within a specified range or in the vicinity of the specified range as described above, it is possible to quickly approach and chase away a crow when the crow enters the specified range. It is also possible to reduce power consumption due to flight. The above-mentioned specified range may be set based on the installation position of the station 301. Specifically, for example, the station 301 may be provided with a wireless communication function, a communication distance between the station 301 and the flying robot 101 may be set, and the range within which communication with the station 301 is possible may be set as the specified range.

より具体的には、ステーション301と飛行型ロボット101との通信は、たとえば、Bluetooth(登録商標)を用いる。1対1での通信を想定してつくられたBluetoothを用いることにより、通信速度や通信距離の点において、ともにWi-Fiなどの無線通信と比べて通信にかかる電力の消耗を抑えることができる。 More specifically, the communication between the station 301 and the flying robot 101 uses, for example, Bluetooth (registered trademark). By using Bluetooth, which was designed for one-to-one communication, it is possible to reduce the power consumption required for communication, both in terms of communication speed and communication distance, compared to wireless communication such as Wi-Fi.

ステーション301と飛行型ロボット101との通信を可能とすることにより、飛行型ロボット101がステーション301に帰還しているかどうかを判断することができる。そして、飛行型ロボット101がステーション301に帰還している状態でのみ、送電コイル304に通電して送電コイル304に磁界を発生させ、バッテリー201への給電をおこなうようにすることができる。これにより、バッテリー303の消耗を抑えることができる。 By enabling communication between the station 301 and the flying robot 101, it is possible to determine whether the flying robot 101 has returned to the station 301. Then, only when the flying robot 101 has returned to the station 301, electricity is passed through the power transmission coil 304 to generate a magnetic field in the power transmission coil 304, thereby supplying power to the battery 201. This makes it possible to reduce consumption of the battery 303.

ステーション301は、モバイルWi-Fiルーターなどの無線通信ルーターを備えていてもよい。これにより、ステーション301を通信スポットとして機能させることができ、飛行型ロボット101は、ステーション301を介して通信をおこなうことができる。また、1台のステーション301を設置して、複数台の飛行型ロボット101を利用することができる。 The station 301 may be equipped with a wireless communication router such as a mobile Wi-Fi router. This allows the station 301 to function as a communication spot, and the flying robot 101 can communicate via the station 301. Also, a single station 301 can be installed to use multiple flying robots 101.

また、ステーション301が無線通信ルーターを備えている場合、バッテリー303の残量が、バッテリー303に対してあらかじめ設定された所定の閾値以下になった場合、管理者などの特定の人物が所有する携帯型電話機などに、バッテリー303のバッテリー303の充電ないしバッテリー303の交換が必要である旨を通知してもよい。これにより、ステーション301の管理にかかる管理者の負担を抑えつつ、ステーション301の機能を確実に維持することができる。 In addition, if station 301 is equipped with a wireless communication router, when the remaining charge of battery 303 falls below a predetermined threshold value previously set for battery 303, a notification may be sent to a mobile phone or other device owned by a specific person, such as an administrator, that battery 303 needs to be charged or replaced. This makes it possible to reliably maintain the functionality of station 301 while reducing the burden on the administrator in managing station 301.

(飛行型ロボット101の機能的構成)
つぎに、飛行型ロボット101の機能的構成について説明する。図4は、この発明にかかる飛行型ロボット101の機能的構成を示す説明図である。図4に示すように、飛行型ロボット101の機能は、記憶部401と、検出部402と、撮影部403と、取得部404と、駆動部405と、出力部406と、制御部407と、によって実現される。
(Functional Configuration of Flying Robot 101)
Next, the functional configuration of the flying robot 101 will be described. Fig. 4 is an explanatory diagram showing the functional configuration of the flying robot 101 according to the present invention. As shown in Fig. 4, the functions of the flying robot 101 are realized by a memory unit 401, a detection unit 402, an image capture unit 403, an acquisition unit 404, a drive unit 405, an output unit 406, and a control unit 407.

記憶部401は、制御部407による制御にかかる各種プログラムや、プログラムの実行に用いる閾値などを含む各種情報を記憶する。具体的には、記憶部401は、たとえば、カラスの認識に用いるパターン認識(画像認識)にかかる、カラスの特徴量に関する情報を記憶する。 The storage unit 401 stores various information including various programs controlled by the control unit 407 and thresholds used to execute the programs. Specifically, the storage unit 401 stores information related to the feature amounts of crows, which are used for pattern recognition (image recognition) to recognize crows, for example.

また、記憶部401は、撮影部403によって撮影された画像情報や、取得部404が取得した情報などを記憶する。記憶部401は、バッテリーの充電スポットに関する情報などを記憶してもよい。記憶部401は、具体的には、たとえば、図2に示した制御回路207におけるメモリなどによって、その機能を実現することができる。 The storage unit 401 also stores image information captured by the image capture unit 403 and information acquired by the acquisition unit 404. The storage unit 401 may also store information related to battery charging spots. Specifically, the storage unit 401 can realize its functions by, for example, a memory in the control circuit 207 shown in FIG. 2.

検出部402は、たとえば、所定のアプリケーションをインストールしたスマートフォンなどの端末装置から出力される信号を検出する。また、検出部402は、たとえば、飛行型ロボット101の利用者などによっておこなわれる、キーまたはボタンなどの入力デバイスを介した、飛行型ロボット101に対する所定の入力指示を受け付けたことを検出してもよい。検出部402は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The detection unit 402 detects, for example, a signal output from a terminal device such as a smartphone on which a specific application is installed. The detection unit 402 may also detect that a specific input instruction to the flying robot 101 has been received via an input device such as a key or button, performed by a user of the flying robot 101, for example. Specifically, the detection unit 402 can realize its function by, for example, the communication I/F 209 shown in FIG. 2.

また、検出部402は、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出する。この場合、検出部402は、具体的には、たとえば、図2に示した対物センサー206などによって、その機能を実現することができる。また、この場合の検出部402は、具体的には、たとえば、対物センサー206に代えて、あるいは、対物センサー206に加えて、図1や図2に示したカメラ103などによって、その機能を実現してもよい。 The detection unit 402 also detects whether or not there is an obstacle within a predetermined range from the flying robot 101. In this case, the detection unit 402 can specifically realize its function by, for example, the object sensor 206 shown in FIG. 2. In this case, the detection unit 402 can specifically realize its function by, for example, the camera 103 shown in FIG. 1 or FIG. 2 instead of the object sensor 206 or in addition to the object sensor 206.

カメラ103による障害物の有無の検出は、たとえば、飛行型ロボット101が移動することにより得られる、異なる複数の位置において撮影された各画像における視差(各画像どうしの差分)に基づき、障害物までの距離を求める移動ステレオ方法を用いることによって実現することができる。移動ステレオ方法を用いることにより、単眼のカメラを用いて、飛行型ロボット101から所定範囲内に存在する障害物の有無を検出することができる。 Detection of the presence or absence of an obstacle by the camera 103 can be realized, for example, by using a mobile stereo method that determines the distance to an obstacle based on the parallax (the difference between each image) in each image taken at multiple different positions obtained by the movement of the flying robot 101. By using the mobile stereo method, the presence or absence of an obstacle present within a predetermined range from the flying robot 101 can be detected using a monocular camera.

撮影部403は、所定の範囲内の画像を撮影する。撮影部403は、たとえば、所定の範囲の外側から、当該所定の範囲内の画像を撮影する。また、撮影部403は、たとえば、所定の範囲内において、当該所定の範囲内の画像を撮影してもよい。撮影部403は、具体的には、たとえば、図1や図2に示したカメラ103などによって、その機能を実現することができる。 The photographing unit 403 photographs an image within a predetermined range. For example, the photographing unit 403 photographs an image within the predetermined range from outside the predetermined range. The photographing unit 403 may also photograph an image within the predetermined range from within the predetermined range. Specifically, the photographing unit 403 can realize its function by, for example, the camera 103 shown in FIG. 1 or FIG. 2.

上記の記憶部401は、撮影部403によって撮影された画像にかかる画像情報を記憶してもよい。また、記憶部401は、画像情報に加えて、当該画像情報にかかる画像を撮影した場所や時刻に関する情報を、当該画像情報に関連付けて記憶してもよい。画像を撮影した場所や時刻に関する情報は、たとえば、図2に示したGPSセンサー205を用いて特定することができる。 The storage unit 401 may store image information related to an image captured by the image capture unit 403. The storage unit 401 may also store, in addition to the image information, information related to the location and time when the image related to the image information was captured in association with the image information. The information related to the location and time when the image was captured can be identified, for example, using the GPS sensor 205 shown in FIG. 2.

取得部404は、飛行型ロボット101の外部の情報を取得する。具体的には、取得部404は、たとえば、ネットワークNを介して、外部装置から所定の情報を取得する。取得部404は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The acquisition unit 404 acquires information external to the flying robot 101. Specifically, the acquisition unit 404 acquires predetermined information from an external device, for example, via the network N. Specifically, the acquisition unit 404 can realize its functions, for example, by the communication I/F 209 shown in FIG. 2.

取得部404は、具体的には、たとえば、現時点以降の所定時間内に、災害などのような周囲の人間に影響を与える可能性がある事象が発生する可能性があることを示す情報を取得する。具体的には、取得部404は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得する。 The acquisition unit 404 specifically acquires information indicating that an event that may affect people in the vicinity, such as a disaster, may occur within a predetermined time from the current time. Specifically, the acquisition unit 404 acquires information indicating that a disaster, earthquake, tsunami, lightning, rain, strong winds, or sudden weather change may occur within a predetermined time from the current time.

また、取得部404は、たとえば、別の飛行型ロボット101が学習した情報を取得してもよい。これにより、単機の飛行型ロボット101の学習により得られた情報を、別の複数の飛行型ロボット101が共有することができ、飛行型ロボット101に、カラスの認識およびカラスの追い払いに一層適した行動をさせることができる。 The acquisition unit 404 may also acquire information learned by another flying robot 101, for example. This allows information acquired by learning from a single flying robot 101 to be shared by a plurality of other flying robots 101, enabling the flying robot 101 to behave in a manner more suitable for recognizing and chasing away crows.

駆動部405は、飛行型ロボット101の飛行を制御する。駆動部405は、具体的には、たとえば、図1に示したプロペラ102や、図2に示した制御回路207におけるフライトコントローラ、ESC、BEC(UBEC)、モーター202、および、対物センサー206などによって、その機能を実現することができる。 The driving unit 405 controls the flight of the flying robot 101. Specifically, the driving unit 405 can realize its functions by, for example, the propeller 102 shown in FIG. 1, the flight controller in the control circuit 207 shown in FIG. 2, the ESC, the BEC (UBEC), the motor 202, and the object sensor 206.

出力部406は、たとえば、スピーカー204から所定の音声を出させる。所定の音声は、たとえば、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声とすることができる。また、所定の音声は、たとえば、録音された銃声、または、銃声を模した合成音声であってもよい。 The output unit 406, for example, causes the speaker 204 to output a predetermined sound. The predetermined sound can be, for example, a recorded cry of a bird of prey or a synthetic sound that imitates a cry of a bird of prey. The predetermined sound can also be, for example, a recorded gunshot or a synthetic sound that imitates a gunshot.

さらに、所定の音声は、たとえば、録音された犬の吠え声、または、犬の吠え声を模した合成音声であってもよく、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であってもよい。この場合、出力部406は、具体的には、たとえば、図2に示したスピーカー204などによって、その機能を実現することができる。 Furthermore, the predetermined sound may be, for example, a recorded dog barking or a synthetic sound that imitates a dog barking, or a recorded sound of an attacked crow, an alert crow, or a frightened crow, or a synthetic sound that imitates these sounds. In this case, the output unit 406 can specifically realize its function by, for example, the speaker 204 shown in FIG. 2.

また、出力部406は、たとえば、LEDランプ104を点灯させる。また、出力部406は、たとえば、LEDランプ104を点滅させる。この場合、出力部406は、具体的には、たとえば、図1や図2に示したLEDランプ104などによって、その機能を実現することができる。 The output unit 406 also turns on the LED lamp 104, for example. The output unit 406 also blinks the LED lamp 104, for example. In this case, the output unit 406 can specifically realize its function by, for example, the LED lamp 104 shown in FIG. 1 or FIG. 2.

また、出力部406は、たとえば、災害、地震、津波、発雷、降雨、強風、急激な天候の変化など、周辺の人間に何らかの影響を与える可能性がある事象が発生する可能性があることを示す情報が取得されたことに応じて、当該事象が発生する可能性があることを案内する音声を出力したり、特定のパターンや発光色でLEDランプ104を発光させたり点滅させたりしてもよい。 In addition, the output unit 406 may output a voice informing the user of the possibility of an event that may have some effect on people in the vicinity, such as a disaster, earthquake, tsunami, lightning, rain, strong winds, or a sudden change in weather, upon acquiring information indicating the possibility of the event occurring, or may cause the LED lamp 104 to light up or flash in a specific pattern or color.

制御部407は、飛行型ロボット101の全体を制御する。制御部407は、具体的には、たとえば、図2に示した制御回路207によって、その機能を実現することができる。制御部407は、より具体的には、たとえば、図2に示した制御回路207におけるCPUによって、メモリなどに記憶されたプログラムを実行することによって、その機能を実現することができる。 The control unit 407 controls the entire flying robot 101. Specifically, the control unit 407 can realize its functions, for example, by the control circuit 207 shown in FIG. 2. More specifically, the control unit 407 can realize its functions, for example, by the CPU in the control circuit 207 shown in FIG. 2 executing a program stored in a memory or the like.

制御部407は、たとえば、駆動部405を制御することによって、飛行型ロボット101を飛行させる。また、制御部407は、たとえば、撮影部403を駆動制御することによって撮影をおこなう。さらに、制御部407は、撮影部403によって撮影された画像に基づいて、対象物を認識する。対象物は、たとえば、カラスとすることができる。対象物(カラス)の認識は、たとえば、撮影部403によって撮影された画像に、対象物が含まれているか否かを判断することによっておこなう。 The control unit 407, for example, controls the drive unit 405 to make the flying robot 101 fly. The control unit 407 also takes images by, for example, controlling the drive of the image capture unit 403. The control unit 407 also recognizes the object based on the image captured by the image capture unit 403. The object can be, for example, a crow. The object (crow) is recognized, for example, by determining whether or not the object is included in the image captured by the image capture unit 403.

制御部407は、AI(Artificial Intelligence:人工知能)機能を備え、ハシブトガラスやハシボソガラスのように複数種類の対象物(カラス)を学習してもよい。制御部407は、カラスを認識することに特化した特化型人工知能を備えていてもよい。近年は、人工知能を搭載したコンピュータの小型化が進んでおり、人工知能を搭載した制御回路207(コンピューター)であっても、飛行型ロボット101を円滑に飛行させることができる。制御部407は、さらに、ゴミ集積場に集積されたゴミを散乱させるネコなどの動物や、資源ゴミの持ち去りをする人間などを学習してもよい。 The control unit 407 may have an AI (Artificial Intelligence) function and may learn multiple types of objects (crows) such as large-billed crows and carrion crows. The control unit 407 may have specialized AI specialized for recognizing crows. In recent years, computers equipped with AI have become smaller, and even a control circuit 207 (computer) equipped with AI can fly the flying robot 101 smoothly. The control unit 407 may further learn animals such as cats that scatter garbage accumulated in garbage collection areas, and humans that take away recyclable garbage.

対象物の認識に際し、制御部407は、たとえば、撮影部403によって撮影された画像のノイズや歪みなどを取り除き、当該画像に含まれるオブジェクトの輪郭を強調したり、当該画像の明るさや色合いを調整したりすることによって、当該画像に含まれる対象物(カラス)を抽出しやすくする。また、カメラ103のレンズが広角レンズである場合、画像の歪み補正を補正してもよい。 When recognizing the object, the control unit 407 makes it easier to extract the object (crow) contained in the image by, for example, removing noise and distortion from the image captured by the image capture unit 403, emphasizing the contours of objects contained in the image, and adjusting the brightness and color of the image. In addition, if the lens of the camera 103 is a wide-angle lens, the control unit 407 may correct distortion of the image.

また、対象物の認識に際し、制御部407は、たとえば、ピクセル単位で、羽根の位置や嘴の形状などの特徴を抽出し、ピクセルに付与されている色や明るさなどの各種の情報に基づいて、撮影部403によって撮影された画像に、対象物が含まれているか否かを判断する。 When recognizing an object, the control unit 407 extracts features such as the position of the wings and the shape of the beak on a pixel-by-pixel basis, and determines whether the object is included in the image captured by the image capture unit 403 based on various information such as color and brightness assigned to the pixels.

対象物の認識に際し、制御部407は、広角レンズなどを使用することにより歪んだ画像に基づいて対象物を認識してもよく、標準レンズと同様の画像になるように歪み修正をおこなった画像に基づいて対象物を認識してもよい。 When recognizing an object, the control unit 407 may recognize the object based on a distorted image obtained by using a wide-angle lens or the like, or may recognize the object based on an image that has been corrected for distortion so that the image resembles an image obtained with a standard lens.

対象物は、ゴミを漁っている、あるいは、ゴミを漁る直前のカラスであってもよい。すなわち、単にカラスが撮影された場合は、対象物として認識せず、カラスがゴミに触れた場合や、カラスとゴミとの間隔が所定の数値以下になった場合に、カラスを対象物として認識してもよい。 The object may be a crow rummaging through trash or about to rummage through trash. In other words, if a crow is simply photographed, it may not be recognized as an object, but may be recognized as an object if the crow touches trash or if the distance between the crow and the trash falls below a predetermined value.

対象物の認識に際し、制御部407は、たとえば、認識したカラスの特徴を学習(機械学習)し、学習結果を記憶部401に記憶してもよい。カラスの特徴は、たとえば、飛来してくるカラスの大きさや、飛来してくることが多い曜日、飛来してくることが多い時刻、どのような方向から飛来してきたか、などとすることができる。 When recognizing an object, the control unit 407 may, for example, learn (machine learning) the characteristics of the recognized crow and store the learning results in the storage unit 401. The characteristics of the crow may be, for example, the size of the crow that arrives, the day of the week when it most often arrives, the time of day when it most often arrives, the direction from which it arrived, etc.

そして、この場合、制御部407は、カラスが飛来する可能性が高い条件下においてのみ、撮影部403を駆動制御することによって撮影をおこなうようにしてもよい。あるいは、この場合、制御部407は、カラスが飛来する可能性が高い条件下においては、連続して撮影をおこない、カラスが飛来する可能性が低い条件下においては、5分や10分などの時間間隔を空けて断続的に撮影をおこなうようにしてもよい。 In this case, the control unit 407 may control the operation of the image capturing unit 403 to capture images only under conditions where there is a high possibility of a crow arriving. Alternatively, in this case, the control unit 407 may capture images continuously under conditions where there is a high possibility of a crow arriving, and capture images intermittently at time intervals of, for example, 5 or 10 minutes under conditions where there is a low possibility of a crow arriving.

断続的な撮影は、たとえば、1分間の撮影をおこなった後、5分間撮影を停止し、その後また1分間の撮影をおこなう、のような撮影をおこなう。カラスが飛来する可能性の高い条件であるか否かは、たとえば、現在の曜日や時刻などの要素が、あらかじめ設定された条件に該当するか否かによって判断することができる。また、カラスが飛来する可能性の高い条件であるか否かは、たとえば、あらかじめ設定された条件に該当する要素の数が、所定の閾値を超えるか否かによって判断してもよい。 Intermittent filming may involve, for example, filming for one minute, stopping for five minutes, and then filming for another minute. Whether or not conditions are favorable for crows to arrive can be determined, for example, by whether elements such as the current day of the week and time meet pre-set conditions. Also, whether or not conditions are favorable for crows to arrive may be determined, for example, by whether the number of elements that meet pre-set conditions exceeds a specified threshold.

また、制御部407は、対象物(カラス)を認識した場合に、駆動部405を制御することによって、飛行型ロボット101を飛行させる。制御部407は、たとえば、撮影部403によって撮影された画像に基づいて、対象物を認識した場合、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させる。 When the control unit 407 recognizes an object (a crow), it controls the driving unit 405 to fly the flying robot 101. When the control unit 407 recognizes an object based on an image captured by the image capture unit 403, for example, it controls the driving unit 405 to fly the flying robot 101 so as to approach the object.

制御部407は、具体的には、たとえば、対象物を所定の範囲から押し出すように、カラスよりも所定の範囲の内側から外側へ向かって飛行させる。これにより、カラスにプレッシャーをかけ、カラスを傷つけることなくゴミ集積場からカラスを追い払うことができる。 Specifically, the control unit 407, for example, makes the object fly from inside to outside the predetermined range relative to the crow, so as to push the object out of the predetermined range. This puts pressure on the crow, making it possible to scare the crow away from the garbage collection area without injuring it.

制御部407は、対象物(カラス)を認識した場合に、たとえば、所定の範囲内を設定速度以下の速度で飛行する。また、制御部407は、対象物(カラス)を認識した場合に、所定の範囲内の任意の位置において、ホバリング飛行したり、上下飛行したりしてもよい。所定の範囲内の任意の位置は、たとえば、カラスの周辺とすることができる。これによっても、カラスにプレッシャーをかけ、カラスを傷つけることなくゴミ集積場からカラスを追い払うことができる。 When the control unit 407 recognizes an object (a crow), for example, it flies within a predetermined range at a speed equal to or lower than a set speed. Furthermore, when the control unit 407 recognizes an object (a crow), it may perform hovering flight or vertical flight at any position within the predetermined range. The any position within the predetermined range may be, for example, the vicinity of the crow. This also makes it possible to put pressure on the crow and drive it away from the garbage collection area without harming it.

カメラ103を一体に備える飛行型ロボット101は、ゴミ集積場内を撮影しやすい位置に自律飛行することができる。これにより、たとえば、カメラの位置や、ゴミ集積場周辺の樹木や家屋の位置、ゴミの出し方、出されたゴミの形状や大きさなどの環境的な要因に左右されることなく、死角なくカラスを撮影することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させることによって、ゴミ集積場などからカラスを追い払うようにした従来の技術と比較して、カラスを確実に撮影し、ゴミ集積場から効果的にカラスを追い払うことができる。 The flying robot 101 equipped with an integrated camera 103 can fly autonomously to a position within the garbage dump where it is easy to photograph. This allows it to photograph crows without any blind spots, without being influenced by environmental factors such as the position of the camera, the positions of trees and houses around the garbage dump, the way the garbage is disposed of, or the shape and size of the garbage disposed of. This makes it possible to reliably photograph crows and effectively scare them away from garbage dumps, compared to conventional technology that scare crows away from garbage dumps by flying a drone based on images taken by a stationary camera.

また、カメラ103を一体に備える飛行型ロボット101は、カラスを確実に撮影する位置まで自律飛行することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させることによって、ゴミ集積場などからカラスを追い払うようにした従来の技術と比較して、カラスを見失うことを回避し、カラスを確実に撮影し、ゴミ集積場から効果的にカラスを追い払うことができる。 Furthermore, the flying robot 101 equipped with the integrated camera 103 can fly autonomously to a position where it can reliably photograph crows. This makes it possible to avoid losing sight of crows, reliably photograph crows, and effectively scare them away from garbage dumps, compared to conventional techniques that use drones to fly based on images taken by a stationary camera to scare crows away from garbage dumps and the like.

発明者は、ゴミ集積場などの所定の範囲に存在するカラスを追い払う、すなわち、ゴミ集積場に飛来してゴミを散乱させるカラスを撃退するように動作する飛行型ロボット101を『ドロクロウ』と名付けた。また、発明者は、ゴミ集積場などの所定の範囲に存在するカラスを追い払う、すなわち、ゴミ集積場に飛来してゴミを散乱させるカラスを撃退するように動作する飛行型ロボット101を『ドロアタッカー』と名付けた。 The inventor has named the flying robot 101, which operates to scare off crows that are present in a specified range such as a garbage dump, i.e., to repel crows that fly into the garbage dump and scatter garbage, "Drop Crow." The inventor has also named the flying robot 101, which operates to scare off crows that are present in a specified range such as a garbage dump, i.e., to repel crows that fly into the garbage dump and scatter garbage, "Drop Attacker."

制御部407は、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させながら、所定のプロセスを実行してもよい。たとえば、図2に示したスピーカー204によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、猛禽の鳴き声を模した音声を出力したり、怯えたカラスが発する声を出力したりする動作によって、所定のプロセスを実現することができる。 The control unit 407 may execute a predetermined process while controlling the driving unit 405 to fly the flying robot 101 so as to approach the target object. For example, when the output unit 406 is realized by the speaker 204 shown in FIG. 2, the control unit 407 can execute a predetermined process by controlling the output unit 406 to output a sound that imitates the cry of a bird of prey or a sound made by a frightened crow.

スピーカー204が指向性スピーカーである場合、騒々しい環境であっても、カメラ103によりカラスの位置を確認しながら飛行することで、スピーカー204が発する音声が、周囲の音声と混ざったり消えてしまったりさせることなく、確実に対象とするカラスに届けることができる。 If the speaker 204 is a directional speaker, even in a noisy environment, the drone can fly while checking the position of the crow using the camera 103, so that the sound emitted by the speaker 204 can be reliably delivered to the target crow without being mixed with surrounding sounds or being lost.

また、スピーカー204が指向性スピーカーである場合、必要な方向のみに音声を発することにより、カラスのいない方向にまで四方八方に音声が発せられることを回避することができる。これにより、ゴミ集積場が住宅地であっても、周辺の住民の迷惑となることを抑制することができる。 In addition, if the speaker 204 is a directional speaker, sound can be emitted only in the necessary direction, thereby preventing sound from being emitted in all directions, even in directions where there are no crows. This makes it possible to prevent the garbage dump from becoming a nuisance to the surrounding residents, even if the dump is located in a residential area.

また、たとえば、図1や図2に示したLEDランプ104によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、光源(LEDランプ104)を点灯させたり点滅させたりする動作によって、所定のプロセスを実現することができる。特に、目に相当する部分に設けられたLEDランプ104を点滅させることにより、飛行型ロボット101の視認性を高め、飛行型ロボット101の存在を、遠くからカラスに意識させることができる。 For example, when the output unit 406 is realized by the LED lamp 104 shown in FIG. 1 or FIG. 2, the control unit 407 can realize a predetermined process by controlling the output unit 406 to turn on or blink the light source (LED lamp 104). In particular, blinking the LED lamp 104 provided in the part corresponding to the eye can increase the visibility of the flying robot 101, making it possible to make crows aware of the presence of the flying robot 101 from a distance.

知能が高いカラスは、ロボットであっても、飛行型ロボット101が、カラスの苦手な猛禽の形状であり、「目」があることを理解する。その猛禽の「目」であるLEDランプ104を点滅させ、自然界にはありえない状況を作り出すことで、カラスの不安をあおり、ゴミ集積場での居心地を悪くして、ゴミ集積場から離れるように誘導することができる。これにより、カラスを傷つけることなく、効果的に、ゴミ集積場などの所定の範囲からカラスを追い払うとともに、飛行型ロボット101が配備されたゴミ集積場からカラスを遠ざけることができる。 Crows are highly intelligent and understand that even though the flying robot 101 is a robot, it has the shape of a bird of prey, which crows dislike, and has "eyes." By flashing the LED lamps 104, which are the "eyes" of the bird of prey, and creating a situation that would not exist in the natural world, it is possible to make the crows feel uneasy and uncomfortable at the garbage dump, thereby inducing them to leave the garbage dump. This makes it possible to effectively scare off crows from a specified area, such as a garbage dump, without harming them, and to keep them away from the garbage dump where the flying robot 101 is deployed.

ゴミを漁っている、あるいは、ゴミを漁る直前のカラスを対象物として認識する場合、制御部407は、画像にカラスを認識するとステーション301からの飛行を開始し、カラスには近づかずに、カラスからある程度の距離以上離れたところを飛行するようにしてもよい。これにより、ゴミを散乱させるなどの、人間にとっての迷惑行為をしていないカラスまで飛行型ロボット101で追い払うことをなくし、カラスに過剰なプレッシャーを与えることを防止できる。 When recognizing a crow that is rummaging through garbage or is about to rummage through garbage as an object, the control unit 407 may start flying from the station 301 when it recognizes the crow in the image, and fly at a certain distance away from the crow without approaching it. This prevents the flying robot 101 from chasing away crows that are not causing a nuisance to humans, such as scattering garbage, and prevents excessive pressure on the crows.

また、知能が高いカラスに、「あの場所(ゴミ集積場)で食事をしなければ(飛行型ロボットが)追いかけてこない」と学習させることで、ゴミを漁らないように誘導し、長期的に見て、ゴミの散乱問題の解決が期待できる。また、日頃から、ゴミを食する利便性を確保するためゴミ集積場の周辺で生活しているカラスを、ゴミ集積場の周辺から遠ざけることが期待できる。これにより、カラスの活動場所と人間の生活範囲とが重なっているために繁殖期に人間がカラスに襲われる危険を少なくすることが期待できる。 In addition, by teaching highly intelligent crows that "if they don't eat at that place (the garbage dump), the flying robot won't chase them," it is possible to guide them away from rummaging through the garbage, which is expected to solve the garbage scattering problem in the long run. It is also expected that crows that normally live around garbage dumps to ensure the convenience of eating garbage will be kept away from the area. This is expected to reduce the risk of humans being attacked by crows during the breeding season, as the areas where crows are active overlap with the living areas of humans.

制御部407は、所定の範囲内(ゴミ集積場およびその周辺)にカラスがいなくなった場合、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させる。また、制御部407は、バッテリー201の残量が所定量以下となった場合に、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させてもよい。 When there are no more crows within a predetermined range (the garbage collection area and its surroundings), the control unit 407 controls the drive unit 405 to fly the flying robot 101 to return to the station 301. In addition, when the remaining charge of the battery 201 falls below a predetermined level, the control unit 407 may control the drive unit 405 to fly the flying robot 101 to return to the station 301.

(飛行型ロボット101の処理手順)
つぎに、飛行型ロボット101の処理手順について説明する。図5は、この発明にかかる実施の形態1の飛行型ロボット101の処理手順を示すフローチャートである。図5のフローチャートにおいて、まず、カメラ103により画像を撮影する(ステップS501)。そして、ステップS501において撮影された画像に基づいて、カラスを認識したか否かを判断する(ステップS502)。
(Processing Procedure of Flying Robot 101)
Next, the processing procedure of the flying robot 101 will be described. Fig. 5 is a flowchart showing the processing procedure of the flying robot 101 according to the first embodiment of the present invention. In the flowchart of Fig. 5, first, an image is taken by the camera 103 (step S501). Then, based on the image taken in step S501, it is determined whether or not a crow has been recognized (step S502).

ステップS502においては、上記のように、撮影された画像のノイズや歪みなどを取り除き、当該画像に含まれるオブジェクトの輪郭を強調したり、当該画像の明るさや色合いを調整したりすることによって、当該画像に含まれる対象物(カラス)を抽出しやすくする。また、対象物の認識に際し、制御部407は、たとえば、ピクセル単位で、羽根の位置や嘴の形状などの特徴を抽出し、ピクセルに付与されている色や明るさなどの各種の情報に基づいて、カメラ103によって撮影された画像に、対象物が含まれているか否かを判断する。 In step S502, as described above, noise and distortions in the captured image are removed, the contours of objects contained in the image are emphasized, and the brightness and color of the image are adjusted, making it easier to extract the object (crow) contained in the image. In addition, when recognizing the object, the control unit 407 extracts features such as the position of the wings and the shape of the beak on a pixel-by-pixel basis, and determines whether the object is included in the image captured by the camera 103 based on various information such as the color and brightness assigned to the pixels.

また、ステップS502においては、認識したカラスの特徴に関する情報を、図2に示した制御回路207におけるメモリに記憶してもよい。カラスの特徴に関する情報は、たとえば、飛来してくるカラスの大きさや、飛来してくることが多い曜日、飛来してくることが多い時刻、どのような方向から飛来してきたか、などとすることができる。 In addition, in step S502, information regarding the characteristics of the recognized crow may be stored in the memory of the control circuit 207 shown in FIG. 2. Information regarding the characteristics of the crow may be, for example, the size of the arriving crow, the day of the week when it most often arrives, the time of day when it most often arrives, the direction from which it arrived, etc.

ステップS502においては、撮影された画像に基づいて、カラスを認識するまで待機し(ステップS502:No)、認識した場合(ステップS502:Yes)、ステーション301からの飛行を開始する(ステップS503)。ステップS503においては、たとえば、ステップS502:Yesにおいて認識したカラスに接近するように飛行を開始する。 In step S502, the drone waits until it recognizes a crow based on the captured image (step S502: No), and if it recognizes a crow (step S502: Yes), it starts flying from station 301 (step S503). In step S503, for example, it starts flying to approach the crow recognized in step S502: Yes.

また、所定のプロセスを実行する(ステップS504)。ステップS504においては、たとえば、ゴミ集積場内を設定速度以下の速度で飛行したり、ゴミ集積場内におけるカラスの周辺などの任意の位置において、ホバリング飛行したり、上下飛行する。 Then, a predetermined process is executed (step S504). In step S504, for example, the robot flies within the garbage dump at a speed equal to or lower than a set speed, hovers at an arbitrary position within the garbage dump, such as around a crow, or flies up and down.

また、ステップS504においては、たとえば、スピーカー204から、猛禽の鳴き声を模した音声を出力したり、怯えたカラスが発する声を出力したり、録音された犬の吠え声、または、犬の吠え声を模した合成音声を出力したり、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声を出力したりしてもよい。 In addition, in step S504, for example, the speaker 204 may output a sound that imitates the cry of a bird of prey, a sound made by a frightened crow, a recorded dog barking or a synthetic sound that imitates a dog barking, a recorded sound made by an attacked crow, a wary crow, or a frightened crow, or a synthetic sound that imitates these sounds.

また、ステップS504においては、たとえば、LEDランプ104を点灯させたり点滅させたりしてもよい。また、ステップS504においては、たとえば、フラッシュのように強い光を瞬間的に発光してもよい。また、ステップS504においては、たとえば、LEDランプ104の発光色を変化させてもよい。LEDランプ104がカメラ103のレンズを縁取るように設けられている場合は、当該レンズの周囲(目の周り)で回転するように点灯あるいは点滅させてもよい。 In step S504, for example, the LED lamp 104 may be turned on or blinked. In step S504, for example, a strong light such as a flash may be emitted momentarily. In step S504, for example, the color of the light emitted by the LED lamp 104 may be changed. If the LED lamp 104 is provided so as to frame the lens of the camera 103, it may be turned on or blinked so as to rotate around the lens (around the eye).

これらの所定のプロセスは、常に同じものに限らない。たとえば、カメラ103が撮影された画像に基づいて、カラスの反応の大きさを認識し、実行中のプロセスでは効果が低いと判断した場合は、別のプロセスに切り替えておこなってもよい。また、プロセスは、1つに限るものではなく、2つ以上のプロセスを並行しておこなってもよい。 These predetermined processes do not always have to be the same. For example, if the magnitude of the crow's reaction is recognized based on the image captured by the camera 103 and it is determined that the currently running process is not effective, a different process may be switched to. Furthermore, the number of processes is not limited to one, and two or more processes may be run in parallel.

そして、ゴミ集積場内からカラスを追い払ったか否かを判断する(ステップS505)。ステップS505においては、たとえば、カメラ103によって撮影された画像、GPSセンサー205を用いて特定される飛行型ロボット101の現在位置、その他飛行型ロボット101が備えるセンサー類を用いて特定される飛行型ロボット101の向きなどに基づいて、ゴミ集積場内からカラスを追い払ったか否かを判断する。 Then, it is determined whether or not the crows have been chased away from the garbage collection area (step S505). In step S505, it is determined whether or not the crows have been chased away from the garbage collection area based on, for example, the image captured by the camera 103, the current position of the flying robot 101 determined using the GPS sensor 205, and the orientation of the flying robot 101 determined using other sensors equipped on the flying robot 101.

ステップS505において、ゴミ集積場内からカラスを追い払っていない場合(ステップS505:No)、ステップS504へ移行して、所定のプロセスを実行する。ステップS505:Noを経由した場合のステップS504においては、先におこなっていたプロセスと異なるプロセスを実行してもよく、同じプロセスを継続して実行してもよい。 In step S505, if the crows have not been chased away from the garbage collection area (step S505: No), the process proceeds to step S504 and a predetermined process is executed. In step S504 after passing through step S505: No, a process different from the previous process may be executed, or the same process may be continued.

また、ステップS505:Noを経由した場合のステップS504においては、たとえば、ホバリング飛行しながら猛禽の鳴き声の音声を出力する、などのように、先におこなっていたプロセスの数より多くのプロセスを実行するようにしてもよい。 In addition, in step S504 after step S505: No, more processes than the number of processes previously performed may be executed, such as outputting the sound of a bird of prey while hovering.

ステップS505において、ゴミ集積場内からカラスを追い払った場合(ステップS505:Yes)、ステーション301へ帰還し(ステップS506)、ステップS501へ移行して画像の撮影をおこなう。ステップS506においては、ステーション301において、ゴミ集積場内が撮影でき、かつ、送電コイル304からの給電が受けられる姿勢となるように、ステーション301へ帰還する。なお、ステーション301への帰還中にもゴミ集積場内の撮影を継続し、カラスを認識した場合は、ステーション301への帰還を中断して、カラスを追い払うように飛行する。 If the crow has been chased away from the garbage collection area in step S505 (step S505: Yes), the drone returns to station 301 (step S506) and proceeds to step S501 to capture images. In step S506, the drone returns to station 301 so that it can capture images of the garbage collection area and receive power from power transmission coil 304. It should be noted that the drone continues to capture images of the garbage collection area while returning to station 301, and if it recognizes a crow, it interrupts the return to station 301 and flies in a manner that chases away the crow.

また、上記の処理中に、バッテリー201の残量が、バッテリー201に対してあらかじめ設定された所定の閾値以下になった場合、ゴミ集積場におけるカラスの有無にかかわらず、ステーション301へ帰還するように飛行してもよい。バッテリー201に対してあらかじめ設定された所定の閾値バッテリー201に対してあらかじめ設定された所定の閾値は、たとえば、飛行型ロボット101の現在位置と、ステーション301との位置関係に基づき、飛行型ロボット101が確実にステーション301に帰還できるバッテリー201の残量とすることができる。これにより、バッテリー201残量の不足により、飛行型ロボット101が落下して破損するなどの不測の事態を確実に抑制することができる。 Furthermore, during the above process, if the remaining charge of the battery 201 falls below a predetermined threshold value previously set for the battery 201, the flying robot 101 may fly back to the station 301 regardless of the presence or absence of crows at the garbage collection site. Pre-set Pre-set Threshold Value for the Battery 201 The predetermined threshold value previously set for the battery 201 may be, for example, a remaining charge of the battery 201 that allows the flying robot 101 to reliably return to the station 301 based on the positional relationship between the current position of the flying robot 101 and the station 301. This makes it possible to reliably prevent unforeseen circumstances, such as the flying robot 101 falling and being damaged due to a lack of remaining charge in the battery 201.

(飛行型ロボット101の利用態様の一例)
つぎに、飛行型ロボット101の利用態様の一例について説明する。図6~図9は、この発明にかかる実施の形態1の飛行型ロボット101の利用態様の一例を示す説明図である。
(Example of Usage of Flying Robot 101)
Next, a description will be given of an example of a usage mode of the flying robot 101. Figures 6 to 9 are explanatory diagrams showing an example of a usage mode of the flying robot 101 according to the first embodiment of the present invention.

図6において、ステーション301は、支柱601の上部に固定されている。これにより、ステーション301および待機中の飛行型ロボット101を、人間の手が届きにくい高さに位置づけることができるので、ステーション301や飛行型ロボット101への悪戯を防止することができる。 In FIG. 6, the station 301 is fixed to the top of a support 601. This allows the station 301 and the waiting flying robot 101 to be positioned at a height that is difficult for humans to reach, preventing tampering with the station 301 and the flying robot 101.

飛行型ロボット101は、図6に示すように、ステーション301の中において、送電コイル304からの給電を受けながら、ゴミ集積場602内を撮影する。飛行型ロボット101は、ゴミ集積場602の上空を飛行しながら、ゴミ集積場602内を撮影してもよい。この場合、カラスに過剰なプレッシャーを与えないように、ゴミ集積場602からある程度離れた上空を飛行するようにしてもよい。 As shown in FIG. 6, the flying robot 101 takes pictures of the inside of the garbage collection area 602 while receiving power from the power transmission coil 304 in the station 301. The flying robot 101 may take pictures of the inside of the garbage collection area 602 while flying in the sky above the garbage collection area 602. In this case, the flying robot 101 may fly in the sky at a certain distance from the garbage collection area 602 so as not to put excessive pressure on the crows.

図6においては、1箇所のゴミ集積場602に1台の飛行型ロボット101が配備されている例を示しているが、飛行型ロボット101の設置台数は、1台に限るものではない。たとえば、ゴミ集積場602など、撮影対象とする所定の範囲の広さや、カメラ103の画角などに応じて、1箇所のゴミ集積場602に、複数台の飛行型ロボット101を設置してもよい。 In FIG. 6, an example is shown in which one flying robot 101 is deployed in one garbage collection area 602, but the number of flying robots 101 installed is not limited to one. For example, multiple flying robots 101 may be installed in one garbage collection area 602 depending on the size of a predetermined range to be photographed, such as the garbage collection area 602, the angle of view of the camera 103, and the like.

飛行型ロボット101は、カメラ103によって撮影された画像に基づいて、当該画像の中にカラスが認識できるかを判断する。図7に示すように、カラス701がゴミ集積場602に近づいたことにより、撮影された画像にカラス701を認識した場合は、図8に示すようにステーション301から飛び立つ。そして、図9に示すように、カラス701に接近するように飛行する。 The flying robot 101 judges whether a crow can be recognized in an image captured by the camera 103 based on the image. As shown in FIG. 7, when a crow 701 is recognized in the captured image because the crow 701 approaches the garbage collection area 602, the flying robot 101 takes off from the station 301 as shown in FIG. 8. Then, as shown in FIG. 9, the flying robot 101 flies so as to approach the crow 701.

このとき、カラス701に接触するまで近づかず、カラス701から一定距離以上離れた位置まで飛行する。これにより、プロペラ102などによってカラス701を傷つけてしまうことを回避し、また、飛行型ロボット101の破損を防止することができる。 At this time, the flying robot 101 does not approach close enough to come into contact with the crow 701, but flies to a position at least a certain distance away from the crow 701. This makes it possible to avoid injuring the crow 701 with the propeller 102 or the like, and also to prevent damage to the flying robot 101.

飛行型ロボット101は、たとえば、カラス701に対して設定速度以下の速度で接近するように飛行する。これにより、高速でカラス701を追い回すのではなく、カラス701の視界に確実に入るように飛行することができ、カラス701を追い払うことに加えて、知能の高いカラス701に飛行型ロボット101に近づくことを敬遠させるようにすることができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 For example, the flying robot 101 flies so as to approach the crow 701 at a speed equal to or slower than a set speed. This allows the flying robot 101 to fly in a way that ensures it is within the field of vision of the crow 701, rather than chasing the crow 701 at high speed. In addition to scaring away the crow 701, the flying robot 101 can also make the highly intelligent crow 701 avoid approaching the flying robot 101. This ensures a comfortable living environment for humans without harming the crow 701.

また、飛行型ロボット101は、たとえば、カラス701に接近するように飛行した後、ゴミ集積場602内にいるカラス701の周辺でホバリング飛行したり、上下飛行したりしてもよい。これによっても、カラス701にプレッシャーをかけ、カラス701を傷つけることなくゴミ集積場602からカラス701を追い払うことができる。 Furthermore, the flying robot 101 may, for example, fly close to the crow 701, and then hover around the crow 701 in the garbage collection area 602, or fly up and down. This also puts pressure on the crow 701, and can drive the crow 701 away from the garbage collection area 602 without injuring it.

また、飛行型ロボット101は、カラス701に接近するように飛行する際に、所定の音声を出力してもよい。具体的には、たとえば、カラス701に接近するように飛行する際に、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声、録音された銃声、または、銃声を模した合成音声などを出力する。 The flying robot 101 may also output a predetermined sound when flying close to the crow 701. Specifically, for example, when flying close to the crow 701, the flying robot 101 may output a recorded cry of a bird of prey or a synthetic sound that imitates the cry of a bird of prey, a recorded gunshot or a synthetic sound that imitates a gunshot.

あるいは、カラス701に接近するように飛行する際に、たとえば、録音された犬の吠え声、または、犬の吠え声を模した合成音声などを出力してもよい。また、カラス701に接近するように飛行する際に、たとえば、攻撃を受けたカラス701、警戒しているカラス701、または、怯えたカラス701が発する声を録音した音声、または、これらの声を模した合成音声を出力してもよい。 Alternatively, when flying close to the crow 701, for example, a recorded dog barking or a synthetic voice imitating a dog barking may be output. Also, when flying close to the crow 701, for example, a recorded voice of an attacked crow 701, a wary crow 701, or a frightened crow 701, or a synthetic voice imitating these voices may be output.

以上説明したように、この発明にかかる実施の形態1の飛行型ロボット101は、自動操縦により飛行する無人航空機(ドローン)と、無人航空機に搭載されたカメラ103と、を備え、カメラ103によって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行することを特徴としている。 As described above, the flying robot 101 of the first embodiment of the present invention is characterized by comprising an unmanned aerial vehicle (drone) that flies by automatic control and a camera 103 mounted on the unmanned aerial vehicle, and when an object is recognized based on an image captured by the camera 103, the flying robot 101 flies so as to approach the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カメラ103によって撮影された画像に基づいて認識したカラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、カラスに対して、自らに向かって飛行してくる飛行型ロボット101に違和感を覚えさせ、カラス701をゴミ集積場602から敬遠させることができる。そして、これによって、人間に害を与えることなく、カラス701を効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can be flown so as to approach an object such as a crow 701 that is recognized based on an image captured by the camera 103. This makes the crow feel uneasy about the flying robot 101 flying toward it, and causes the crow 701 to stay away from the garbage collection area 602. This makes it possible to effectively chase away the crow 701 without harming humans, and reliably prevents the crow 701 from scattering garbage.

また、この発明にかかる実施の形態1の飛行型ロボット101は、カメラ103によって、所定の範囲内を撮影することを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized in that it uses the camera 103 to capture images within a predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カメラ103によって所定の範囲内のみを撮影することにより、過剰に広範囲においてカラス701を追い払うことなく、所望する範囲内のカラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flying robot 101 of the first embodiment of the present invention, by capturing images only within a predetermined range using the camera 103, it is possible to scare away crows 701 within a desired range without scaring away crows 701 over an excessively wide range. This makes it possible to ensure a comfortable living environment for humans without harming the crows 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲が、あらかじめ設定されたゴミ集積場602であることを特徴としている。 Furthermore, the flying robot 101 of the first embodiment of the present invention is characterized in that the predetermined range is a garbage collection area 602 that has been set in advance.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カメラ103によってあらかじめ設定されたゴミ集積場602内のみを撮影することにより、過剰に広範囲においてカラス701を追い払うことなく、ゴミ集積場602に近づいたカラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flying robot 101 of the first embodiment of the present invention, the camera 103 captures only the image of the inside of the garbage collection area 602 that has been set in advance, so that the crows 701 approaching the garbage collection area 602 can be chased away without chasing the crows 701 over an excessively wide range. This makes it possible to ensure a comfortable living environment for humans without harming the crows 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、対象物に接近するように飛行した後、所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーション301に戻ることを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized in that after flying to approach an object, it returns to a station 301 installed within a predetermined range or in the vicinity of the predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701を認識した場合にのみ飛行することで、電力の消耗を抑えることができる。これにより、不要に飛行することにより、人間の邪魔になったり、過剰にカラス701にプレッシャーをかけることを回避できる。 The flying robot 101 of the first embodiment of the present invention can reduce power consumption by flying only when it recognizes a crow 701. This makes it possible to avoid unnecessary flying that would get in the way of humans or put excessive pressure on the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲内を、設定速度以下の速度で飛行することを特徴としている。 Furthermore, the flying robot 101 of the first embodiment of the present invention is characterized by flying within a predetermined range at a speed equal to or less than a set speed.

この発明にかかる実施の形態1の飛行型ロボット101によれば、高速でカラス701を追い回すのではなく、カラス701の視界に確実に入るように飛行することで、飛行型ロボット101に近づくことを敬遠させ、カラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flying robot 101 of the first embodiment of the present invention, instead of chasing the crow 701 at high speed, the flying robot 101 flies so as to be reliably within the field of vision of the crow 701, thereby discouraging the crow 701 from approaching the flying robot 101 and scaring the crow 701 away. This makes it possible to ensure a comfortable living environment for humans without harming the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲内の任意の位置において、ホバリング飛行することを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized by hovering at any position within a predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、高速でカラス701を追い回すのではなく、カラス701の注意を惹くようにホバリング飛行することで、飛行型ロボット101に近づくことを敬遠させ、カラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 According to the flying robot 101 of the first embodiment of the present invention, instead of chasing the crow 701 at high speed, the flying robot 101 flies in a hovering manner to attract the attention of the crow 701, thereby making the crow 701 avoid approaching the flying robot 101 and scaring the crow away. This makes it possible to ensure a comfortable living environment for humans without harming the crow 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、所定の範囲内の任意の位置において、上下飛行することを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized by flying up and down at any position within a predetermined range.

この発明にかかる実施の形態1の飛行型ロボット101によれば、高速でカラス701を追い回すのではなく、カラス701にはできない上下飛行をすることにより、飛行型ロボット101に近づくことを敬遠させ、カラス701を追い払うことができる。これにより、カラス701を傷つけることなく、人間の快適な生活環境を確保することができる。 The flying robot 101 of the first embodiment of the present invention does not chase the crows 701 at high speed, but flies up and down, which the crows 701 cannot do, to avoid approaching the flying robot 101 and scare away the crows 701. This makes it possible to ensure a comfortable living environment for humans without harming the crows 701.

また、この発明にかかる実施の形態1の飛行型ロボット101は、無人航空機に搭載されたスピーカー204を備え、カメラ103によって撮影された画像に基づいて、対象物を認識した場合、スピーカー204から所定の音声を出力するとともに、当該対象物に接近するように飛行することを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized in that it is equipped with a speaker 204 mounted on the unmanned aerial vehicle, and when it recognizes an object based on an image captured by the camera 103, it outputs a predetermined sound from the speaker 204 and flies so as to approach the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、スピーカー204から、カラス701が嫌がるような所定の音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can be flown so as to approach an object such as a crow 701 while outputting a predetermined sound from the speaker 204 that dislikes the crow 701. This makes it possible to more effectively scare away the crow 701 without harming humans, and reliably prevents the crow 701 from scattering garbage.

また、この発明にかかる実施の形態1の飛行型ロボット101は、対象物に対してスピーカー204から所定の音声を出力することを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized by outputting a predetermined sound from the speaker 204 to the target object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、特に、指向性スピーカーなどを利用して、カラス701がいる方向に対してのみ所定の音声を出力することにより、周囲の人間など対象物以外に与える影響を極力抑えて、カラス701を効果的に追い払うことができる。これにより、カラス701によるゴミの散乱被害を確実に防止することができる。 The flying robot 101 of the first embodiment of the present invention can effectively scare away the crow 701 by using a directional speaker or the like to output a specific sound only in the direction in which the crow 701 is located, minimizing the impact on objects other than the target, such as people in the vicinity. This can reliably prevent the crow 701 from scattering garbage.

この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であってもよい。 In the flying robot 101 of the first embodiment of the present invention, the specified sound may be a recorded call of a bird of prey or a synthesized sound that imitates the call of a bird of prey.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701が嫌がるとされる、鷹などの猛禽の鳴き声や猛禽の鳴き声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can be flown so as to approach an object such as a crow 701 while outputting the cry of a bird of prey such as a hawk, which is said to be disliked by crows 701, or a synthetic voice that imitates the cry of a bird of prey. This makes it possible to more effectively scare away the crows 701 without harming humans, and to reliably prevent the scattering of garbage caused by the crows 701.

また、この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、録音された銃声、または、銃声を模した合成音声であってもよい。 In addition, in the flying robot 101 of the first embodiment of the present invention, the specified sound may be a recorded gunshot or a synthesized sound that imitates a gunshot.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701を含む動物全般が嫌がるとされる銃声や銃声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can be flown so as to approach an object such as a crow 701 while outputting a gunshot or a synthetic sound that imitates a gunshot, which is considered to be disliked by animals in general, including crows 701. This makes it possible to more effectively scare away the crows 701 without harming humans, and reliably prevents the crows 701 from scattering garbage.

また、この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であってもよい。 In addition, in the flying robot 101 of the first embodiment of the present invention, the specified sound may be a recorded dog barking or a synthetic sound that imitates a dog barking.

この発明にかかる実施の形態1の飛行型ロボット101によれば、カラス701が嫌がるとされる犬の吠え声や犬の吠え声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can be flown so as to approach an object such as a crow 701 while outputting a dog's bark or a synthetic voice that imitates a dog's bark, which is said to be disliked by crows 701. This makes it possible to more effectively scare away the crows 701 without harming humans, and reliably prevents the crows 701 from scattering garbage.

また、この発明にかかる実施の形態1の飛行型ロボット101において所定の音声は、攻撃を受けたカラス701、警戒しているカラス701、または、怯えたカラス701が発する声を録音した音声、または、これらの声を模した合成音声であってもよい。 In addition, in the flying robot 101 of the first embodiment of the present invention, the specified sound may be a recorded sound made by an attacked crow 701, an alert crow 701, or a frightened crow 701, or a synthesized sound that imitates these sounds.

この発明にかかる実施の形態1の飛行型ロボット101によれば、攻撃を受けたカラス701、警戒しているカラス701、または、怯えたカラス701が発する声やこれらの声を模した合成音声を出力しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、ゴミ集積場602などの所定の範囲にカラス701が入り込む都度、当該カラス701の不安を煽り、学習能力の高いカラス701にゴミ集積場602に近づくことが危険なことであると学習させ、カラス701を効果的に追い払うとともに、以降カラス701の接近を抑制することができ。そして、これによって、人間に害を与えることなく、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can fly so as to approach an object such as a crow 701 while outputting a voice made by an attacked crow 701, a wary crow 701, or a frightened crow 701, or a synthetic voice imitating these voices. As a result, every time the crow 701 enters a predetermined range such as a garbage collection site 602, the anxiety of the crow 701 is aroused, and the crow 701, which has a high learning ability, learns that approaching the garbage collection site 602 is dangerous, effectively driving away the crow 701 and suppressing future approaches by the crow 701. This makes it possible to reliably prevent garbage scattering damage caused by the crow 701 without harming humans.

また、この発明にかかる実施の形態1の飛行型ロボット101は、無人航空機に搭載されたLEDランプ104などの光源を備え、カメラ103によって撮影された画像に基づいて、対象物を認識した場合、光源を発光するとともに、当該対象物に接近するように飛行することを特徴としている。 The flying robot 101 of the first embodiment of the present invention is also characterized in that it has a light source such as an LED lamp 104 mounted on the unmanned aerial vehicle, and when it recognizes an object based on an image captured by the camera 103, it emits light from the light source and flies so as to approach the object.

この発明にかかる実施の形態1の飛行型ロボット101によれば、光源から発光しながら、カラス701などの対象物に接近するように飛行型ロボット101を飛行させることができる。これにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 According to the flying robot 101 of the first embodiment of the present invention, the flying robot 101 can fly so as to approach an object such as a crow 701 while emitting light from a light source. This makes it possible to more effectively scare away the crow 701 without harming humans, and reliably prevents the crow 701 from scattering garbage.

また、この発明にかかる実施の形態1の飛行型ロボット101は、猛禽を模した外観をなすことを特徴としている。飛行型ロボット101は、外装に、本物の猛禽の羽を施して構成されていてもよい。 The flying robot 101 according to the first embodiment of the present invention is characterized by having an appearance that imitates a bird of prey. The flying robot 101 may be configured with real bird of prey feathers on its exterior.

この発明にかかる実施の形態1の飛行型ロボット101によれば、多くのカラス701が忌避する鷹などの猛禽を模した外観をなすことにより、人間に害を与えることなく、カラス701を一層効果的に追い払うことができ、カラス701によるゴミの散乱被害を確実に防止することができる。 The flying robot 101 of the first embodiment of the present invention has an appearance that imitates a bird of prey such as a hawk, which many crows 701 avoid, so that the robot can more effectively scare off the crows 701 without harming humans, and can reliably prevent the crows 701 from scattering garbage.

<実施の形態2>
つぎに、この発明にかかる実施の形態2の飛行型ロボットについて説明する。実施の形態2においては、上述した実施の形態1と同一部分は、同一符号で示し、説明を省略する。
<Embodiment 2>
Next, a flying robot according to a second embodiment of the present invention will be described. In the second embodiment, the same parts as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

(飛行型ロボットの外観の一例)
図10は、この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。図10に示すように、飛行型ロボット1001は、ドローン(無人航空機)の態様をなす。ドローンは、図10に示すように、4つのプロペラ102を備えたクアッドコプターを採用してもよく、ヘキサコプターやオクトコプターなどを採用してもよい。
(An example of the appearance of a flying robot)
Fig. 10 is an explanatory diagram showing an example of the appearance of the flying robot of the second embodiment according to the present invention. As shown in Fig. 10, the flying robot 1001 is in the form of a drone (unmanned aerial vehicle). As shown in Fig. 10, the drone may be a quadcopter equipped with four propellers 102, or may be a hexacopter or an octocopter.

この発明にかかる実施の形態2の飛行型ロボット1001は、たとえば、作物栽培農場や畜産農場などの農場における農産物(農畜産物)を食べ荒らしに来る鳥獣や、農場における農産物(農畜産物)を盗難する泥棒を監視対象として認識し、当該監視対象に警告を発したり、当該監視対象の画像を撮影する。 The flying robot 1001 of the second embodiment of the present invention recognizes, for example, birds and animals that come to eat agricultural products (agricultural and livestock products) at farms such as crop farms and livestock farms, and thieves that steal agricultural products (agricultural and livestock products) at farms, as targets of surveillance, and issues a warning to the targets of surveillance and takes pictures of the targets of surveillance.

飛行型ロボット1001は、監視対象への警告や、当該監視対象の画像の撮影に際し、監視対象を追跡してもよい。飛行型ロボット1001は、監視対象の追跡時にプロペラ102が周囲や監視対象に引っかかったりして破損しないようにフレーム1001a内に収められている。 The flying robot 1001 may track the monitored object when warning the monitored object or taking an image of the monitored object. The flying robot 1001 is housed in a frame 1001a so that the propellers 102 do not get caught on the surroundings or the monitored object and are not damaged when tracking the monitored object.

飛行型ロボット1001は、複数のカメラ103を備えている。具体的に、飛行型ロボット1001において、カメラ103は、同時に複数方向を撮影できるように配置されている。1台の飛行型ロボット1001が同時に複数方向を撮影することにより、短時間でより多くの情報を得ることができ、監視対象を迅速に認識することができる。 The flying robot 1001 is equipped with multiple cameras 103. Specifically, in the flying robot 1001, the cameras 103 are arranged so that they can capture images in multiple directions simultaneously. By having one flying robot 1001 capture images in multiple directions simultaneously, more information can be obtained in a short period of time, and the target of monitoring can be quickly recognized.

また、1台の飛行型ロボット1001が同時に複数方向を撮影することにより、飛行型ロボット1001が1台当たりに認識できる監視対象の数が多くなる。これにより、監視対象が複数存在したり異なる方向に移動したりしている場合にも、少ない台数の飛行型ロボット1001で、監視対象を確実に認識することができる。 In addition, by having one flying robot 1001 capture images in multiple directions at the same time, the number of monitoring targets that each flying robot 1001 can recognize increases. As a result, even when there are multiple monitoring targets or they are moving in different directions, a small number of flying robots 1001 can reliably recognize the monitoring targets.

複数のカメラ103は、常時、それぞれが撮影をおこなってもよく、いずれかのカメラ103を動作するように切り替えてもよい。また、選択的に、1または複数のカメラを用いて撮影をおこなってもよい。また、たとえば、1つのカメラ103の撮影範囲に収まる複数の監視対象が、画像の撮影中に、それぞれ異なる方向への移動を開始した場合に、複数のカメラ103を用いた撮影を開始するようにしてもよい。 The multiple cameras 103 may each capture images at all times, or one of the cameras 103 may be switched to operate. Also, images may be captured selectively using one or more cameras. Also, for example, when multiple surveillance targets within the capture range of one camera 103 start moving in different directions while an image is being captured, capture using the multiple cameras 103 may be started.

飛行型ロボット1001において、LEDランプ104は、フレーム1001aに設けられている。LEDランプ104は、複数並べて配置されている。LEDランプ104は、たとえば、白色光を発する。白色光を発するLEDランプ104を複数並べて配置することにより、監視対象や監視対象の周囲を極めて明るく照らすことができる。これにより、監視対象を鮮明に撮影することができる。 In the flying robot 1001, the LED lamps 104 are provided on the frame 1001a. A plurality of the LED lamps 104 are arranged in a row. The LED lamps 104 emit, for example, white light. By arranging a plurality of the LED lamps 104 that emit white light in a row, it is possible to illuminate the monitoring target and the surroundings of the monitoring target extremely brightly. This allows the monitoring target to be photographed clearly.

LEDランプ104は、それぞれが、複数の発光色を切り替え可能に発光するものであってもよい。これにより、複数色の光を混ぜ合わせることによって、鳥獣の嫌がる色に調光した光を発することができる。また、それぞれが異なる色の光を発光する複数のLEDランプ104を、並べて配置するようにしてもよい。具体的には、たとえば、赤色の光を発するLEDランプ104の隣に、緑色の光を発するLEDランプ104を配置してもよい。 The LED lamps 104 may each be capable of emitting light in a number of switchable colors. This allows light of a number of colors to be mixed together to emit light that is adjusted to a color disliked by birds and animals. Also, a number of LED lamps 104 each emitting light of a different color may be arranged side by side. Specifically, for example, an LED lamp 104 emitting green light may be arranged next to an LED lamp 104 emitting red light.

また、飛行型ロボット1001において、LEDランプ104は、複数箇所に、それぞれ複数並べて配置されている。これにより、夜間などであっても、飛行型ロボット1001を目立たせ、監視対象の位置を周囲に報知することができる。また、監視対象が複数存在したり異なる方向に移動したりしている場合にも、各監視対象をそれぞれ鮮明に撮影することができる。 In addition, in the flying robot 1001, the LED lamps 104 are arranged in a row at multiple locations. This makes the flying robot 1001 stand out even at night, and can notify the surrounding area of the location of the monitored object. Furthermore, even if there are multiple monitored objects or they are moving in different directions, each monitored object can be photographed clearly.

(飛行型ロボット1001の機能的構成)
つぎに、飛行型ロボット1001の機能的構成について説明する。飛行型ロボット1001の機能は、記憶部401と、検出部402と、撮影部403と、取得部404と、駆動部405と、出力部406と、制御部407と、によって実現される。
(Functional Configuration of Flying Robot 1001)
Next, a description will be given of the functional configuration of the flying robot 1001. The functions of the flying robot 1001 are realized by a memory unit 401, a detection unit 402, an image capture unit 403, an acquisition unit 404, a drive unit 405, an output unit 406, and a control unit 407.

記憶部401は、制御部407による制御にかかる各種プログラムや、プログラムの実行に用いる閾値などを含む各種情報を記憶する。具体的には、記憶部401は、たとえば、監視対象の認識に用いるパターン認識(画像認識)にかかる、監視対象の特徴量に関する情報を記憶する。記憶部401は、さらに、監視対象の認識に用いる音声情報や、監視をおこなう期間に関する情報などを記憶していてもよい。 The storage unit 401 stores various information including various programs controlled by the control unit 407 and thresholds used to execute the programs. Specifically, the storage unit 401 stores information related to the feature quantities of the monitoring target, which is related to pattern recognition (image recognition) used to recognize the monitoring target. The storage unit 401 may further store audio information used to recognize the monitoring target and information related to the period of monitoring.

監視対象は、所定の範囲内に存在する鳥獣や人間などの動物とすることができる。所定の範囲は、たとえば、作物栽培農場、畜産農場、養蜂場などの農場とすることができる。農場は、あらかじめ設定された特定の農場であってもよく、撮影部403によって撮影された画像などに基づいて農場と判断される場所であってもよい。すなわち、監視対象は、たとえば、農場における農産物または当該農産物と推定される物品を所持または運搬する鳥獣、または、農場における農産物または当該農産物と推定される物品を所持または運搬する人間とすることができる。 The subject of monitoring can be animals such as birds, animals, and humans that exist within a specified range. The specified range can be, for example, a farm such as a crop farm, a livestock farm, or a bee farm. The farm can be a specific farm that has been set in advance, or a place that is determined to be a farm based on an image captured by the imaging unit 403. In other words, the subject of monitoring can be, for example, a bird or animal that possesses or carries agricultural products at a farm or an item that is presumed to be the agricultural product, or a human that possesses or carries agricultural products at a farm or an item that is presumed to be the agricultural product.

具体的に、監視対象は、たとえば、作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する鳥獣、または、作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する人間とすることができる。より具体的には、たとえば、果樹園における監視をおこなう場合、果物を食べている鳥獣や、果物が入っていると推定される袋や箱を運搬している人間などが、監視対象となる。また、より具体的には、たとえば、ある程度以上の重量があると推察される袋や箱を運搬している人間などを、監視対象としてもよい。 Specifically, the targets of monitoring can be, for example, birds and animals that possess or carry cultivated crops at a crop farm or items presumed to be cultivated crops, or humans that possess or carry cultivated crops at a crop farm or items presumed to be cultivated crops. More specifically, for example, when monitoring an orchard, the targets of monitoring can be birds and animals that eat fruit, or humans that carry bags or boxes presumed to contain fruit. Even more specifically, the targets of monitoring can be, for example, humans that carry bags or boxes presumed to be of a certain weight or more.

また、具体的に、監視対象は、たとえば、畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する鳥獣または人間とすることができる。さらに、監視対象は、たとえば、畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する人間とすることができる。より具体的には、たとえば、養豚場における監視をおこなう場合、豚、あるいは、豚が入っていると推定される袋や箱を運搬している人間などが、監視対象となる。また、より具体的には、たとえば、ある程度以上の重量があると推察される袋や箱を運搬している人間や、内容物が動いている袋や箱を所持または運搬している人間などを、監視対象としてもよい。 More specifically, the subject of monitoring can be, for example, livestock or poultry at a livestock farm, or birds, animals, or humans who possess or carry items presumed to be livestock or poultry. Furthermore, the subject of monitoring can be, for example, livestock or poultry at a livestock farm, or humans who possess or carry items presumed to be livestock or poultry. More specifically, for example, when monitoring a pig farm, pigs or humans carrying bags or boxes presumed to contain pigs are the subjects of monitoring. More specifically, for example, humans carrying bags or boxes presumed to be of a certain weight or more, or humans carrying or carrying bags or boxes with moving contents may be the subjects of monitoring.

また、具体的に、監視対象は、たとえば、養蜂場における養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する鳥獣、または、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する人間とすることができる。より具体的には、たとえば、養蜂場における監視をおこなう場合、巣箱を抱えている熊や、箱型または板状の物体を運搬している人間などが、監視対象となる。 More specifically, the target of surveillance may be, for example, a bird or animal that possesses or carries a hive used for beekeeping at a beekeeping farm or an item presumed to be such a hive, or a human that possesses or carries a hive used for beekeeping or an item presumed to be such a hive. More specifically, for example, when surveillance is carried out at a beekeeping farm, targets of surveillance may include a bear holding a hive or a human carrying a box-shaped or plate-shaped object.

また、記憶部401は、撮影部403によって撮影された画像情報や、取得部404が取得した情報などを記憶する。記憶部401は、バッテリーの充電スポットとなるステーション301の位置に関する情報などを記憶してもよい。記憶部401は、具体的には、たとえば、図2に示した制御回路207におけるメモリなどによって、その機能を実現することができる。 The memory unit 401 also stores image information captured by the image capture unit 403 and information acquired by the acquisition unit 404. The memory unit 401 may also store information related to the location of the station 301 that serves as a battery charging spot. Specifically, the memory unit 401 can realize its functions by, for example, a memory in the control circuit 207 shown in FIG. 2.

検出部402は、たとえば、所定のアプリケーションをインストールしたスマートフォンなどの端末装置から出力される信号を検出する。また、検出部402は、たとえば、飛行型ロボット1001の利用者などによっておこなわれる、キーまたはボタンなどの入力デバイスを介した、飛行型ロボット1001に対する所定の入力指示を受け付けたことを検出してもよい。検出部402は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The detection unit 402 detects, for example, a signal output from a terminal device such as a smartphone on which a specific application is installed. The detection unit 402 may also detect that a specific input instruction to the flying robot 1001 has been received via an input device such as a key or button by a user of the flying robot 1001. Specifically, the detection unit 402 can realize its function by, for example, the communication I/F 209 shown in FIG. 2.

また、検出部402は、飛行型ロボット1001から所定範囲内に存在する障害物の有無を検出する。この場合、検出部402は、具体的には、たとえば、図2に示した対物センサー206などによって、その機能を実現することができる。また、この場合の検出部402は、具体的には、たとえば、対物センサー206に代えて、あるいは、対物センサー206に加えて、図1や図2に示したカメラ103などによって、その機能を実現してもよい。 The detection unit 402 detects whether or not there is an obstacle within a predetermined range from the flying robot 1001. In this case, the detection unit 402 can specifically realize its function by, for example, the object sensor 206 shown in FIG. 2. In this case, the detection unit 402 can specifically realize its function by, for example, the camera 103 shown in FIG. 1 or FIG. 2 instead of the object sensor 206 or in addition to the object sensor 206.

カメラ103による障害物の有無の検出は、たとえば、飛行型ロボット1001が移動することにより得られる、異なる複数の位置において撮影された各画像における視差(各画像どうしの差分)に基づき、障害物までの距離を求める移動ステレオ方法を用いることによって実現することができる。移動ステレオ方法を用いることにより、単眼のカメラを用いて、飛行型ロボット1001から所定範囲内に存在する障害物の有無を検出することができる。 Detection of the presence or absence of an obstacle by the camera 103 can be realized, for example, by using a mobile stereo method that determines the distance to an obstacle based on the parallax (the difference between each image) in each image taken at multiple different positions obtained by the movement of the flying robot 1001. By using the mobile stereo method, the presence or absence of an obstacle present within a predetermined range from the flying robot 1001 can be detected using a monocular camera.

撮影部403は、農場内および当該農場の周囲を含む範囲などの所定の範囲内の画像を撮影する。撮影部403は、たとえば、所定の範囲の外側から、当該所定の範囲内の画像を撮影する。また、撮影部403は、たとえば、所定の範囲内において、当該所定の範囲内の画像を撮影してもよい。撮影部403は、具体的には、たとえば、図3に示したカメラ103などによって、その機能を実現することができる。 The image capturing unit 403 captures images within a predetermined range, such as an area including inside a farm and the surroundings of the farm. The image capturing unit 403 captures images within the predetermined range, for example, from outside the predetermined range. The image capturing unit 403 may also capture images within the predetermined range, for example, from within the predetermined range. Specifically, the function of the image capturing unit 403 can be realized, for example, by the camera 103 shown in FIG. 3.

上記の記憶部401は、撮影部403によって撮影された画像にかかる画像情報を記憶する。撮影部403によって撮影された画像にかかる画像情報は、記憶部401に記憶することに代えて、あるいは、記憶部401に記憶することに加えて、外部装置へ装置してもよい。また、記憶部401は、画像情報に加えて、当該画像情報にかかる画像を撮影した場所や時刻に関する情報を、当該画像情報に関連付けて記憶してもよい。画像を撮影した場所や時刻に関する情報は、たとえば、図2に示したGPSセンサー205を用いて特定することができる。 The storage unit 401 stores image information related to the image captured by the image capture unit 403. Instead of or in addition to storing the image information related to the image captured by the image capture unit 403 in the storage unit 401, the image information may be stored in an external device. In addition to the image information, the storage unit 401 may also store information related to the location and time when the image related to the image information was captured in association with the image information. The information related to the location and time when the image was captured can be identified, for example, using the GPS sensor 205 shown in FIG. 2.

取得部404は、飛行型ロボット1001の外部の情報を取得する。取得部404は、たとえば、マイク203を用いて、飛行型ロボット1001の周囲の音声を取得する。取得部404は、具体的には、たとえば、図2に示したマイク203などによって、その機能を実現することができる。 The acquisition unit 404 acquires information external to the flying robot 1001. The acquisition unit 404 acquires audio around the flying robot 1001, for example, using the microphone 203. Specifically, the acquisition unit 404 can realize its function, for example, by the microphone 203 shown in FIG. 2.

また、取得部404は、たとえば、ネットワークNを介して、外部装置から所定の情報を取得してもよい。この場合の取得部404は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。通信I/F209などによって実現される取得部404は、たとえば、別の飛行型ロボット1001が学習した情報を取得する。これにより、単機の飛行型ロボット1001の学習により得られた情報を、別の複数の飛行型ロボット1001が共有することができ、飛行型ロボット1001に、カラスの認識およびカラスの追い払いに一層適した行動をさせることができる。 The acquisition unit 404 may also acquire predetermined information from an external device, for example, via the network N. In this case, the acquisition unit 404 can specifically realize its functions, for example, by the communication I/F 209 shown in FIG. 2 or the like. The acquisition unit 404 realized by the communication I/F 209 or the like acquires, for example, information learned by another flying robot 1001. This allows information obtained by learning by a single flying robot 1001 to be shared by multiple other flying robots 1001, and the flying robot 1001 can be made to behave in a manner more suitable for recognizing and chasing away crows.

通信I/F209などによって実現される取得部404は、たとえば、現時点以降の所定時間内に、災害などのような周囲の人間に影響を与える可能性がある事象が発生する可能性があることを示す情報を取得してもよい。具体的には、取得部404は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得してもよい。 The acquisition unit 404, which is realized by the communication I/F 209 or the like, may acquire information indicating that an event that may affect people in the vicinity, such as a disaster, may occur within a predetermined time from the current time. Specifically, the acquisition unit 404 may acquire information indicating that a disaster, earthquake, tsunami, lightning, rain, strong winds, or sudden weather change may occur within a predetermined time from the current time.

駆動部405は、飛行型ロボット1001の飛行を制御する。駆動部405は、具体的には、たとえば、図1に示したプロペラ102や、図2に示した制御回路207におけるフライトコントローラ、ESC、BEC(UBEC)、モーター202、および、対物センサー206などによって、その機能を実現することができる。 The driving unit 405 controls the flight of the flying robot 1001. Specifically, the driving unit 405 can realize its functions by, for example, the propeller 102 shown in FIG. 1, the flight controller in the control circuit 207 shown in FIG. 2, the ESC, the BEC (UBEC), the motor 202, and the object sensor 206.

出力部406は、制御部407によって制御されて、たとえば、スピーカー204から所定の音声を出させる。この場合、出力部406は、具体的には、たとえば、図2に示したスピーカー204などによって、その機能を実現することができる。所定の音声は、たとえば、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声とすることができる。また、所定の音声は、たとえば、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であってもよい。 The output unit 406 is controlled by the control unit 407 to output a predetermined sound from the speaker 204, for example. In this case, the output unit 406 can specifically realize its function by, for example, the speaker 204 shown in FIG. 2. The predetermined sound can be, for example, a recorded voice of a speech cautioning or warning against theft, or a synthetic voice imitating a speech cautioning or warning against theft. The predetermined sound can also be, for example, the sound of a siren, horn, signal horn, or whistle, or a synthetic voice imitating at least any of these sounds.

また、出力部406は、制御部407によって制御されて、たとえば、LEDランプ104を点灯させる。また、出力部406は、たとえば、LEDランプ104を点滅させる。この場合、出力部406は、具体的には、たとえば、図1や図2に示したLEDランプ104などによって、その機能を実現することができる。 The output unit 406 is controlled by the control unit 407 to, for example, light the LED lamp 104. The output unit 406 also causes the LED lamp 104 to blink, for example. In this case, the output unit 406 can specifically realize its function by, for example, the LED lamp 104 shown in FIG. 1 or FIG. 2.

また、出力部406は、制御部407によって制御されて、撮影部403によって撮影された画像にかかる画像情報を、所定の宛先に送信してもよい。この場合の出力部406は、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。所定の宛先は、たとえば、特定のスマートフォンに設定された電子メールアドレスや、クラウドネットワーク上に設定された特定のURLとすることができる。 The output unit 406 may be controlled by the control unit 407 to transmit image information relating to the image captured by the image capture unit 403 to a specified destination. In this case, the output unit 406 can specifically realize its function by, for example, the communication I/F 209 shown in FIG. 2. The specified destination can be, for example, an email address set in a specific smartphone or a specific URL set on a cloud network.

また、出力部406は、制御部407によって制御されて、たとえば、バッテリー201の残量が所定量以下となった場合に、他の飛行型ロボット1001に対して、応援要請を出力してもよい。この場合の出力部406も、具体的には、たとえば、図2に示した通信I/F209などによって、その機能を実現することができる。 The output unit 406 may also be controlled by the control unit 407 to output a request for help to other flying robots 1001, for example, when the remaining charge of the battery 201 falls below a predetermined level. In this case, the output unit 406 may also realize its function, specifically, for example, by the communication I/F 209 shown in FIG. 2.

また、出力部406は、取得部404によって、たとえば、災害、地震、津波、発雷、降雨、強風、急激な天候の変化など、周辺の人間に何らかの影響を与える可能性がある事象が発生する可能性があることを示す情報が取得されたことに応じて、当該事象が発生する可能性があることを案内する音声を出力したり、特定のパターンや発光色でLEDランプ104を発光させたり点滅させたりしてもよい。 In addition, when the acquisition unit 404 acquires information indicating the possibility of an event that may have some effect on people in the vicinity, such as a disaster, earthquake, tsunami, lightning, rain, strong winds, or a sudden change in weather, the output unit 406 may output a voice informing the user of the possibility of the event occurring, or may cause the LED lamp 104 to light up or blink in a specific pattern or color.

制御部407は、飛行型ロボット1001の全体を制御する。制御部407は、具体的には、たとえば、図2に示した制御回路207によって、その機能を実現することができる。制御部407は、より具体的には、たとえば、図2に示した制御回路207におけるCPUによって、メモリなどに記憶されたプログラムを実行することによって、その機能を実現することができる。 The control unit 407 controls the entire flying robot 1001. Specifically, the control unit 407 can realize its functions, for example, by the control circuit 207 shown in FIG. 2. More specifically, the control unit 407 can realize its functions, for example, by the CPU in the control circuit 207 shown in FIG. 2 executing a program stored in a memory or the like.

制御部407は、たとえば、駆動部405を制御することによって、飛行型ロボット1001を飛行させる。制御部407は、取得部404によって取得された音声に基づいて、特定の音声が取得された場合に、駆動部405を制御することによって、飛行型ロボット1001を飛行させるようにしてもよい。 The control unit 407, for example, controls the driving unit 405 to make the flying robot 1001 fly. When a specific sound is acquired based on the sound acquired by the acquisition unit 404, the control unit 407 may control the driving unit 405 to make the flying robot 1001 fly.

具体的には、たとえば、取得部404によって、鳥獣や人間の足音、ハサミやカッターなどを使用していると推定される音声、袋や箱に物品を詰めていると推定される音声、車両が発するエンジン音やタイヤ音などの音声が取得された場合に、駆動部405を制御することによって飛行を開始させる。これにより、電池の消耗を抑えながら、監視対象の存在を確実に捉えることができる。 Specifically, for example, when the acquisition unit 404 acquires sounds such as the footsteps of birds, animals or humans, sounds estimated to be the use of scissors or a cutter, sounds estimated to be the packing of items into a bag or box, or sounds of an engine or tires emitted by a vehicle, the drive unit 405 is controlled to start flight. This makes it possible to reliably capture the presence of a monitored object while minimizing battery consumption.

また、制御部407は、たとえば、撮影部403を駆動制御することによって撮影をおこなう。さらに、制御部407は、撮影部403によって撮影された画像に基づいて、監視対象を認識する。監視対象の認識は、たとえば、撮影部403によって撮影された画像に、監視対象が含まれているか否かを判断することによっておこなう。 The control unit 407 also captures images by, for example, controlling the driving of the image capture unit 403. Furthermore, the control unit 407 recognizes the surveillance target based on the image captured by the image capture unit 403. The surveillance target is recognized by, for example, determining whether or not the surveillance target is included in the image captured by the image capture unit 403.

具体的には、制御部407は、たとえば、果樹園における監視をおこなう場合、撮影部403によって撮影された画像に、果物を食べている鳥獣や、果物が入っていると推定される袋や箱を運搬している人間などが含まれるか否かを判断する。果物は、画像認識によって特定することができる。果物が入っていると推定される袋や箱は、袋や箱自体を画像認識によって推定してもよく、あるいは、2人以上で運搬していることをもって推定してもよい。 Specifically, when monitoring an orchard, for example, the control unit 407 determines whether or not the image captured by the image capturing unit 403 includes birds and animals eating fruit, or a person carrying a bag or box presumed to contain fruit. The fruit can be identified by image recognition. The bag or box presumed to contain fruit may be presumed to contain the bag or box itself by image recognition, or may be presumed to contain fruit based on the fact that two or more people are carrying it.

また、具体的には、制御部407は、たとえば、養豚場における監視をおこなう場合、撮影部403によって撮影された画像に、豚、あるいは、豚が入っていると推定される袋や箱を運搬している人間などが含まれるか否かを判断する。豚は、画像認識によって特定することができる。豚が入っていると推定される袋や箱は、袋や箱自体を画像認識によって推定してもよく、あるいは、2人以上で運搬していることをもって推定してもよい。 More specifically, when monitoring a pig farm, for example, the control unit 407 determines whether or not the image captured by the image capturing unit 403 includes a pig or a person carrying a bag or box that is presumed to contain a pig. Pigs can be identified by image recognition. Bags or boxes that are presumed to contain pigs may be identified by image recognition of the bag or box itself, or may be identified based on the fact that two or more people are carrying them.

また、具体的には、制御部407は、たとえば、養蜂場における監視をおこなう場合、撮影部403によって撮影された画像に、養蜂場における監視をおこなう場合、巣箱を抱えている熊や、箱型または板状の物体を運搬している人間などが含まれるか否かを判断する。 More specifically, when monitoring an apiary, the control unit 407 determines whether or not the image captured by the image capturing unit 403 includes a bear holding a hive or a person carrying a box-shaped or plate-shaped object, for example.

あるいは、制御部407は、撮影部403によって撮影された画像、および、取得部404によって取得された音声に基づいて、監視対象を認識してもよい。具体的には、制御部407は、たとえば、養豚場における監視において、熊が撮影され、かつ、豚の叫び声が集音された場合に、当該熊を監視対象として認識してもよい。 Alternatively, the control unit 407 may recognize the monitoring target based on the image captured by the imaging unit 403 and the sound acquired by the acquisition unit 404. Specifically, for example, in monitoring a pig farm, when a bear is photographed and the sound of the pig's cries is collected, the control unit 407 may recognize the bear as the monitoring target.

制御部407は、AI機能を備えることで、監視対象を学習することができる。近年は、人工知能を搭載したコンピュータの小型化が進んでおり、人工知能を搭載した制御回路207(コンピューター)であっても、飛行型ロボット1001を円滑に飛行させることができる。制御部407は、さらに、別の飛行型ロボット1001と通信をおこなうことによって、農場などへの被害をおよぼした鳥獣や人間の特徴や画像を共有してもよく、共有した情報に基づいて学習してもよい。 The control unit 407 is equipped with an AI function, which allows it to learn about the target of surveillance. In recent years, computers equipped with artificial intelligence have become increasingly miniaturized, and even a control circuit 207 (computer) equipped with artificial intelligence can cause the flying robot 1001 to fly smoothly. The control unit 407 may further communicate with another flying robot 1001 to share characteristics and images of birds, animals, or humans that have caused damage to farms, etc., and may learn based on the shared information.

監視対象は、農産物に接触したものに限らず、農場に侵入した鳥獣や人間、あるいは、農場から所定範囲内に立ち入った鳥獣や人間であってもよい。これにより、農産物が実際に被害にあうまえに、監視対象を認識し、音声や発光による警告をおこなうなどの対策をとることができる。 The targets of monitoring are not limited to those that come into contact with agricultural produce, but can also be birds, animals, or humans that invade a farm, or birds, animals, or humans that enter within a specified range of a farm. This makes it possible to recognize the targets of monitoring and take measures such as issuing warnings by sound or light before agricultural produce is actually damaged.

画像の撮影および監視対象の認識は、あらかじめ設定された時間帯にのみおこなうようにしてもよい。具体的には、たとえば、「18:00から07:00の間」、「日の出から日没までの間」のように設定することができる。日の出時刻や日没時刻は、取得部404によりネットワークNを介した通信をおこなうことによって取得することができる。 Image capture and monitoring target recognition may be performed only during a pre-set time period. Specifically, for example, the time period can be set to "between 18:00 and 07:00" or "between sunrise and sunset." The sunrise time and sunset time can be acquired by the acquisition unit 404 communicating via the network N.

画像の撮影および監視対象の認識は、飛行型ロボット1001に対する所定の入力操作を受け付けてから、当該所定の入力操作を無効とする操作を受け付けるまでの間にのみおこなうようにしてもよい。あるいは、画像の撮影および監視対象の認識は、たとえば、スマートフォンなどから飛行型ロボット1001に対して送信された所定の信号を受け付けてから、当該所定の信号による動作を無効とする信号を受け付けるまでの間にのみおこなうようにしてもよい。 The capturing of images and the recognition of the monitored object may be performed only between the reception of a specified input operation to the flying robot 1001 and the reception of an operation to invalidate the specified input operation. Alternatively, the capturing of images and the recognition of the monitored object may be performed only between the reception of a specified signal transmitted to the flying robot 1001 from a smartphone or the like, for example, and the reception of a signal to invalidate the operation caused by the specified signal.

具体的には、たとえば、毎日、農場などでの業務が終了したタイミングで、当該農場の労働者が飛行型ロボット1001に対して所定の入力操作をおこない、画像の撮影および監視対象の認識を有効にし、翌日に農場での作業を開始するタイミングで、当該労働者が当該所定の入力操作を無効とする操作をおこなうような運用をとることができる。これにより、季節などの条件に応じて日々労働時間が変動するような場合にも、労働の態様に応じて、農場などの監視を適切におこなうことができる。 Specifically, for example, each day when work on a farm or the like is finished, a worker on the farm can perform a specified input operation on the flying robot 1001 to enable image capture and recognition of the monitored object, and when work on the farm begins the next day, the worker can perform an operation to disable the specified input operation. This makes it possible to appropriately monitor farms or the like according to the type of work, even in cases where daily working hours vary depending on conditions such as the season.

あるいは、画像の撮影および監視対象の認識は、終日おこない、監視対象の認識にともなう音声や発光による警告をおこなうなどの対策の動作は、あらかじめ設定された時間帯にのみおこなうようにしてもよい。これにより、たとえば、日中は、農場において日中に作業している労働者などを学習し、夜間にのみ、農産物を食い荒らす鳥獣や農産物を盗む泥棒などへの警告をおこなうことができる。 Alternatively, image capture and recognition of the monitored subject may be performed throughout the day, with countermeasures such as issuing audio or light warnings when a monitored subject is recognized being performed only during preset times. This makes it possible, for example, to learn about workers who work on a farm during the day, and only to issue warnings at night about birds and animals that eat agricultural produce, or thieves that steal agricultural produce.

また、日中も画像の撮影をおこなうことにより、たとえば、日中に、窃盗のための下見に訪れた泥棒を、明るい状態で鮮明な画像で撮影することができるので、下見の後に窃盗があった場合は、鮮明な画像を用いて犯人の特定をおこなうことができる。このように、飛行型ロボット1001を監視カメラのように利用することにより、近隣の防犯体制を強化することができる。また、労働者などを学習することにより、当該労働者が何らかの用事のために夜間に農場を訪れた場合に、不要な警告をおこなわないようにすることもできる。 In addition, by taking images during the day, for example, a thief who visits the farm to scout the property for a theft can be captured in bright, clear images during the day. If a theft occurs after the scouting, the clear images can be used to identify the culprit. In this way, by using the flying robot 1001 like a surveillance camera, it is possible to strengthen crime prevention measures in the neighborhood. Also, by learning about workers, it is possible to avoid issuing unnecessary warnings if the worker visits the farm at night for some reason.

制御部407は、撮影部403によって撮影された画像に基づいて、当該画像中に監視対象を認識した場合、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させる。また、制御部407は、撮影部403によって撮影された画像に基づいて、当該画像中に監視対象を認識した場合、撮影された監視対象の画像を記憶部401に記憶してもよい。 When the control unit 407 recognizes a monitoring target in an image captured by the image capturing unit 403, the control unit 407 controls the drive unit 405 to fly the flying robot 101 so as to approach the target. In addition, when the control unit 407 recognizes a monitoring target in an image captured by the image capturing unit 403, the control unit 407 may store the captured image of the monitoring target in the memory unit 401.

制御部407は、撮影部403によって撮影された画像に基づいて、当該画像中に監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように、飛行型ロボット101を飛行させてもよい。そして、監視対象を全方位から撮影した画像を、記憶部401に記憶してもよい。 When the control unit 407 recognizes a monitoring target in an image captured by the image capturing unit 403, the control unit 407 may fly the flying robot 101 so as to capture images of the monitoring target from all directions. The images of the monitoring target captured from all directions may then be stored in the memory unit 401.

制御部407は、駆動部405を制御することによって、監視対象から一定の間隔を空けた位置まで接近するように飛行してもよい。具体的には、監視対象が飛行型ロボット1001に触れることができない間隔を空けた位置まで接近するように、駆動部405を制御する。これにより、監視対象から飛行型ロボット1001に対して衝撃が加えられるなどして、飛行型ロボット1001が破損することを回避できる。 The control unit 407 may control the driving unit 405 to fly the flying robot 1001 to a position at a certain distance from the monitoring target. Specifically, the control unit 407 controls the driving unit 405 to fly the flying robot 1001 to a position at which the monitoring target cannot touch the flying robot 1001. This makes it possible to prevent the flying robot 1001 from being damaged by an impact applied to the flying robot 1001 by the monitoring target.

カメラ103を一体に備える飛行型ロボット101は、監視対象を撮影しやすい位置に自律飛行することができる。これにより、たとえば、カメラの位置や、周辺の樹木や家屋などの位置などの環境的な要因に左右されることなく、死角なく監視対象を撮影することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させるような従来の技術と比較して、監視対象を確実に撮影することができる。 The flying robot 101 equipped with an integrated camera 103 can fly autonomously to a position where it is easy to photograph the target of surveillance. This allows the target of surveillance to be photographed without any blind spots, without being affected by environmental factors such as the position of the camera or the positions of surrounding trees and houses. This allows the target of surveillance to be photographed more reliably based on images taken by a stationary camera, compared to conventional techniques such as flying a drone.

また、カメラ103を一体に備える飛行型ロボット101は、カラスを確実に撮影する位置まで自律飛行することができる。これにより、設置型のカメラによって撮影された画像に基づいて、ドローンを飛行させることによって、ゴミ集積場などからカラスを追い払うようにした従来の技術と比較して、カラスを見失うことを回避し、カラスを確実に撮影し、ゴミ集積場から効果的にカラスを追い払うことができる。 Furthermore, the flying robot 101 equipped with the integrated camera 103 can fly autonomously to a position where it can reliably photograph crows. This makes it possible to avoid losing sight of crows, reliably photograph crows, and effectively scare them away from garbage dumps, compared to conventional techniques that use drones to fly based on images taken by a stationary camera to scare crows away from garbage dumps and the like.

発明者は、農場などの所定の範囲における監視対象の有無を監視し、当該監視対象に所定の範囲からの退散を促すように動作する飛行型ロボット101を『ドロガード』と名付けた。また、発明者は、農場などの所定の範囲における監視対象の有無を監視し、当該監視対象が所定の範囲内に存在したことの証拠を残すように動作する飛行型ロボット101を『ドロ・ボー』ないし『ドロウォッチャー』と名付けた。 The inventor has named the flying robot 101, which monitors the presence or absence of a monitored object in a specified area, such as a farm, and operates to prompt the monitored object to leave the specified area, a "Drop Guard." The inventor has also named the flying robot 101, which monitors the presence or absence of a monitored object in a specified area, such as a farm, and operates to leave evidence that the monitored object was within the specified area, a "Drop-Bo" or "Drop Watcher."

制御部407は、駆動部405を制御して当該対象物に接近するように飛行型ロボット101を飛行させながら、所定のプロセスを実行してもよい。たとえば、図2に示したスピーカー204によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、盗難を注意または警告する発話を録音した音声を出力したり、盗難を注意または警告する発話を模した合成音声を出力したりする動作によって、所定のプロセスを実現することができる。盗難を注意または警告する発話は、複数パターン設定されていてもよい。 The control unit 407 may execute a predetermined process while controlling the driving unit 405 to fly the flying robot 101 so as to approach the target object. For example, when the output unit 406 is realized by the speaker 204 shown in FIG. 2, the control unit 407 can execute a predetermined process by controlling the output unit 406 to output a recorded voice of a speech that warns or cautions against theft, or to output a synthetic voice that imitates a speech that warns or cautions against theft. Multiple patterns of speech that warns or cautions against theft may be set.

また、制御部407は、出力部406を制御することによって、たとえば、サイレン、警笛、号笛またはホイッスルの音声(録音された音声)、または、これらのうちの少なくともいずれかの音声を模した合成音声を出力したりする動作によって、所定のプロセスを実現してもよい。 The control unit 407 may also realize a predetermined process by controlling the output unit 406 to output, for example, a siren, alarm, horn, or whistle sound (recorded sound), or a synthetic sound that imitates at least any of these sounds.

制御部407は、音圧レベルが80dB以上の音声を出力することが好ましい。または、制御部407は、ラウドネスレベルが90フォン以上の音声を出力することが好ましい。たとえば、救急車などの緊急車両に対しては、緊急車両の前方20メートルの位置で音量を測定して、90フォン以上の音を出力できるサイレンを搭載することが法定されている。このような大きさの音声を出力することにより、監視対象の存在を広く周知することができ、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制する効果を期待することができる。 It is preferable that the control unit 407 outputs a sound with a sound pressure level of 80 dB or more. Alternatively, it is preferable that the control unit 407 outputs a sound with a loudness level of 90 phon or more. For example, it is legally required that emergency vehicles such as ambulances be equipped with a siren that can output a sound of 90 phon or more, measured at a position 20 meters in front of the emergency vehicle. By outputting a sound of this volume, it is possible to widely publicize the presence of the monitored object, and it is expected to have the effect of preventing damage to agricultural products and the like, or suppressing further expansion of the damage.

スピーカー204が指向性スピーカーである場合、騒々しい環境であっても、カメラ103により監視対象の位置を確認しながら飛行することで、必要な方向のみに音声を発することができる。これにより、夜間であっても、スピーカー204が発する音声によって周辺の住民などに迷惑をかけることなく、確実に監視対象に音声を届けることができる。 If the speaker 204 is a directional speaker, even in a noisy environment, the drone can fly while checking the location of the monitoring target using the camera 103, and sound can be emitted only in the required direction. This allows the sound emitted by the speaker 204 to be delivered reliably to the monitoring target, even at night, without disturbing nearby residents, etc.

特に、農産物などを盗難している人間は、犯行が露呈しないように非常に緊張した心理状況であるため、突然の大音量の音声を出力することで、監視対象である犯罪者に「犯行が露呈してしまった」、「自分の存在が明らかになってしまった」と思わせることができる。これにより、犯罪者による窃盗の犯行を継続しにくくして、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制することができる。 In particular, people who steal agricultural produce and the like are in a very tense psychological state in order to avoid their crime being discovered, so by suddenly outputting a loud sound, the criminal being monitored can be made to think that "the crime has been discovered" or "my presence has been made clear." This makes it more difficult for criminals to continue their thefts, preventing damage to agricultural produce and the like before it occurs, or preventing further damage from occurring.

また、たとえば、図1や図2に示したLEDランプ104によって出力部406を実現する場合、制御部407は、出力部406を制御することによって、光源(LEDランプ104)を点灯させたり点滅させたりする動作によって、所定のプロセスを実現することができる。 For example, when the output unit 406 is realized by the LED lamp 104 shown in FIG. 1 or FIG. 2, the control unit 407 can realize a predetermined process by controlling the output unit 406 to turn on or blink the light source (LED lamp 104).

監視対象が鳥獣である場合は、制御部407は、たとえば、複数箇所に設けられたLEDランプ104群を、光が回転しているかのように順次点灯させたり、炎の色に近づけた色で発光させるように、出力部406を制御する。このように、自然界にはないような人工的な動作をすることにより、農場などの所定の範囲から鳥獣を敬遠させることができる。 When the object of monitoring is birds and animals, the control unit 407 controls the output unit 406 to, for example, sequentially light up a group of LED lamps 104 installed in multiple locations as if the light were rotating, or to emit light in a color close to that of a flame. In this way, by performing artificial actions that do not exist in nature, it is possible to scare birds and animals away from a specified area such as a farm.

監視対象が窃盗を目的とする人間である場合は、制御部407は、たとえば、LEDランプ104を白色で発光させるように、出力部406を制御する。これにより、監視対象や監視対象の周囲を極めて明るく照らすことができ、監視対象を鮮明に撮影することができる。 If the person being monitored is a person intent on theft, the control unit 407 controls the output unit 406, for example, to make the LED lamp 104 emit white light. This allows the monitoring target and its surroundings to be illuminated extremely brightly, allowing the monitoring target to be photographed clearly.

制御部407は、LEDランプ104などの光源を、所定の閾値以上の光束の光で発光させることが好ましい。光束は、LEDランプ104自体の明るさであり、単位時間あたりの光の量を示すルーメン(単位:lm)であらわすことができる。また、LEDランプ104自体の明るさは、カンデラ(単位cd)であらわされる、特定の方向への光の強さ(光度)に基づいて特定してもよい。 It is preferable that the control unit 407 causes the light source, such as the LED lamp 104, to emit light with a luminous flux equal to or greater than a predetermined threshold value. The luminous flux is the brightness of the LED lamp 104 itself, and can be expressed in lumens (unit: lm), which indicates the amount of light per unit time. The brightness of the LED lamp 104 itself may also be determined based on the intensity (luminosity) of light in a specific direction, expressed in candela (unit: cd).

また、制御部407は、LEDランプ104自体の明るさではなく、照らされた場所の明るさ、すなわち、照度(単位:lx)で特定してもよい。この場合、制御部407は、LEDランプ104を点灯させることによって明るくなった場所の照度が、所定の閾値に満たなければ、対象に近づいたり、LEDランプ104をより明るく発光させたりする。 The control unit 407 may also specify the brightness of the illuminated location, i.e., the illuminance (unit: lx), rather than the brightness of the LED lamp 104 itself. In this case, if the illuminance of the location that has been made brighter by turning on the LED lamp 104 does not meet a predetermined threshold, the control unit 407 moves closer to the target or makes the LED lamp 104 emit light more brightly.

窃盗を目的としてその行為におよぶ人間(すなわち、犯罪者)は、一般的に、明るい環境を好まず、暗い場所で行為をおこなう傾向にある。その理由の一つとして、暗い場所は、見通しが悪いために他者の目が届きにくく、仮に存在を察知されたとしても視認性自体が低く人物や窃盗の行為を特定されにくいということがある。また、別の理由として、暗い場所には、常識的に、一般の人間は存在していないということがある。 People who commit thefts (i.e. criminals) generally do not like bright environments and tend to do so in dark places. One reason for this is that dark places have poor visibility, making it difficult for others to see them, and even if their presence is detected, visibility is low, making it difficult to identify the person and the theft. Another reason is that, as a general rule, ordinary people are not likely to be found in dark places.

飛行型ロボット1001においては、LEDランプ104を白色で発光させることにより、監視対象を鮮明に撮影することができることに加えて、監視対象に「犯行が露呈してしまった」、「自分の存在が明らかになってしまった」と思わせることができる。これにより、犯罪者による窃盗の犯行を継続しにくくして、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制することができる。 In the flying robot 1001, by emitting white light from the LED lamps 104, it is possible to take a clear photograph of the monitored subject, and also to make the monitored subject feel that "their crime has been discovered" or "their presence has been made known." This makes it difficult for criminals to continue committing thefts, and can prevent damage to agricultural produce and the like, or prevent the damage from spreading further.

また、LEDランプ104を白色で発光させることにより、犯罪者および犯罪者の周囲のみを明るくして、犯罪者の足下など、犯罪者の周辺の状況を視認しにくくすることができる。これにより、犯罪者の逃げ足を鈍くすることができ、犯罪者が現場から逃走する前に、現場において犯罪者を取り押さえることが期待できる。 In addition, by making the LED lamps 104 emit white light, it is possible to illuminate only the criminal and his surroundings, making it difficult to see the situation around the criminal, such as the criminal's feet. This makes it possible to slow down the criminal's escape, and it is expected that the criminal can be apprehended at the scene before he escapes.

制御部407は、農場およびその周辺などの所定の範囲内に監視対象がいなくなった場合、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させる。また、制御部407は、バッテリー201の残量が所定量以下となった場合に、駆動部405を制御して、ステーション301に帰還するように飛行型ロボット101を飛行させてもよい。 When the monitoring target is no longer within a predetermined range, such as a farm or its surroundings, the control unit 407 controls the drive unit 405 to fly the flying robot 101 so that it returns to the station 301. In addition, when the remaining charge of the battery 201 falls below a predetermined level, the control unit 407 may control the drive unit 405 to fly the flying robot 101 so that it returns to the station 301.

同一の農場などを複数の飛行型ロボット1001によって監視する場合、バッテリー201の残量が所定量以下となった場合に、他の飛行型ロボット1001に対して、応援要請を出力してもよい。応援要請は、応援要請の出力元の飛行型ロボット1001の現在位置に関する情報を含む。 When multiple flying robots 1001 are monitoring the same farm, etc., a request for help may be output to the other flying robots 1001 when the remaining charge of the battery 201 falls below a predetermined level. The request for help includes information regarding the current location of the flying robot 1001 that issued the request for help.

応援要請は、応援要請の出力日時に関する情報を含んでいてもよい。応援要請は、応援要請の出力元の飛行型ロボット1001の識別情報を含んでいてもよい。応援要請は、応援要請の出力元の飛行型ロボット1001が撮影した画像に関する情報を含んでいてもよい。画像に関する情報は、画像自体であってもよく、当該画像が記憶されているクラウドネットワーク上の記憶場所を示すURLなどであってもよい。 The support request may include information regarding the date and time when the support request was output. The support request may include identification information of the flying robot 1001 that output the support request. The support request may include information regarding an image taken by the flying robot 1001 that output the support request. The information regarding the image may be the image itself, or may be a URL indicating the memory location on the cloud network where the image is stored.

飛行型ロボット1001は、他の飛行型ロボット1001からの応援要請を受信した場合、当該応援要請に含まれる現在位置に関する情報に基づいて、応援要請の出力元の飛行型ロボット1001の位置まで飛行する。応援要請の出力元の飛行型ロボット1001は、応援要請を受信した飛行型ロボット1001が飛来するまで、応援要請の出力元の飛行型ロボット1001の現在位置に関する情報を出力しつづけてもよい。 When the flying robot 1001 receives a support request from another flying robot 1001, it flies to the position of the flying robot 1001 that issued the support request based on the information about the current position included in the support request. The flying robot 1001 that issued the support request may continue to output information about the current position of the flying robot 1001 that issued the support request until the flying robot 1001 that received the support request arrives.

これにより、先に監視対象を認識した飛行型ロボット1001のバッテリー201の残量が低下した場合にも、他の飛行型ロボット1001に応援要請することで、引き続いて監視対象を監視し、画像を撮影することができる。このように、複数の飛行型ロボット1001を用いて、同一の農場などを監視することにより、より確実に監視対象を監視することができる。 As a result, even if the battery 201 of the flying robot 1001 that first recognized the monitoring target becomes low, it can continue to monitor the monitoring target and take images by requesting assistance from another flying robot 1001. In this way, by using multiple flying robots 1001 to monitor the same farm, etc., the monitoring target can be monitored more reliably.

(飛行型ロボット101の処理手順)
つぎに、飛行型ロボット101の処理手順について説明する。図11は、この発明にかかる実施の形態2の飛行型ロボット101の処理手順を示すフローチャートである。図11のフローチャートにおいて、まず、生体を検出するまで待機する(ステップS1101:No)。ステップS1101においては、たとえば、ステーション301などに停止した状態で待機する。
(Processing Procedure of Flying Robot 101)
Next, the processing procedure of the flying robot 101 will be described. Fig. 11 is a flowchart showing the processing procedure of the flying robot 101 according to the second embodiment of the present invention. In the flowchart of Fig. 11, first, the flying robot 101 waits until it detects a living body (step S1101: No). In step S1101, the flying robot waits in a stopped state at the station 301, for example.

ステップS1101においては、たとえば、図2に示した対物センサー206(赤外線センサー)を用いて、生体を検出する。また、ステップS1101においては、たとえば、図2に示したマイク203を用いて集音した音に基づいて生体を検出してもよい。また、ステップS1101においては、たとえば、図1や図2に示したカメラ103を用いて撮影した画像に基づいて生体を検出してもよい。生体の検出は、1種類の方法でおこなうものに限らず、複数種類の方法を用いておこなってもよい。これにより、高い精度で、生体を検出することができる。 In step S1101, a living body is detected, for example, using the objective sensor 206 (infrared sensor) shown in FIG. 2. Also, in step S1101, a living body may be detected based on a sound collected by the microphone 203 shown in FIG. 2. Also, in step S1101, a living body may be detected based on an image captured by the camera 103 shown in FIG. 1 or 2. Detection of a living body is not limited to one type of method, and may be performed using multiple types of methods. This allows detection of a living body with high accuracy.

ステップS1101において、生体を検出した場合(ステップS1101:Yes)、飛行を開始し(ステップS1102)、画像の撮影を開始する(ステップS1103)。なお、生体の検出や、生体の検出のための画像の撮影は、ステーション301に待機しながらおこなうものに限らず、常時、農場などの所定の範囲内を巡回飛行しながらおこなってもよい。この場合、ステップS1102やステップS1103の処理はなく、生体を検出する前から飛行を開始し、画像を撮影している。 If a living organism is detected in step S1101 (step S1101: Yes), flight begins (step S1102) and image capture begins (step S1103). Note that detection of a living organism and capture of images for the detection of a living organism are not limited to being performed while waiting at station 301, but may be performed while constantly flying around a specified area such as a farm. In this case, the processing of steps S1102 and S1103 is not performed, and flight begins and images are captured before the detection of a living organism.

つぎに、撮影された画像に基づいて、監視対象を認識したか否かを判断する(ステップS1104)。ステップS1104において、監視対象を認識していない場合(ステップS1104:No)、監視対象を認識するまで、移動しながら画像の撮影を継続し、撮影された画像の解析をおこなう。 Next, it is determined whether or not the monitoring target has been recognized based on the captured images (step S1104). If the monitoring target has not been recognized in step S1104 (step S1104: No), the system continues to capture images while moving until the monitoring target is recognized, and analyzes the captured images.

ステップS1104において、監視対象を認識していない場合は、LEDランプ104を発光させ、周囲を明るく照らしてもよい。これにより、たとえば、監視対象が鳥獣であれば、鳥獣を驚かせて、農場などから退散させることが期待できる。また、監視対象が農産物の窃盗を目的とした犯罪者であれば、明るく照らすことにより、反射的に顔を隠す、身を隠すなどの動作をすることが十分に想定されるため、撮影された画像における監視対象を見つけやすくすることができる。 In step S1104, if the surveillance target is not recognized, the LED lamp 104 may be illuminated to brightly illuminate the surroundings. This is expected to scare the surveillance target away from a farm, for example, if the surveillance target is a bird or animal. Also, if the surveillance target is a criminal intent on stealing agricultural produce, it is quite likely that the bright illumination will cause the criminal to reflexively hide his face or hide himself, making it easier to find the surveillance target in the captured image.

一方、ステップS1104において、監視対象を認識した場合(ステップS1104:Yes)、撮影された画像の記録を開始する(ステップS1105)。ステップS1105においては、撮影された画像は、たとえば、図2に示した制御回路207におけるメモリに記憶する。 On the other hand, if a monitoring target is recognized in step S1104 (step S1104: Yes), recording of the captured image is started (step S1105). In step S1105, the captured image is stored, for example, in a memory in the control circuit 207 shown in FIG. 2.

カメラ103によって撮影された画像は、監視対象を認識した場合のみならず、全て記録するようにしてもよい。この場合、撮影された画像を、たとえば、図2に示した制御回路207におけるメモリに記憶し、メモリの容量が満杯になった場合は、古い日時の画像から、新しい日時の画像に上書きする。 Images captured by the camera 103 may be recorded not only when a surveillance subject is recognized, but all images. In this case, the captured images are stored, for example, in the memory of the control circuit 207 shown in FIG. 2, and when the memory capacity becomes full, images from older dates and times are overwritten with images from newer dates and times.

あるいは、撮影された画像を、たとえば、図2に示した制御回路207におけるメモリに一旦記憶し、適宜、通信I/F209を介して、クラウドネットワーク上に記憶してもよい。図2に示した制御回路207におけるメモリに一旦記憶した画像は、クラウドネットワーク上に記憶された後、メモリから消去してもよく、メモリの容量が満杯になるまで記憶し続け、メモリの容量が満杯になったら、古い日時の画像から、新しい日時の画像に上書きするようにしてもよい。 Alternatively, the captured image may be temporarily stored in the memory of the control circuit 207 shown in FIG. 2, and then appropriately stored on a cloud network via the communication I/F 209. The image temporarily stored in the memory of the control circuit 207 shown in FIG. 2 may be deleted from the memory after being stored on the cloud network, or may continue to be stored until the memory capacity is full, at which point the image with the older date and time may be overwritten with the image with the newer date and time.

つぎに、所定のプロセスを実行する(ステップS1106)。ステップS1106においては、たとえば、図2に示したスピーカー204から、盗難を注意または警告する発話を録音した音声を出力したり、盗難を注意または警告する発話を模した合成音声を出力したりする。 Next, a predetermined process is executed (step S1106). In step S1106, for example, a recorded voice of a speech cautioning or warning against theft is output from the speaker 204 shown in FIG. 2, or a synthetic voice imitating a speech cautioning or warning against theft is output.

盗難を注意または警告する発話が、複数パターン設定されている場合、ステップS1106においては、同じパターンの発話の音声を連続して出力するのではなく、複数パターンの発話の音声を組み合わせて出力してもよい。これにより、監視対象に対して、録音された音声ではなく、遠隔地で人間が監視し、リアルタイムで警告を発しているように思わせることができる。 If multiple patterns of speech are set to warn or warn against theft, in step S1106, speech of the multiple patterns may be output in combination, rather than outputting speech of the same pattern continuously. This makes it possible for the subject to believe that a human being is monitoring the subject in a remote location and issuing a warning in real time, rather than a recorded voice.

特に、監視対象が、農産物などの窃盗を目的とする犯罪者である場合、「すぐにでも、農場の関係者などの人間が自分を捕まえに来るのではないか」と思わせて、農産物などの被害を未然に防止する、または、被害の一層の拡大を抑制する効果を期待することができる。 In particular, if the target of surveillance is a criminal intent on stealing agricultural produce or the like, it is expected that this will have the effect of making the criminal think that "someone from the farm or someone else will come and get me any minute," preventing damage to agricultural produce or the like from occurring, or preventing the damage from spreading further.

また、ステップS1106においては、たとえば、図2に示したスピーカー204から、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声を出力してもよい。また、ステップS1106においては、たとえば、図1や図2に示したLEDランプ104を、点灯させたり点滅させたりしてもよい。 In step S1106, for example, the speaker 204 shown in FIG. 2 may output a siren, horn, signal, or whistle sound, or a synthetic voice that imitates at least any of these sounds. In step S1106, for example, the LED lamp 104 shown in FIG. 1 or FIG. 2 may be turned on or blinked.

ステップS1106においては、図2に示したスピーカー204から音声を出力するプロセスと、図1や図2に示したLEDランプ104を発光させるプロセスとのいずれか一方のプロセスをおこなってもよく、両方のプロセスを並行しておこなってもよく、複数のプロセスを順番におこなってもよい。 In step S1106, either one of the processes of outputting sound from the speaker 204 shown in FIG. 2 and the process of illuminating the LED lamp 104 shown in FIG. 1 and FIG. 2 may be performed, or both processes may be performed in parallel, or multiple processes may be performed in sequence.

ステップS1106においておこなう所定のプロセスが、すべて、図2に示したスピーカー204から音声を出力するプロセスであっても、出力する音声を複数種類としてもよい。具体的には、たとえば、サイレンの音声を出力した後に、盗難を注意または警告する発話を録音した音声を出力してもよい。 All of the predetermined processes performed in step S1106 may be processes that output sounds from the speaker 204 shown in FIG. 2, but multiple types of sounds may be output. Specifically, for example, after the sound of a siren is output, a recorded voice giving a warning or caution against theft may be output.

ステップS1106においては、カメラ103によって撮影された画像を、たとえば、図2に示した通信I/F209を介して、特定のスマートフォンに設定された電子メールアドレスや、クラウドネットワーク上に設定された特定のURLなどの所定の宛先に宛てて送信するプロセスをおこなってもよい。 In step S1106, a process may be performed in which an image captured by the camera 103 is sent, for example, via the communication I/F 209 shown in FIG. 2 to a specified destination, such as an email address set on a specific smartphone or a specific URL set on a cloud network.

そして、ステップS1104において認識した監視対象が、農場などの所定の範囲外へ移動したか否かを判断する(ステップS1107)。ステップS1107において、監視対象が所定の範囲外へ移動していない場合(ステップS1107:No)、ステップS1106へ移行して、所定のプロセスの実行を継続する。 Then, it is determined whether the monitoring target recognized in step S1104 has moved outside a predetermined range, such as a farm (step S1107). If the monitoring target has not moved outside the predetermined range in step S1107 (step S1107: No), the process proceeds to step S1106 and the execution of the predetermined process continues.

一方、監視対象が所定の範囲外へ移動した場合(ステップS1107:Yes)、ステーション301に帰還するように飛行して(ステップS1108)、一連の処理を終了する。なお、ステップS1108において、帰還中も画像の撮影をおこない、監視対象を認識した場合は、ステップS1105以降の処理をおこなうようにしてもよい。 On the other hand, if the monitoring target moves outside the specified range (step S1107: Yes), the drone flies back to station 301 (step S1108), and the series of processes ends. Note that in step S1108, images may be taken during the return, and if the monitoring target is recognized, the processes from step S1105 onwards may be performed.

あるいは、ステップS1108において、帰還中は対物センサー206やマイク203を用いて生体の検出をおこない、実際に生体を検出した場合に、ステップS1103以降の処理をおこなうようにしてもよい。 Alternatively, in step S1108, during return, detection of a living body may be performed using the objective sensor 206 or microphone 203, and if a living body is actually detected, processing from step S1103 onwards may be performed.

(飛行型ロボット101の利用態様の一例)
つぎに、飛行型ロボット1001の利用態様の一例について説明する。図12および図13は、この発明にかかる実施の形態2の飛行型ロボット1001の利用態様の一例を示す説明図である。
(Example of Usage of Flying Robot 101)
Next, a description will be given of an example of a usage mode of the flying robot 1001. Figures 12 and 13 are explanatory diagrams showing an example of a usage mode of the flying robot 1001 according to the second embodiment of the present invention.

飛行型ロボット1001およびステーション301は、監視する対象となる農場などの面積や、地形などに応じて、1台~複数台の任意の台数を配置する。具体的には、たとえば、監視する対象となる農場が広大であるほど、数多くの飛行型ロボット1001を配置する。 The flying robots 1001 and stations 301 are deployed in any number, from one to multiple, depending on the area and topography of the farm or other area to be monitored. Specifically, for example, the larger the farm to be monitored, the more flying robots 1001 are deployed.

飛行型ロボット1001の配置台数と、ステーション301の配置台数とは、同数でなくてもよい。具体的には、たとえば、飛行型ロボット1001の配置台数よりも、ステーション301の配置台数を多くしてもよい。これにより、飛行型ロボット1001は、最寄りのステーション301にすぐに移動することができるので、バッテリー201切れにより落下したり、犯罪者などを撮影し損なったりすることを回避できる。 The number of flying robots 1001 and the number of stations 301 do not have to be the same. Specifically, for example, the number of stations 301 may be greater than the number of flying robots 1001. This allows the flying robots 1001 to quickly move to the nearest station 301, thereby preventing the flying robots 1001 from falling due to a dead battery 201 or failing to photograph criminals, etc.

あるいは、具体的には、たとえば、飛行型ロボット1001の配置台数を、ステーション301の配置台数より少なくしてもよい。これにより、複数の飛行型ロボット1001が、交互に充電するように飛行させ、農場などの全体においてステーション301が待機中に消費する電力を少なく抑えることができる。 Or, specifically, for example, the number of flying robots 1001 may be less than the number of stations 301. This allows multiple flying robots 1001 to fly in an alternating manner so that they can be charged, thereby reducing the amount of power consumed by the stations 301 while they are on standby throughout the entire farm, etc.

また、たとえば、図12に示すような果樹園などのように、枝葉1201aを張り巡らせた樹木1201が多数あり、見通しが利きにくい場所を監視する場合、面積がさほど大きくなくても、複数台の飛行型ロボット1001およびステーション301を配置することが好ましい。 In addition, when monitoring an area where visibility is poor due to the large number of trees 1201 with spreading branches and leaves 1201a, such as an orchard as shown in FIG. 12, it is preferable to deploy multiple flying robots 1001 and stations 301 even if the area is not particularly large.

また、果樹園においては、果物1201bが入っていると推定される箱1202を持っている人間(犯罪者)1203を、監視対象として認識する。図12においては、箱から果物1201bが見えている状態を示しているが、果物1201bなどの内容物が見えていない状態であっても、形状や運搬の姿勢から想定できる荷物の重さなどに基づいて推定してもよい。 In the orchard, a person (criminal) 1203 carrying a box 1202 presumably containing fruit 1201b is recognized as a target of surveillance. In FIG. 12, the fruit 1201b is shown visible from the box, but even if the contents, such as the fruit 1201b, are not visible, the weight of the package may be estimated based on the shape and carrying posture.

これにより、犯罪者1203が樹木1201の陰になって監視が行き届かない、いわゆる死角をなくし、監視の信頼性を確保することができる。また、樹木1201の存在によって、犯罪者1203の周囲をうまく飛行できないような場合にも、複数台の飛行型ロボット1001により多方向から犯罪者1203を撮影することができるので、これによっても監視の信頼性を確保することができる。 This eliminates blind spots where the criminal 1203 is hidden by trees 1201 and cannot be monitored properly, ensuring reliable surveillance. Even in cases where the presence of trees 1201 makes it difficult to fly around the criminal 1203, multiple flying robots 1001 can be used to photograph the criminal 1203 from multiple directions, ensuring reliable surveillance.

また、たとえば、図13に示すような養豚場や鶏舎などのように、監視する対象物(豚1301や鶏など)が方々に点在し、かつ、それぞれがばらばらに移動するような場所を監視する場合、複数台の飛行型ロボット1001およびステーション301を配置することが好ましい。 In addition, when monitoring a location where the objects to be monitored (such as pigs 1301 and chickens) are scattered in various places and move around independently, such as a pig farm or chicken coop as shown in FIG. 13, it is preferable to deploy multiple flying robots 1001 and stations 301.

これにより、たとえば、豚1301などの家畜や家禽の窃盗を目的とする犯罪者1203が侵入した養豚場や鶏舎などにおいて、家畜や家禽を追い回すことによって家畜や家禽がそれぞれ方々に逃げ回った場合にも、複数の飛行型ロボット1001がそれぞれ異なる方向を撮影するように飛行することで、犯罪者1203を見失うことなく画像を撮影することができる。 As a result, for example, in a pig farm or chicken coop where a criminal 1203 has invaded with the intent of stealing livestock or poultry such as pigs 1301, even if the criminal chases the livestock or poultry, causing them to run away in all directions, multiple flying robots 1001 can fly in different directions to take pictures, making it possible to take pictures without losing sight of the criminal 1203.

複数の飛行型ロボット1001は、たとえば、通信I/F209を介して相互に通信をおこなうことによって連携することができる。あるいは、複数の飛行型ロボット1001のうちのいずれか1台が、残余の飛行型ロボット1001の飛行ルートや撮影方向を決定し、当該いずれか1台の飛行型ロボット1001から残余の飛行型ロボット1001へ飛行指示を送信するようにしてもよい。 The multiple flying robots 1001 can cooperate with each other by communicating with each other via the communication I/F 209, for example. Alternatively, one of the multiple flying robots 1001 may determine the flight route and shooting direction of the remaining flying robots 1001, and transmit flight instructions from that one flying robot 1001 to the remaining flying robots 1001.

以上説明したように、この発明にかかる実施の形態2の飛行型ロボット1001は、自自動操縦により飛行する無人航空機(ドローン)と、無人航空機に搭載されたカメラ103と、を備え、カメラ103によって撮影された画像に基づいて、犯罪者1203などの対象物を認識した場合、当該対象物に接近するように飛行することを特徴としている。 As described above, the flying robot 1001 of the second embodiment of the present invention is characterized in that it comprises an unmanned aerial vehicle (drone) that flies by automatic control and a camera 103 mounted on the unmanned aerial vehicle, and when it recognizes an object such as a criminal 1203 based on an image captured by the camera 103, it flies so as to approach the object.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識した監視対象に接近するように飛行型ロボット1001を飛行させることができる。カメラ103によって撮影された画像に基づいて監視対象を認識することにより、赤外線センサーのみを用いて監視対象を検出する場合と比較して、精度よく監視対象を認識することができる。これにより、たとえば、別途、囮目的で設置された熱源など、監視対象以外の原因に惑わされることなく、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the flying robot 1001 can be flown so as to approach a monitoring target recognized based on an image captured by the camera 103. By recognizing the monitoring target based on an image captured by the camera 103, the monitoring target can be recognized with higher accuracy than when the monitoring target is detected using only an infrared sensor. This allows the monitoring target to be reliably monitored without being confused by factors other than the monitoring target, such as a heat source installed separately for decoy purposes.

また、この発明にかかる実施の形態2の飛行型ロボット1001によれば、飛行型ロボット1001が一体にカメラ103を備えているため、監視対象を撮影しやすい位置に自律飛行することができる。これにより、たとえば、飛行型ロボット1001の周辺の樹木1201や建物などの構造などの環境的な要因に左右されることなく、死角なく監視対象を撮影することができる。そして、これにより、設置型のセンサーを用いて監視対象を検出し、検出結果に基づいてドローンを派遣するような従来の技術と比較して、簡易な構成によって、監視対象を確実に撮影し、監視することができる。 In addition, according to the flying robot 1001 of the second embodiment of the present invention, the flying robot 1001 is equipped with an integrated camera 103, and therefore can fly autonomously to a position where it is easy to photograph the target of monitoring. This allows the target of monitoring to be photographed without blind spots, without being affected by environmental factors such as trees 1201 and building structures around the flying robot 1001. This allows the target of monitoring to be reliably photographed and monitored with a simple configuration, compared to conventional technology that detects the target of monitoring using a stationary sensor and dispatches a drone based on the detection results.

このように、この発明にかかる実施の形態2の飛行型ロボット1001によれば、簡易な構成によって、確実に監視対象を監視することができる。また、この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象に対して監視されていることを認識させ、監視対象の注意を喚起することができる。 In this way, the flying robot 1001 according to the second embodiment of the present invention can reliably monitor the monitoring target with a simple configuration. Furthermore, the flying robot 1001 according to the second embodiment of the present invention can make the monitoring target aware that it is being monitored and can call the monitoring target's attention.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、カメラによって撮影された画像に基づいて監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that when it recognizes a monitoring target based on images captured by a camera, it flies so as to capture images of the monitoring target from all directions.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象の全方位からの画像を撮影することにより、撮影された画像に基づいて、監視対象を確実に特定することができる。また、監視対象の全方位からの画像を撮影するために、監視対象の周囲を飛行するため、監視対象に対して監視されていることを確実に認識させ、監視対象の注意を喚起することができる。これにより、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, by capturing images of the monitored object from all directions, the monitored object can be reliably identified based on the captured images. Furthermore, since the flying robot 1001 flies around the monitored object in order to capture images of the monitored object from all directions, the monitored object can be reliably made aware that it is being monitored and the monitoring object can be alerted to the fact that it is being monitored. This makes it possible to reliably monitor the monitored object with a simple configuration.

特に、農産物などの盗難を目的として行動する犯罪者1203が監視対象である場合、当該監視対象に対して、監視および録画されていることを知らしめ、自らの犯行が気付かれており、証拠が取られていることを印象づけることで、盗難しようとした農産物などを置いて逃げるように誘導することができる。これにより、簡易な構成によって、農場における農産物への被害を防止することができる。 In particular, when a criminal 1203 who acts with the intent of stealing agricultural produce or the like is the subject of surveillance, the subject can be informed that he or she is being monitored and recorded, and be given the impression that his or her crime has been noticed and evidence has been taken, which can induce the criminal to leave the agricultural produce or the like he or she attempted to steal and run away. This makes it possible to prevent damage to agricultural produce on farms with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、あらかじめ設定された所定の範囲内においてカメラ103によって撮影された画像に基づいて、監視対象を認識することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that it recognizes the target of surveillance based on images captured by the camera 103 within a predetermined range that has been set in advance.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、無限に広大な範囲を監視対象とするのではなく、あらかじめ設定された所定の範囲内における監視対象を認識することにより、所望する範囲を確実に監視することができる。これにより、所定の範囲内における監視対象の監視精度を確保することができ、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, instead of monitoring an infinitely vast range, the desired range can be reliably monitored by recognizing the monitoring target within a predetermined range that has been set in advance. This ensures the monitoring accuracy of the monitoring target within the predetermined range, and the monitoring target can be reliably monitored with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、農場であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the specified range is a farm.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、夜間などに無人となる農場への監視対象の侵入を、簡易な構成によって、確実に監視することができる。 The flying robot 1001 of the second embodiment of the present invention can reliably monitor the intrusion of a monitored object into a farm that is unmanned at night, etc., with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the object of monitoring is a bird, animal, or human being that possesses or carries agricultural produce on a farm or an item that is presumed to be the agricultural produce.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などに無人となる農場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。 The flying robot 1001 of the second embodiment of the present invention limits the targets of monitoring to birds, animals, or humans who are carrying or transporting agricultural products on a farm or items that are presumed to be agricultural products, and monitors targets that invade a farm that is deserted at night, etc., making it possible to reliably monitor targets with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、作物栽培農場であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the specified range is a crop cultivation farm.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、夜間など陽光がないためにほぼ確実に無人となることが多く、無人となることにより視認性の低下や治安の低下が懸念される作物栽培農場において、監視対象の侵入を、簡易な構成によって、確実に監視することができる。これにより、簡易な構成によって、安全かつ確実に、作物栽培農場における監視対象を監視することができる。 The flying robot 1001 of the second embodiment of the present invention can reliably monitor the intrusion of monitored objects in crop farms, which are almost always unmanned due to lack of sunlight at night and other times and where there are concerns that unmanned farms could lead to reduced visibility and a decline in public safety, with a simple configuration. This allows the monitoring of monitored objects in crop farms safely and reliably with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the object of monitoring is a bird, animal, or human being that possesses or carries a cultivated crop in a crop cultivation farm or an item that is presumed to be the cultivated crop.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、作物栽培農場における作物栽培または当該作物栽培と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などにはほぼ確実に無人となる作物栽培農場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。すなわち、監視対象を限定することにより、監視対象の認識にかかる処理負担の軽減を図り、監視対象を迅速に認識することができるので、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the monitoring targets are limited to birds, animals, or humans who are cultivating crops in a crop cultivation farm or who are carrying or transporting items that are presumed to be cultivating said crops, and by monitoring monitoring targets that have entered a crop cultivation farm that is almost certainly deserted at night, etc., the monitoring targets can be reliably monitored with a simple configuration. In other words, by limiting the monitoring targets, the processing load for recognizing the monitoring targets can be reduced and the monitoring targets can be quickly recognized, so that the monitoring targets can be reliably monitored with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、畜産農場であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the specified range is a livestock farm.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視範囲を畜産農場に限定し、当該畜産農場内を監視することにより、監視対象の侵入を、簡易な構成によって、確実に監視することができる。これにより、夜間などに無人となることが多く、また家畜や家禽の立てる音により気づきづらい畜産農場への監視対象の侵入を、簡易な構成によって、確実に監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the monitoring range is limited to a livestock farm, and the inside of the livestock farm is monitored, so that the intrusion of a monitored object can be reliably monitored with a simple configuration. This makes it possible to reliably monitor the intrusion of a monitored object into a livestock farm, which is often unmanned at night and difficult to notice due to the noise made by livestock and poultry, with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the objects to be monitored are livestock or poultry on a livestock farm, or birds, animals, or humans who possess or carry items that are presumed to be livestock or poultry.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、畜産農場における家畜や家禽または当該家畜や家禽と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などに無人となる畜産農場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。すなわち、監視対象を限定することにより、監視対象の認識にかかる処理負担の軽減を図り、監視対象を迅速に認識することができるので、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the monitoring targets are limited to birds, animals, or humans who possess or transport livestock or poultry on livestock farms, or items presumed to be livestock or poultry, and monitoring is performed for monitoring targets that have entered livestock farms that are deserted at night, etc., making it possible to reliably monitor the monitoring targets with a simple configuration. In other words, by limiting the monitoring targets, the processing load for recognizing the monitoring targets is reduced and the monitoring targets can be quickly recognized, making it possible to reliably monitor the monitoring targets with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の範囲が、養蜂場であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the specified range is a beekeeping area.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視範囲を養蜂場に限定し、当該養蜂場内を監視することにより、監視対象の侵入を、簡易な構成によって、確実に監視することができる。これにより、夜間などに無人となることが多い養蜂場への監視対象の侵入を、簡易な構成によって、確実に監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the monitoring range is limited to the beekeeping area, and the beekeeping area is monitored, so that the intrusion of a monitored object can be reliably monitored with a simple configuration. This makes it possible to reliably monitor the intrusion of a monitored object into a beekeeping area that is often unmanned, such as at night, with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象が、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the object of monitoring is a bird, animal, or human being that possesses or carries a beehive used for beekeeping or an item that is presumed to be such a hive.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象を、養蜂場に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間に限定して、夜間などに無人となる養蜂場に侵入した監視対象を監視することにより、簡易な構成によって、確実に監視対象を監視することができる。すなわち、監視対象を限定することにより、監視対象の認識にかかる処理負担の軽減を図り、監視対象を迅速に認識することができるので、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the monitoring targets are limited to birds, animals, or humans who possess or carry hives used in a beekeeping farms or items presumed to be such hives, and monitoring targets that invade an unmanned beekeeping farm at night or the like is performed, thereby making it possible to reliably monitor the monitoring targets with a simple configuration. In other words, by limiting the monitoring targets, the processing load for recognizing the monitoring targets is reduced and the monitoring targets can be quickly recognized, making it possible to reliably monitor the monitoring targets with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、あらかじめ設定された時間帯にカメラ103によって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that, when it recognizes a monitoring target based on images captured by the camera 103 during a preset time period, it flies so as to approach the monitoring target.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、あらかじめ設定された時間帯にカメラ103によって撮影された画像に基づいて監視対象を認識することにより、たとえば、業務の都合など正当性や必要性がある人物などを監視対象から除外し、夜間などの無人となる時間帯において監視をおこなうことができる。このように、監視期間を限定することで、正当性や必要性がある人物などを監視対象から除外することができるので、不要な監視をおこなうことによる監視対象の認識にかかる処理負担の軽減を図り、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, by recognizing the monitoring target based on the image captured by the camera 103 during a preset time period, it is possible to exclude from the monitoring target people who have legitimate or necessary reasons, such as business reasons, and to perform monitoring during times when no one is present, such as at night. In this way, by limiting the monitoring period, it is possible to exclude from the monitoring target people who have legitimate or necessary reasons, thereby reducing the processing burden involved in recognizing the monitoring target by performing unnecessary monitoring, and the monitoring target can be reliably monitored with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、カメラ103によって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that if it recognizes a monitoring target based on an image captured by the camera 103 between the time it receives a specific input operation or a specific signal and the time it receives an operation to invalidate the specific input operation or a signal to invalidate the specific signal, it flies so as to approach the monitoring target.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、指定された状況においてのみ監視をおこなうことで、たとえば、業務の都合など正当性や必要性がある人物がいる間は監視をおこなわず、夜間などの無人となる時間帯において監視をおこなうことができる。このように、監視期間を限定することで、正当性や必要性がある人物などを監視対象から除外することができるので、不要な監視をおこなうことによる監視対象の認識にかかる処理負担の軽減を図り、簡易な構成によって、確実に監視対象を監視することができる。 According to the flying robot 1001 of the second embodiment of the present invention, by performing monitoring only in specified situations, for example, monitoring is not performed while there are people present who have a legitimate or necessary reason for monitoring due to business reasons, but monitoring can be performed during times when no one is present, such as at night. In this way, by limiting the monitoring period, people who have a legitimate or necessary reason for monitoring can be excluded from the monitoring targets, thereby reducing the processing burden involved in recognizing the monitoring targets by performing unnecessary monitoring, and the monitoring targets can be reliably monitored with a simple configuration.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、監視対象を認識した場合、当該監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that, when it recognizes a monitoring target, it flies so as to approach the monitoring target and outputs a predetermined sound toward the monitoring target.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に報知することができ、農産物などの盗難被害を確実に防止することができる。 The flying robot 1001 of the second embodiment of the present invention flies close to the monitored object and outputs a predetermined sound toward the monitored object, thereby attracting the attention of the monitored object and making the monitored object aware that it is being monitored. It also alerts the surrounding area of the monitored object's intrusion, thereby reliably preventing theft of agricultural produce and the like.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the predetermined voice is a recorded voice of a speech cautioning or warning against theft, or a synthesized voice imitating a speech cautioning or warning against theft.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、盗難を注意または警告する発話を模した合成音声を出力することにより、監視対象に対して、人間が近くにいるように思わせたり、人間の接近を予期させたりすることができる。また、この発明にかかる実施の形態2の飛行型ロボット1001によれば、飛行型ロボット1001が一体に備えるスピーカー204から所定の音声を出力することにより、監視対象が逃げるなどして移動した場合にも、監視対象の移動にあわせて常に監視対象の近くで音声を出力することができる。これにより、監視対象に対する警告をおこなうとともに、監視対象の位置を周囲に確実に報知することができる。そして、これによって、農産物などにさらなる被害が加わることを確実に防止することができる。 According to the flying robot 1001 of the second embodiment of the present invention, by outputting a synthetic voice that imitates a speech that cautions or warns against theft, it is possible to make the monitored subject believe that a human is nearby or to anticipate a human's approach. Furthermore, according to the flying robot 1001 of the second embodiment of the present invention, by outputting a predetermined voice from the speaker 204 that is integral to the flying robot 1001, it is possible to always output a voice near the monitored subject in accordance with the monitored subject's movement, even if the monitored subject moves, such as by fleeing. This makes it possible to issue a warning to the monitored subject and to reliably notify the surrounding area of the monitored subject's location. This also makes it possible to reliably prevent further damage to agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the predetermined sound is a siren, a warning horn, a signal horn, or a whistle, or a synthetic sound that imitates at least any one of these sounds.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声を出力することにより、監視対象に対して、人間が近くにいるように思わせたり、人間の接近を予期させたりすることができる。 The flying robot 1001 of the second embodiment of the present invention can make the monitored subject believe that a human is nearby or anticipate the approach of a human by outputting a siren, horn, alarm, or whistle sound, or a synthetic sound that imitates at least one of these sounds.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、認識した監視対象が、あらかじめ設定された監視範囲内に存在する間、所定の音声を出力することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that it outputs a predetermined sound while the recognized monitoring target is within a preset monitoring range.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象が監視範囲内に存在する間中、所定の音声を出力し続けることにより、監視対象に対する警告をおこなうとともに、監視対象の位置を周囲に確実に報知することができる。これにより、早期に、監視対象を監視範囲の外へ追い払うことができ、農産物などにさらなる被害が加わることを確実に防止することができる。 According to the flying robot 1001 of the second embodiment of the present invention, a predetermined sound is continuously output while the monitored object is within the monitoring range, thereby issuing a warning to the monitored object and reliably notifying the surroundings of the location of the monitored object. This makes it possible to quickly drive the monitored object out of the monitoring range, and reliably prevent further damage to agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、音圧レベルが80dB以上であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the predetermined sound has a sound pressure level of 80 dB or more.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、広範囲に聞こえる大きさの音声を出力することができる。これにより、監視対象に対して明確な警告をおこなうとともに、広範囲にわたって監視対象の位置を確実に報知することができ、農産物などにさらなる被害が加わることを確実に防止することができる。 The flying robot 1001 of the second embodiment of the present invention can output a sound loud enough to be heard over a wide area. This allows a clear warning to be given to the monitored object, and the location of the monitored object can be reliably notified over a wide area, thereby reliably preventing further damage to agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の音声が、ラウドネスレベルが90フォン以上であることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the predetermined sound has a loudness level of 90 phon or more.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、防災のサイレンの音量として規定されている、ラウドネスレベルが90フォン以上の音声を出力することにより監視対象に対して明確な警告をおこなうとともに、広範囲にわたって監視対象の位置を確実に報知することができ、農産物などにさらなる被害が加わることを確実に防止することができる。 The flying robot 1001 of the second embodiment of the present invention can output a sound with a loudness level of 90 or more, which is the volume of a disaster prevention siren, to provide a clear warning to the monitored object and reliably notify the location of the monitored object over a wide area, thereby reliably preventing further damage to agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、無人航空機に搭載された光源であるLEDランプ104を備え、LEDランプ104を発光させながら飛行することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is characterized by having an LED lamp 104, which is a light source mounted on the unmanned aerial vehicle, and flying while emitting light from the LED lamp 104.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、監視対象に接近するように飛行するとともに、光源であるLEDランプ104を発光させることで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に報知することができ、農産物などの盗難被害を確実に防止することができる。 The flying robot 1001 of the second embodiment of the present invention flies close to the target of monitoring and illuminates the LED lamp 104, which is the light source, to attract the attention of the target of monitoring and ensure that the target of monitoring is aware that it is being monitored. It also alerts the surrounding area of the intrusion of the target of monitoring, and reliably prevents theft of agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、光源であるLEDランプ104を点滅させながら飛行することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is characterized in that it flies while blinking the LED lamp 104, which serves as a light source.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、光源であるLEDランプ104を点滅させることで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に確実に報知することができ、農産物などの盗難被害を確実に防止することができる。 According to the flying robot 1001 of the second embodiment of the present invention, the LED lamp 104, which is the light source, is flashed to attract the attention of the monitored subject, reliably making the monitored subject aware that he or she is being monitored, and reliably alerting the surrounding area of the monitored subject's intrusion, thereby reliably preventing theft of agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、光源であるLEDランプ104を所定の閾値以上の光束の光を点滅させながら飛行することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is characterized in that it flies while blinking the light from the LED lamp 104, which is the light source, with a luminous flux equal to or greater than a predetermined threshold.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、所定の閾値以上の光束の光を点滅させながら飛行することで、監視対象の注意を惹き、監視対象に対して監視されていることを確実に認識させるとともに、監視対象の侵入を周囲に一層確実に報知することができ、農産物などの盗難被害を確実に防止することができる。 The flying robot 1001 of the second embodiment of the present invention flies while flashing a luminous flux equal to or greater than a predetermined threshold, thereby attracting the attention of the subject of monitoring and ensuring that the subject is aware that it is being monitored. It is also possible to more reliably alert the surrounding area to the intrusion of the subject of monitoring, thereby reliably preventing theft of agricultural produce, etc.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、無人航空機に搭載された無線通信インターフェースである通信I/F209を備え、カメラ103によって撮影された画像に基づいて監視対象を認識した場合、通信I/F209を介して、当該画像を所定の宛先に送信することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that it includes a communication I/F 209, which is a wireless communication interface mounted on the unmanned aerial vehicle, and when it recognizes a monitoring target based on an image captured by the camera 103, it transmits the image to a specified destination via the communication I/F 209.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識された監視対象の画像を所定の宛先に送信することにより、農産物などの被害を、当該農産物の管理者などに迅速かつ確実に報知することができる。 The flying robot 1001 of the second embodiment of the present invention can quickly and reliably notify managers of agricultural produce, etc. of damage to the produce by transmitting an image of the monitored object recognized based on an image captured by the camera 103 to a specified destination.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の宛先が、特定のスマートフォンに設定された電子メールアドレスであることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the specified destination is an email address set in a specific smartphone.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識された監視対象の画像を、たとえば、農場の管理者などの利害関係者のスマートフォンに設定された電子メールアドレスに宛てて送信することにより、当該管理者などに迅速かつ確実に報知することができる。これにより、管理者は、動物による農産物の食い荒らしや、人間による農産物の盗難などの被害を早期に把握し、被害の拡大を食い止める対応を促すことができる。 According to the flying robot 1001 of the second embodiment of the present invention, an image of a monitored object recognized based on an image captured by the camera 103 can be sent to an email address set in the smartphone of an interested party, such as a farm manager, for example, so that the manager can be notified promptly and reliably. This allows the manager to quickly grasp damage such as animals eating agricultural produce or humans stealing agricultural produce, and to encourage measures to stop the damage from spreading.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、所定の宛先が、クラウドネットワーク上に設定された特定のURLであることを特徴としている。 Furthermore, the flying robot 1001 of the second embodiment of the present invention is characterized in that the specified destination is a specific URL set on the cloud network.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、カメラ103によって撮影された画像に基づいて認識された監視対象の画像を、クラウドネットワーク上に設定された特定のURLに宛てて送信することにより、送信する画像の容量にかかわらず、確実にクラウドネットワーク上に記憶することができる。これにより、監視対象の記録を確実に保存し、監視対象を認識した後日に、当該監視対象の特定をおこなうことができる。 According to the flying robot 1001 of the second embodiment of the present invention, an image of a monitoring target recognized based on an image captured by the camera 103 can be sent to a specific URL set on the cloud network, and can be reliably stored on the cloud network regardless of the size of the image to be sent. This ensures that records of the monitoring target are saved, and the monitoring target can be identified at a later date after it is recognized.

また、この発明にかかる実施の形態2の飛行型ロボット1001は、カメラ103によって撮影された画像に基づいて監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴としている。 The flying robot 1001 of the second embodiment of the present invention is also characterized in that, when it recognizes a monitoring target based on an image captured by the camera 103, it stores the image in a specified memory area.

この発明にかかる実施の形態2の飛行型ロボット1001によれば、たとえば、図2に示した制御回路207におけるメモリなどの所定の記憶領域に、認識した監視対象の画像を記憶することにより、農産物などの窃盗被害が生じた場合に、記録された画像を用いて犯人の特定をおこなうことができる。 According to the flying robot 1001 of the second embodiment of the present invention, for example, by storing an image of a recognized monitoring target in a predetermined storage area such as a memory in the control circuit 207 shown in FIG. 2, if a theft of agricultural products or the like occurs, the recorded image can be used to identify the culprit.

なお、この実施の形態で説明した飛行型ロボットの制御方法は、あらかじめ用意されたプログラムを飛行型ロボットが備えるコンピュータで実行することにより実現することができる。このプログラムは、飛行型ロボットが備えるメモリなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、ハードディスク、CD-ROM、MO、DVD、USBメモリ、SSDなどに記憶されて配布することが可能であってもよく、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The flying robot control method described in this embodiment can be realized by executing a prepared program on a computer equipped in the flying robot. This program is recorded on a computer-readable recording medium such as a memory equipped in the flying robot, and is executed by being read from the recording medium by the computer. This program may be stored on a hard disk, CD-ROM, MO, DVD, USB memory, SSD, etc. and distributed, or may be a transmission medium that can be distributed via a network such as the Internet.

以下、実施の形態1の内容について付記として記載する。 The following is an addendum to the contents of embodiment 1.

(付記1)
自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行することを特徴とする飛行型ロボット。
(Appendix 1)
An unmanned aerial vehicle that flies by autopilot,
A camera mounted on the unmanned aerial vehicle;
Equipped with
A flying robot characterized in that, when an object is recognized based on an image captured by the camera, the flying robot flies so as to approach the object.

(付記2)
前記カメラによって、所定の範囲内を撮影することを特徴とする付記1に記載の飛行型ロボット。
(Appendix 2)
2. The flying robot described in claim 1, characterized in that the camera is adapted to capture images within a predetermined range.

(付記3)
前記所定の範囲は、あらかじめ設定されたゴミ集積場であることを特徴とする付記2に記載の飛行型ロボット。
(Appendix 3)
3. The flying robot according to claim 2, wherein the predetermined area is a garbage collection area that has been set in advance.

(付記4)
前記対象物に接近するように飛行した後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻ることを特徴とする付記2または3に記載の飛行型ロボット。
(Appendix 4)
4. The flying robot according to claim 2 or 3, characterized in that after flying to approach the target object, the flying robot returns to a station installed within the specified range or in the vicinity of the specified range.

(付記5)
前記所定の範囲内を、設定速度以下の速度で飛行することを特徴とする付記2~4のいずれか一つに記載の飛行型ロボット。
(Appendix 5)
5. The flying robot according to claim 2, wherein the flying robot flies within the predetermined range at a speed equal to or less than a set speed.

(付記6)
前記所定の範囲内の任意の位置において、ホバリング飛行することを特徴とする付記2~4のいずれか一つに記載の飛行型ロボット。
(Appendix 6)
5. The flying robot according to claim 2, wherein the flying robot flies in a hovering manner at any position within the predetermined range.

(付記7)
前記所定の範囲内の任意の位置において、上下飛行することを特徴とする付記2~4のいずれか一つに記載の飛行型ロボット。
(Appendix 7)
5. The flying robot according to claim 2, wherein the flying robot flies up and down at any position within the predetermined range.

(付記8)
前記無人航空機に搭載されたスピーカーを備え、
前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力するとともに、当該対象物に接近するように飛行することを特徴とする付記1~7のいずれか一つに記載の飛行型ロボット。
(Appendix 8)
A speaker mounted on the unmanned aerial vehicle;
The flying robot described in any one of appendices 1 to 7, characterized in that when the target object is recognized based on the image captured by the camera, a predetermined sound is output from the speaker and the flying robot flies so as to approach the target object.

(付記9)
前記対象物に対して前記スピーカーから前記所定の音声を出力することを特徴とする付記8に記載の飛行型ロボット。
(Appendix 9)
9. The flying robot according to claim 8, wherein the predetermined sound is output from the speaker to the target object.

(付記10)
前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 10)
The flying robot according to claim 8 or 9, wherein the predetermined sound is a recorded cry of a bird of prey or a synthesized sound that imitates the cry of a bird of prey.

(付記11)
前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 11)
The flying robot according to claim 8 or 9, wherein the predetermined sound is a recorded gunshot or a synthetic sound that imitates a gunshot.

(付記12)
前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 12)
The flying robot according to claim 8 or 9, wherein the predetermined sound is a recorded dog barking or a synthetic sound that imitates a dog barking.

(付記13)
前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする付記8または9に記載の飛行型ロボット。
(Appendix 13)
The flying robot according to claim 8 or 9, wherein the predetermined sound is a recorded sound of an attacked crow, an alert crow, or a frightened crow, or a synthesized sound imitating these sounds.

(付記14)
前記無人航空機に搭載された光源を備え、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光するとともに、当該対象物に接近するように飛行することを特徴とする付記1~13のいずれか一つに記載の飛行型ロボット。
(Appendix 14)
A light source mounted on the unmanned aerial vehicle;
The flying robot described in any one of appendices 1 to 13, characterized in that when an object is recognized based on an image captured by the camera, the light source is illuminated and the flying robot flies so as to approach the object.

(付記15)
猛禽を模した外観をなすことを特徴とする付記1~14のいずれか一つに記載の飛行型ロボット。
(Appendix 15)
15. The flying robot according to any one of claims 1 to 14, characterized in that it has an appearance resembling a bird of prey.

(付記16)
カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
(Appendix 16)
The computer of the flying robot, which is equipped with a camera and an unmanned aerial vehicle that flies by automatic control,
Taking an image using the camera,
When an object is recognized based on the image captured by the camera, the drone is caused to fly so as to approach the object.
A control program for a flying robot, which causes the robot to execute a process.

(付記17)
前記カメラによって、所定の範囲内を撮影させることを特徴とする付記16に記載の飛行型ロボットの制御プログラム。
(Appendix 17)
17. A control program for a flying robot as described in claim 16, characterized in that the camera is caused to photograph a predetermined range.

(付記18)
前記カメラによって、あらかじめ設定されたゴミ集積場を撮影させることを特徴とする付記17に記載の飛行型ロボットの制御プログラム。
(Appendix 18)
18. The control program for a flying robot described in appendix 17, characterized in that the camera is caused to photograph a predetermined garbage collection area.

(付記19)
前記対象物に接近するように飛行させた後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻るように飛行させることを特徴とする付記16または18に記載の飛行型ロボットの制御プログラム。
(Appendix 19)
19. A control program for a flying robot as described in appendix 16 or 18, characterized in that after flying the robot to approach the target object, the flying robot is flown to return to a station installed within the specified range or in the vicinity of the specified range.

(付記20)
前記所定の範囲内を、設定速度以下の速度で飛行させることを特徴とする付記17~19のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 20)
20. The control program for a flying robot described in any one of appendices 17 to 19, characterized in that the flying robot is caused to fly within the predetermined range at a speed equal to or less than a set speed.

(付記21)
前記所定の範囲内の任意の位置において、ホバリング飛行させることを特徴とする付記17~19のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 21)
20. The control program for a flying robot described in any one of appendices 17 to 19, characterized in that the flying robot is caused to hover at any position within the predetermined range.

(付記22)
前記所定の範囲内の任意の位置において、上下飛行させることを特徴とする付記17~19のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 22)
20. The control program for a flying robot described in any one of appendices 17 to 19, characterized in that the flying robot is caused to fly up and down at any position within the predetermined range.

(付記23)
前記無人航空機に搭載されたスピーカーを備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力させるとともに、当該対象物に接近するように飛行させることを特徴とする付記16~22のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 23)
A computer of the flying robot equipped with a speaker mounted on the unmanned aerial vehicle,
23. The control program for a flying robot according to any one of appendices 16 to 22, wherein when the target object is recognized based on an image captured by the camera, a predetermined sound is output from the speaker and the flying robot is caused to fly so as to approach the target object.

(付記24)
前記対象物に対して前記スピーカーから前記所定の音声を出力させることを特徴とする付記23に記載の飛行型ロボットの制御プログラム
(Appendix 24)
24. The flying robot control program according to claim 23, wherein the predetermined sound is output from the speaker to the target object.

(付記25)
前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 25)
25. The flying robot control program according to claim 23 or 24, wherein the predetermined sound is a recorded cry of a bird of prey or a synthesized sound imitating the cry of a bird of prey.

(付記26)
前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 26)
25. The flying robot control program according to claim 23 or 24, wherein the predetermined sound is a recorded gunshot or a synthetic sound that imitates a gunshot.

(付記27)
前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 27)
25. The flying robot control program according to claim 23 or 24, wherein the predetermined sound is a recorded dog barking or a synthetic sound that imitates a dog barking.

(付記28)
前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする付記23または24に記載の飛行型ロボットの制御プログラム。
(Appendix 28)
The flying robot control program according to claim 23 or 24, wherein the predetermined sound is a recorded sound of an attacked crow, an alert crow, or a frightened crow, or a synthesized sound imitating these sounds.

(付記29)
前記無人航空機に搭載された光源を備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光させるとともに、当該対象物に接近するように飛行させることを特徴とする付記16~28のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 29)
A computer of the flying robot equipped with a light source mounted on the unmanned aerial vehicle,
29. The flying robot control program according to any one of appendices 16 to 28, characterized in that, when an object is recognized based on an image captured by the camera, the light source is illuminated and the flying robot is caused to fly so as to approach the object.

(付記30)
カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御方法。
(Appendix 30)
The computer of a flying robot equipped with a camera and an unmanned aerial vehicle that flies automatically
Taking an image using the camera,
When an object is recognized based on the image captured by the camera, the drone is caused to fly so as to approach the object.
A control method for a flying robot, comprising: executing a process.

(付記31)
前記カメラによって、所定の範囲内を撮影させることを特徴とする付記30に記載の飛行型ロボットの制御方法。
(Appendix 31)
31. The flying robot control method according to claim 30, wherein the camera is caused to photograph a predetermined range.

(付記32)
前記カメラによって、あらかじめ設定されたゴミ集積場を撮影させることを特徴とする付記31に記載の飛行型ロボットの制御方法。
(Appendix 32)
32. The method for controlling a flying robot according to claim 31, wherein the camera is caused to photograph a predetermined garbage collection area.

(付記33)
前記対象物に接近するように飛行させた後、前記所定の範囲内あるいは当該所定の範囲の近傍に設置されたステーションに戻るように飛行させることを特徴とする付記31または32に記載の飛行型ロボットの制御方法。
(Appendix 33)
33. A method for controlling a flying robot as described in claim 31 or 32, characterized in that after flying the flying robot to approach the target object, the flying robot is flown to return to a station installed within the specified range or in the vicinity of the specified range.

(付記34)
前記所定の範囲内を、設定速度以下の速度で飛行させることを特徴とする付記31~33のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 34)
34. The method for controlling a flying robot according to any one of claims 31 to 33, characterized in that the flying robot is flown within the predetermined range at a speed equal to or less than a set speed.

(付記35)
前記所定の範囲内の任意の位置において、ホバリング飛行させることを特徴とする付記31~33のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 35)
34. The method for controlling a flying robot according to any one of claims 31 to 33, characterized in that the flying robot is made to fly in a hovering manner at any position within the predetermined range.

(付記36)
前記所定の範囲内の任意の位置において、上下飛行させることを特徴とする付記31~33のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 36)
34. The method for controlling a flying robot according to any one of claims 31 to 33, characterized in that the flying robot is caused to fly up and down at any position within the predetermined range.

(付記37)
前記無人航空機に搭載されたスピーカーを備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、前記対象物を認識した場合、前記スピーカーから所定の音声を出力させるとともに、当該対象物に接近するように飛行させることを特徴とする付記30~36のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 37)
A computer of the flying robot equipped with a speaker mounted on the unmanned aerial vehicle,
37. The method for controlling a flying robot according to any one of appendices 30 to 36, wherein, when the target object is recognized based on the image captured by the camera, a predetermined sound is output from the speaker and the flying robot is caused to fly so as to approach the target object.

(付記38)
前記対象物に対して前記スピーカーから前記所定の音声を出力させることを特徴とする付記37に記載の飛行型ロボットの制御方法。
(Appendix 38)
38. The flying robot control method according to claim 37, wherein the predetermined sound is output from the speaker to the target object.

(付記39)
前記所定の音声は、録音された猛禽の鳴き声、または、猛禽の鳴き声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 39)
39. The method for controlling a flying robot according to claim 37 or 38, wherein the predetermined sound is a recorded cry of a bird of prey or a synthesized sound imitating the cry of a bird of prey.

(付記40)
前記所定の音声は、録音された銃声、または、銃声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 40)
39. The flying robot control method according to claim 37 or 38, wherein the predetermined sound is a recorded gunshot or a synthesized sound that imitates a gunshot.

(付記41)
前記所定の音声は、録音された犬の吠え声、または、犬の吠え声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 41)
39. The method for controlling a flying robot according to claim 37 or 38, wherein the predetermined sound is a recorded dog barking or a synthetic sound that imitates a dog barking.

(付記42)
前記所定の音声は、攻撃を受けたカラス、警戒しているカラス、または、怯えたカラスが発する声を録音した音声、または、これらの声を模した合成音声であることを特徴とする付記37または38に記載の飛行型ロボットの制御方法。
(Appendix 42)
The flying robot control method described in Appendix 37 or 38, wherein the predetermined sound is a recorded sound of an attacked crow, an alert crow, or a frightened crow, or a synthesized sound imitating these sounds.

(付記43)
前記無人航空機に搭載された光源を備えた前記飛行型ロボットのコンピュータに、
前記カメラによって撮影された画像に基づいて、対象物を認識した場合、前記光源を発光させるとともに、当該対象物に接近するように飛行させることを特徴とする付記30~42のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 43)
A computer of the flying robot equipped with a light source mounted on the unmanned aerial vehicle,
43. The flying robot control method according to any one of appendices 30 to 42, characterized in that, when an object is recognized based on an image captured by the camera, the light source is illuminated and the flying robot is caused to fly so as to approach the object.

以下、実施の形態2の内容について付記として記載する。 The following is an addendum to the contents of embodiment 2.

(付記1)
自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする飛行型ロボット。
(Appendix 1)
An unmanned aerial vehicle that flies by autopilot,
A camera mounted on the unmanned aerial vehicle;
Equipped with
A flying robot characterized in that when a monitoring target is recognized based on an image captured by the camera, the flying robot flies so as to approach the monitoring target.

(付記2)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行することを特徴とする付記1に記載の飛行型ロボット。
(Appendix 2)
The flying robot described in Appendix 1 is characterized in that when it recognizes the monitoring target based on images taken by the camera, it flies so as to take images of the monitoring target from all directions.

(付記3)
あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする付記1または2に記載の飛行型ロボット。
(Appendix 3)
3. The flying robot according to claim 1 or 2, characterized in that it recognizes a monitoring target based on images captured by the camera within a predetermined range set in advance.

(付記4)
前記所定の範囲は、農場であることを特徴とする付記3に記載の飛行型ロボット。
(Appendix 4)
4. The flying robot according to claim 3, wherein the predetermined area is a farm.

(付記5)
前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記4に記載の飛行型ロボット。
(Appendix 5)
The flying robot described in Appendix 4, characterized in that the subject of monitoring is a bird, animal, or human being that possesses or carries agricultural products on the farm or items that are presumed to be agricultural products.

(付記6)
前記所定の範囲は、作物栽培農場であることを特徴とする付記3または4に記載の飛行型ロボット。
(Appendix 6)
5. The flying robot according to claim 3, wherein the predetermined area is a crop cultivation farm.

(付記7)
前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記6に記載の飛行型ロボット。
(Appendix 7)
The flying robot described in Appendix 6, characterized in that the monitoring target is a bird, animal, or human being that possesses or carries a cultivated crop or an item that is presumed to be the cultivated crop in the crop cultivation farm.

(付記8)
前記所定の範囲は、畜産農場であることを特徴とする付記3または4に記載の飛行型ロボット。
(Appendix 8)
5. The flying robot according to claim 3, wherein the predetermined area is a livestock farm.

(付記9)
前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記8に記載の飛行型ロボット。
(Appendix 9)
The flying robot described in Appendix 8, characterized in that the subject of monitoring is a livestock or poultry at the livestock farm, or a bird, animal, or human being that possesses or carries an item that is presumed to be the livestock or poultry.

(付記10)
前記所定の範囲は、養蜂場であることを特徴とする付記3または4に記載の飛行型ロボット。
(Appendix 10)
5. The flying robot according to claim 3, wherein the predetermined area is a beekeeping area.

(付記11)
前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記10に記載の飛行型ロボット。
(Appendix 11)
The flying robot described in Appendix 10, characterized in that the target of monitoring is a bird, animal, or human being that possesses or carries a beehive used for beekeeping or an item that is presumed to be such a hive.

(付記12)
あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする付記1~11のいずれか一つに記載の飛行型ロボット。
(Appendix 12)
The flying robot described in any one of appendices 1 to 11, characterized in that when the surveillance target is recognized based on an image taken by the camera during a predetermined time period, the flying robot flies so as to approach the surveillance target.

(付記13)
所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行することを特徴とする付記1~12のいずれか一つに記載の飛行型ロボット。
(Appendix 13)
The flying robot described in any one of appendices 1 to 12, characterized in that if the flying robot recognizes the monitoring target based on an image captured by the camera between receiving a specified input operation or a specified signal and receiving an operation to invalidate the specified input operation or a signal to invalidate the specified signal, the flying robot flies so as to approach the monitoring target.

(付記14)
前記監視対象を認識した場合、当該監視対象に接近するように飛行するとともに、当該監視対象に向けて所定の音声を出力することを特徴とする付記1~13のいずれか一つに記載の飛行型ロボット。
(Appendix 14)
The flying robot described in any one of appendices 1 to 13, characterized in that when the monitoring target is recognized, the flying robot flies so as to approach the monitoring target and outputs a predetermined sound toward the monitoring target.

(付記15)
前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする付記14に記載の飛行型ロボット。
(Appendix 15)
The flying robot according to claim 14, wherein the predetermined voice is a recorded voice giving a caution or warning against theft, or a synthesized voice imitating a voice giving a caution or warning against theft.

(付記16)
前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする付記14に記載の飛行型ロボット。
(Appendix 16)
15. The flying robot according to claim 14, wherein the predetermined sound is a siren, a warning horn, a signal horn, or a whistle, or a synthesized sound that imitates at least any one of these sounds.

(付記17)
認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする付記14~16のいずれか一つに記載の飛行型ロボット。
(Appendix 17)
The flying robot described in any one of appendices 14 to 16, characterized in that the predetermined sound is output while the recognized monitoring target is within a preset monitoring range.

(付記18)
前記所定の音声は、音圧レベルが80dB以上であることを特徴とする付記14~17のいずれか一つに記載の飛行型ロボット。
(Appendix 18)
The flying robot according to any one of appendices 14 to 17, wherein the predetermined sound has a sound pressure level of 80 dB or more.

(付記19)
前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする付記14~17のいずれか一つに記載の飛行型ロボット。
(Appendix 19)
The flying robot according to any one of appendices 14 to 17, wherein the predetermined sound has a loudness level of 90 phon or more.

(付記20)
前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行することを特徴とする付記1~19のいずれか一つに記載の飛行型ロボット。
(Appendix 20)
A light source mounted on the unmanned aerial vehicle;
20. The flying robot described in any one of appendices 1 to 19, wherein the flying robot flies while emitting light from the light source.

(付記21)
前記光源を点滅させながら飛行することを特徴とする付記20に記載の飛行型ロボット。
(Appendix 21)
21. The flying robot described in claim 20, which flies while blinking the light source.

(付記22)
前記光源を所定の閾値以上の光束の光を点滅させながら飛行することを特徴とする付記21に記載の飛行型ロボット。
(Appendix 22)
22. The flying robot described in claim 21, wherein the flying robot flies while flashing the light source with a luminous flux equal to or greater than a predetermined threshold.

(付記23)
前記無人航空機に搭載された無線通信インタ-フェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インタ-フェースを介して、当該画像を所定の宛先に送信することを特徴とする付記1~22のいずれか一つに記載の飛行型ロボット。
(Appendix 23)
A wireless communication interface is provided on the unmanned aerial vehicle.
The flying robot described in any one of appendices 1 to 22, characterized in that when the monitoring target is recognized based on an image captured by the camera, the image is transmitted to a predetermined destination via the wireless communication interface.

(付記24)
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする付記23に記載の飛行型ロボット。
(Appendix 24)
The flying robot described in Appendix 23, characterized in that the specified destination is an email address set in a specific smartphone.

(付記25)
前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする付記23に記載の飛行型ロボット。
(Appendix 25)
The flying robot described in Appendix 23, characterized in that the specified destination is a specific URL set on a cloud network.

(付記26)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする付記1~25のいずれか一つに記載の飛行型ロボット。
(Appendix 26)
The flying robot described in any one of appendices 1 to 25, characterized in that when the surveillance target is recognized based on an image captured by the camera, the image is stored in a predetermined memory area.

(付記27)
カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
(Appendix 27)
The computer of the flying robot, which is equipped with a camera and an unmanned aerial vehicle that flies by automatic control,
Taking an image using the camera,
When a surveillance target is recognized based on the image captured by the camera, the drone is caused to fly so as to approach the target.
A control program for a flying robot, which causes the robot to execute a process.

(付記28)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする付記27に記載の飛行型ロボットの制御プログラム。
(Appendix 28)
A control program for a flying robot described in Appendix 27, characterized in that when the monitoring target is recognized based on images taken by the camera, the flying robot is caused to fly so as to take images of the monitoring target from all directions.

(付記29)
あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする付記27または28に記載の飛行型ロボットの制御プログラム。
(Appendix 29)
29. A control program for a flying robot as described in appendix 27 or 28, characterized in that a monitoring target is recognized based on an image captured by the camera within a predetermined range set in advance.

(付記30)
前記所定の範囲は、農場であることを特徴とする付記29に記載の飛行型ロボットの制御プログラム。
(Appendix 30)
30. The control program for a flying robot described in Appendix 29, wherein the predetermined area is a farm.

(付記31)
前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記30に記載の飛行型ロボットの制御プログラム。
(Appendix 31)
The control program for a flying robot described in Appendix 30, characterized in that the subject of monitoring is a bird, animal, or human being that possesses or carries agricultural products on the farm or items that are presumed to be agricultural products.

(付記32)
前記所定の範囲は、作物栽培農場であることを特徴とする付記29または30に記載の飛行型ロボットの制御プログラム。
(Appendix 32)
31. The control program for an flying robot described in appendix 29 or 30, wherein the predetermined area is a crop cultivation farm.

(付記33)
前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記32に記載の飛行型ロボットの制御プログラム。
(Appendix 33)
The control program for a flying robot described in Appendix 32, characterized in that the monitored object is a bird, animal, or human being that possesses or carries a cultivated crop or an item that is presumed to be the cultivated crop in the crop cultivation farm.

(付記34)
前記所定の範囲は、畜産農場であることを特徴とする付記29または30に記載の飛行型ロボットの制御プログラム。
(Appendix 34)
31. The control program for a flying robot described in appendix 29 or 30, wherein the predetermined area is a livestock farm.

(付記35)
前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記34に記載の飛行型ロボットの制御プログラム。
(Appendix 35)
The control program for a flying robot described in Appendix 34, characterized in that the subject of monitoring is a livestock or poultry at the livestock farm, or a bird, animal, or human being that possesses or carries an item that is presumed to be a livestock or poultry.

(付記36)
前記所定の範囲は、養蜂場であることを特徴とする付記29または30に記載の飛行型ロボットの制御プログラム。
(Appendix 36)
31. The control program for an flying robot described in claim 29 or 30, wherein the predetermined range is a beekeeping area.

(付記37)
前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記36に記載の飛行型ロボットの制御プログラム。
(Appendix 37)
The control program for a flying robot described in Appendix 36, characterized in that the subject of monitoring is a bird, animal, or human being that possesses or carries a beehive used for beekeeping or an item that is presumed to be such a hive.

(付記38)
あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記27~37のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 38)
A control program for a flying robot described in any one of appendices 27 to 37, characterized in that when the surveillance target is recognized based on images taken by the camera during a predetermined time period, the flying robot is caused to fly so as to approach the surveillance target.

(付記39)
所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記27~38のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 39)
A control program for a flying robot described in any one of Appendices 27 to 38, characterized in that if the surveillance target is recognized based on an image captured by the camera between receiving a specified input operation or a specified signal and receiving an operation to invalidate the specified input operation or a signal to invalidate the specified signal, the flying robot is caused to fly so as to approach the surveillance target.

(付記40)
前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする付記27~39のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 40)
A control program for a flying robot described in any one of appendices 27 to 39, characterized in that when the monitoring target is recognized, the flying robot is caused to fly close to the monitoring target and a predetermined sound is output toward the monitoring target.

(付記41)
前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする付記40に記載の飛行型ロボットの制御プログラム。
(Appendix 41)
The flying robot control program according to claim 40, wherein the predetermined voice is a recorded voice giving a caution or warning against theft, or a synthesized voice imitating a voice giving a caution or warning against theft.

(付記42)
前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする付記40に記載の飛行型ロボットの制御プログラム。
(Appendix 42)
The flying robot control program according to claim 40, wherein the predetermined sound is a siren, a warning horn, a signal horn or a whistle, or a synthesized sound that imitates at least any one of these sounds.

(付記43)
認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする付記40~42のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 43)
43. The flying robot control program according to any one of appendices 40 to 42, wherein the predetermined sound is output while the recognized monitoring target is within a preset monitoring range.

(付記44)
前記所定の音声は、音圧レベルが80dB以上であることを特徴とする付記40~43のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 44)
The flying robot control program according to any one of appendices 40 to 43, wherein the predetermined sound has a sound pressure level of 80 dB or more.

(付記45)
前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする付記40~43のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 45)
The flying robot control program according to any one of appendices 40 to 43, wherein the predetermined sound has a loudness level of 90 phon or more.

(付記46)
前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行させることを特徴とする付記27~45のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 46)
A light source mounted on the unmanned aerial vehicle;
46. A control program for a flying robot described in any one of appendices 27 to 45, characterized in that the flying robot is flown while emitting light from the light source.

(付記47)
前記光源を点滅させながら飛行させることを特徴とする付記46に記載の飛行型ロボットの制御プログラム。
(Appendix 47)
47. A control program for a flying robot as described in appendix 46, characterized in that the flying robot is caused to fly while the light source is blinking.

(付記48)
前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする付記47に記載の飛行型ロボットの制御プログラム。
(Appendix 48)
48. A control program for a flying robot described in Appendix 47, characterized in that the light source is caused to fly while flashing a luminous flux equal to or greater than a predetermined threshold.

(付記49)
前記無人航空機に搭載された無線通信インタ-フェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インタ-フェースを介して、当該画像を所定の宛先に送信することを特徴とする付記27~48のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 49)
A wireless communication interface is provided on the unmanned aerial vehicle.
A control program for a flying robot described in any one of appendices 27 to 48, characterized in that when the monitoring target is recognized based on an image captured by the camera, the image is transmitted to a predetermined destination via the wireless communication interface.

(付記50)
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする付記49に記載の飛行型ロボットの制御プログラム。
(Appendix 50)
The flying robot control program described in Appendix 49, characterized in that the specified destination is an email address set in a specific smartphone.

(付記51)
前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする付記49に記載の飛行型ロボットの制御プログラム。
(Appendix 51)
The flying robot control program described in Appendix 49, characterized in that the specified destination is a specific URL set on a cloud network.

(付記52)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする付記27~51のいずれか一つに記載の飛行型ロボットの制御プログラム。
(Appendix 52)
A control program for a flying robot described in any one of appendices 27 to 51, characterized in that when the monitoring target is recognized based on an image captured by the camera, the image is stored in a predetermined memory area.

(付記53)
カメラが搭載され、自動操縦により飛行させる無人航空機を備える飛行型ロボットのコンピュータに、
前記カメラによる撮影をおこなわせ、
前記カメラによって撮影された画像に基づいて、監視対象を認識した場合、当該対象物に接近するように飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御方法。
(Appendix 53)
The computer of the flying robot, which is equipped with a camera and an unmanned aerial vehicle that flies by automatic control,
Taking an image using the camera,
When a surveillance target is recognized based on the image captured by the camera, the drone is caused to fly so as to approach the target.
A control method for a flying robot, comprising: executing a process.

(付記54)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該監視対象の全方位からの画像を撮影するように飛行させることを特徴とする付記53に記載の飛行型ロボットの制御方法。
(Appendix 54)
A control method for a flying robot described in Appendix 53, characterized in that when the monitoring target is recognized based on images taken by the camera, the flying robot is flown so as to capture images of the monitoring target from all directions.

(付記55)
あらかじめ設定された所定の範囲内において前記カメラによって撮影された画像に基づいて、監視対象を認識することを特徴とする付記53または54に記載の飛行型ロボットの制御方法。
(Appendix 55)
55. A method for controlling a flying robot as described in appendix 53 or 54, characterized in that a monitoring target is recognized based on an image taken by the camera within a predetermined range set in advance.

(付記56)
前記所定の範囲は、農場であることを特徴とする付記55に記載の飛行型ロボットの制御方法。
(Appendix 56)
56. The method for controlling an flying robot described in Appendix 55, wherein the specified area is a farm.

(付記57)
前記監視対象は、前記農場における農産物または当該農産物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記56に記載の飛行型ロボットの制御方法。
(Appendix 57)
The flying robot control method described in Appendix 56, characterized in that the subject of monitoring is a bird, animal, or human being that possesses or carries agricultural products on the farm or items that are presumed to be agricultural products.

(付記58)
前記所定の範囲は、作物栽培農場であることを特徴とする付記55または56に記載の飛行型ロボットの制御方法。
(Appendix 58)
57. The method for controlling an airborne robot according to claim 55 or 56, wherein the predetermined area is a crop cultivation farm.

(付記59)
前記監視対象は、前記作物栽培農場における栽培作物または当該栽培作物と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記58に記載の飛行型ロボットの制御方法。
(Appendix 59)
The flying robot control method described in Appendix 58, characterized in that the monitored object is a bird, animal, or human being that possesses or carries a cultivated crop or an item presumed to be the cultivated crop in the crop cultivation farm.

(付記60)
前記所定の範囲は、畜産農場であることを特徴とする付記55または56に記載の飛行型ロボットの制御方法。
(Appendix 60)
57. The method for controlling a flying robot described in appendix 55 or 56, wherein the specified area is a livestock farm.

(付記61)
前記監視対象は、前記畜産農場における家畜あるいは家禽、または、当該家畜あるいは家禽と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記60に記載の飛行型ロボットの制御方法。
(Appendix 61)
The flying robot control method described in Appendix 60, characterized in that the monitored object is a livestock or poultry at the livestock farm, or a bird, animal, or human possessing or carrying an item presumed to be the livestock or poultry.

(付記62)
前記所定の範囲は、養蜂場であることを特徴とする付記55または56に記載の飛行型ロボットの制御方法。
(Appendix 62)
57. The method for controlling an flying robot described in appendix 55 or 56, wherein the specified range is a beekeeping area.

(付記63)
前記監視対象は、養蜂に用いる巣箱または当該巣箱と推定される物品を所持または運搬する、鳥獣または人間であることを特徴とする付記62に記載の飛行型ロボットの制御方法。
(Appendix 63)
The flying robot control method described in Appendix 62, characterized in that the subject of monitoring is a bird, animal, or human being that possesses or carries a beehive used for beekeeping or an item that is presumed to be such a hive.

(付記64)
あらかじめ設定された時間帯に前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記55~63のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 64)
A control method for a flying robot described in any one of appendices 55 to 63, characterized in that when the surveillance target is recognized based on images taken by the camera during a predetermined time period, the flying robot is caused to fly so as to approach the surveillance target.

(付記65)
所定の入力操作または所定の信号を受け付けてから、当該所定の入力操作を無効とする操作または所定の信号を無効とする信号を受け付けるまでの間に、前記カメラによって撮影された画像に基づいて、前記監視対象を認識した場合、当該監視対象に接近するように飛行させることを特徴とする付記53~64のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 65)
A method for controlling a flying robot as described in any one of appendices 53 to 64, characterized in that if the surveillance target is recognized based on an image captured by the camera between the time when a specified input operation or a specified signal is received and the time when an operation to invalidate the specified input operation or a signal to invalidate the specified signal is received, the flying robot is caused to fly so as to approach the surveillance target.

(付記66)
前記監視対象を認識した場合、当該監視対象に接近するように飛行させるとともに、当該監視対象に向けて所定の音声を出力することを特徴とする付記55~65のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 66)
A method for controlling a flying robot described in any one of appendices 55 to 65, characterized in that when the monitoring target is recognized, the flying robot is flown so as to approach the monitoring target and a predetermined sound is output toward the monitoring target.

(付記67)
前記所定の音声は、盗難を注意または警告する発話を録音した音声、または、盗難を注意または警告する発話を模した合成音声であることを特徴とする付記66に記載の飛行型ロボットの制御方法。
(Appendix 67)
The flying robot control method of claim 66, wherein the specified voice is a recorded voice that warns or cautions against theft, or a synthesized voice that imitates a voice that warns or cautions against theft.

(付記68)
前記所定の音声は、サイレン、警笛、号笛またはホイッスルの音声、または、これらのうちの少なくともいずれかの音声を模した合成音声であることを特徴とする付記66に記載の飛行型ロボットの制御方法。
(Appendix 68)
67. The flying robot control method of claim 66, wherein the predetermined sound is a siren, a warning horn, a signal horn or a whistle, or a synthesized sound that imitates at least any one of these sounds.

(付記69)
認識した前記監視対象が、あらかじめ設定された監視範囲内に存在する間、前記所定の音声を出力することを特徴とする付記66~68のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 69)
70. A method for controlling a flying robot according to any one of appendices 66 to 68, characterized in that the predetermined sound is output while the recognized monitoring target is within a preset monitoring range.

(付記70)
前記所定の音声は、音圧レベルが80dB以上であることを特徴とする付記66~69のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 70)
70. The method for controlling an flying robot described in any one of appendices 66 to 69, wherein the predetermined sound has a sound pressure level of 80 dB or more.

(付記71)
前記所定の音声は、ラウドネスレベルが90フォン以上であることを特徴とする付記66~69のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 71)
70. The flying robot control method according to any one of appendices 66 to 69, wherein the predetermined sound has a loudness level of 90 phon or more.

(付記72)
前記無人航空機に搭載された光源を備え、
前記光源を発光させながら飛行させることを特徴とする付記55~71のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 72)
A light source mounted on the unmanned aerial vehicle;
72. A method for controlling a flying robot according to any one of claims 55 to 71, characterized in that the flying robot is flown while the light source is illuminated.

(付記73)
前記光源を点滅させながら飛行させることを特徴とする付記72に記載の飛行型ロボットの制御方法。
(Appendix 73)
73. The method for controlling a flying robot described in appendix 72, characterized in that the flying robot is flown while the light source is blinking.

(付記74)
前記光源を所定の閾値以上の光束の光を点滅させながら飛行させることを特徴とする付記73に記載の飛行型ロボットの制御方法。
(Appendix 74)
74. A method for controlling a flying robot as described in appendix 73, characterized in that the light source is caused to fly while flashing a luminous flux equal to or greater than a predetermined threshold.

(付記75)
前記無人航空機に搭載された無線通信インタ-フェースを備え、
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、前記無線通信インタ-フェースを介して、当該画像を所定の宛先に送信することを特徴とする付記53~74のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 75)
A wireless communication interface is provided on the unmanned aerial vehicle.
A method for controlling a flying robot according to any one of appendices 53 to 74, characterized in that when the monitoring target is recognized based on an image captured by the camera, the image is transmitted to a predetermined destination via the wireless communication interface.

(付記76)
前記所定の宛先は、特定のスマートフォンに設定された電子メールアドレスであることを特徴とする付記75に記載の飛行型ロボットの制御方法。
(Appendix 76)
The flying robot control method described in Appendix 75, characterized in that the specified destination is an email address set in a specific smartphone.

(付記77)
前記所定の宛先は、クラウドネットワーク上に設定された特定のURLであることを特徴とする付記75に記載の飛行型ロボットの制御方法。
(Appendix 77)
The flying robot control method described in Appendix 75, characterized in that the specified destination is a specific URL set on a cloud network.

(付記78)
前記カメラによって撮影された画像に基づいて前記監視対象を認識した場合、当該画像を所定の記憶領域に記憶することを特徴とする付記53~77のいずれか一つに記載の飛行型ロボットの制御方法。
(Appendix 78)
A method for controlling a flying robot described in any one of appendices 53 to 77, characterized in that when the monitoring target is recognized based on an image taken by the camera, the image is stored in a specified memory area.

以上のように、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法は、ゴミ集積所などを監視する飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に有用であり、特に、ゴミ集積所へのカラスの飛来を監視する飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に適している。 As described above, the flying robot, the control program for a flying robot, and the control method for a flying robot according to the present invention are useful as a flying robot, a control program for a flying robot, and a control method for a flying robot that monitors garbage collection sites and the like, and are particularly suitable as a flying robot, a control program for a flying robot, and a control method for a flying robot that monitors the arrival of crows at garbage collection sites.

101 飛行型ロボット
102 プロペラ
103 カメラ
104 LEDランプ
201 バッテリー
202 モーター
203 マイク
204 スピーカー
205 GPSセンサー
206 対物センサー
207 制御回路
208 加速度センサー
209 通信I/F
210 ソーラーセル
301 ステーション
302 外装部
303 バッテリー
304 送電コイル
305 ソーラーセル
401 記憶部
402 検出部
403 撮影部
404 取得部
405 駆動部
406 出力部
407 制御部
601 支柱
602 ゴミ集積場
701 カラス
1001 飛行型ロボット
1201 樹木
1201a 枝葉
1201b 果物
1202 箱
1203 犯罪者
1301 豚
101 Flying robot 102 Propeller 103 Camera 104 LED lamp 201 Battery 202 Motor 203 Microphone 204 Speaker 205 GPS sensor 206 Object sensor 207 Control circuit 208 Acceleration sensor 209 Communication I/F
210 Solar cell 301 Station 302 Exterior 303 Battery 304 Power transmission coil 305 Solar cell 401 Memory 402 Detection 403 Photography 404 Acquisition 405 Drive 406 Output 407 Control unit 601 Support 602 Garbage collection site 701 Crow 1001 Flying robot 1201 Tree 1201a Branches and leaves 1201b Fruit 1202 Box 1203 Criminal 1301 Pig

Claims (4)

自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
所定の範囲内または当該所定の範囲内の近傍に設けられたステーションにおいて、前記カメラによって当該所定の範囲内を撮影可能な状態で待機し、
前記ステーションに待機した状態で、前記カメラによって前記所定の範囲内を撮影し、
待機中に、前記カメラによって撮影された画像に基づいて、前記所定の範囲内において対象物を認識した場合に、前記ステーションからの飛行を開始して当該対象物に接近し、
飛行中に、前記カメラによって撮影された画像に基づいて、前記所定の範囲内において前記対象物が認識されなくなった場合に、前記ステーションに帰還し、飛行を終了することを特徴とする飛行型ロボット。
An unmanned aerial vehicle that flies by autopilot,
A camera mounted on the unmanned aerial vehicle;
Equipped with
waiting in a state in which the predetermined range can be photographed by the camera at a station provided within the predetermined range or in the vicinity of the predetermined range;
While waiting at the station, the camera captures an image of the predetermined range,
During standby, when an object is recognized within the predetermined range based on an image captured by the camera , the drone starts flying from the station and approaches the object;
A flying robot characterized in that, during flight, if the target object is no longer recognized within the specified range based on images taken by the camera , the flying robot returns to the station and ends its flight.
前記飛行中に、ホバリング飛行または上下飛行することを特徴とする請求項1に記載の飛行型ロボット。 The flying robot according to claim 1, characterized in that it flies in a hovering manner or vertically during the flight. カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットのコンピュータに、
前記飛行型ロボットを、所定の範囲内または当該所定の範囲内の近傍に設けられたステーションにおいて、前記カメラによって当該所定の範囲内を撮影可能な状態で待機させ、
前記飛行型ロボットを前記ステーションに待機させた状態で、前記カメラによって所定の範囲内を撮影させ、
前記飛行型ロボットの待機中に、前記カメラによって撮影された画像に基づいて、前記所定の範囲内において対象物を認識した場合に、前記飛行型ロボットに前記ステーションからの飛行を開始させて、当該対象物に接近させ、
前記飛行型ロボットの飛行中に、前記カメラによって撮影された画像に基づいて、前記所定の範囲内において前記対象物が認識されなくなった場合に、前記飛行型ロボットを前記ステーションに帰還させ、前記飛行型ロボットに飛行を終了させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
The computer of a flying robot equipped with a camera and an unmanned aerial vehicle that flies automatically
The flying robot is made to wait in a station provided within a predetermined range or in the vicinity of the predetermined range in a state in which the predetermined range can be photographed by the camera ;
While the flying robot is waiting at the station, the camera is caused to photograph a predetermined range.
When an object is recognized within the predetermined range based on an image captured by the camera while the flying robot is waiting, the flying robot is caused to start flying from the station and approach the object;
When the target object is no longer recognized within the predetermined range based on the image captured by the camera during the flight of the flying robot, the flying robot is returned to the station and the flying robot is caused to end its flight.
A control program for a flying robot, which causes the robot to execute a process.
カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに
定の範囲内または当該所定の範囲内の近傍に設けられたステーションにおいて、前記カメラによって当該所定の範囲内を撮影可能な状態で待機させ、
前記ステーションに待機させた状態で、前記カメラによって所定の範囲内を撮影させ、
待機中に、前記カメラによって撮影された画像に基づいて、前記所定の範囲内において対象物を認識した場合に、前記ステーションからの飛行を開始させて、当該対象物に接近させ、
行中に、前記カメラによって撮影された画像に基づいて、前記所定の範囲内において前記対象物が認識されなくなった場合に、前ステーションに帰還させ、飛行を終了させる、
とを特徴とする飛行型ロボットの制御方法。
A flying robot equipped with a camera and an unmanned aerial vehicle that flies automatically.
a station provided within a predetermined range or in the vicinity of the predetermined range , the station being made to wait in a state in which the predetermined range can be photographed by the camera ;
While the vehicle is waiting at the station, the camera is caused to photograph a predetermined range.
During standby, when an object is recognized within the predetermined range based on an image captured by the camera, the drone starts flying from the station and approaches the object;
When the target object is no longer recognized within the predetermined range based on the image captured by the camera during the flight , the drone returns to the station and ends the flight .
A method for controlling a flying robot.
JP2020219047A 2020-12-28 2020-12-28 Flying robot, flying robot control program, and flying robot control method Active JP7650485B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020219047A JP7650485B2 (en) 2020-12-28 2020-12-28 Flying robot, flying robot control program, and flying robot control method
JP2025034322A JP2025078765A (en) 2020-12-28 2025-03-05 Flying Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020219047A JP7650485B2 (en) 2020-12-28 2020-12-28 Flying robot, flying robot control program, and flying robot control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025034322A Division JP2025078765A (en) 2020-12-28 2025-03-05 Flying Robot

Publications (3)

Publication Number Publication Date
JP2022104060A JP2022104060A (en) 2022-07-08
JP2022104060A5 JP2022104060A5 (en) 2024-01-11
JP7650485B2 true JP7650485B2 (en) 2025-03-25

Family

ID=82279429

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020219047A Active JP7650485B2 (en) 2020-12-28 2020-12-28 Flying robot, flying robot control program, and flying robot control method
JP2025034322A Pending JP2025078765A (en) 2020-12-28 2025-03-05 Flying Robot

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025034322A Pending JP2025078765A (en) 2020-12-28 2025-03-05 Flying Robot

Country Status (1)

Country Link
JP (2) JP7650485B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115743356B (en) * 2022-12-09 2024-05-03 成都理工大学 Cockroach-imitating robot suitable for narrow topography detection
JP2024097215A (en) * 2023-01-05 2024-07-18 ウシオ電機株式会社 Monitoring system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019047755A (en) 2017-09-11 2019-03-28 Kddi株式会社 Management device, program, management method, and flight device
JP2019062743A (en) 2017-08-22 2019-04-25 有限会社ZenTec Drone for threatening birds and beasts
US20200154695A1 (en) 2018-11-16 2020-05-21 BirdBrAin Inc. Methods and systems for automatically relocating a pest deterrent system
JP2020092643A (en) 2018-12-12 2020-06-18 テックファーム株式会社 Unmanned flight device, unmanned flight system, and unmanned flight device control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062743A (en) 2017-08-22 2019-04-25 有限会社ZenTec Drone for threatening birds and beasts
JP2019047755A (en) 2017-09-11 2019-03-28 Kddi株式会社 Management device, program, management method, and flight device
US20200154695A1 (en) 2018-11-16 2020-05-21 BirdBrAin Inc. Methods and systems for automatically relocating a pest deterrent system
JP2020092643A (en) 2018-12-12 2020-06-18 テックファーム株式会社 Unmanned flight device, unmanned flight system, and unmanned flight device control system

Also Published As

Publication number Publication date
JP2025078765A (en) 2025-05-20
JP2022104060A (en) 2022-07-08

Similar Documents

Publication Publication Date Title
JP2025078765A (en) Flying Robot
JP6181321B2 (en) Method, system and apparatus for guiding a target object
JP6292526B2 (en) Environmental measurement robot
US10076111B2 (en) Game alert system
JP2025083351A (en) Flying Robot
US20180125058A1 (en) Multifunctional animal repeller
JP6821529B2 (en) Management equipment, programs and management methods
US20180068164A1 (en) Systems and methods for identifying pests in crop-containing areas via unmanned vehicles
US10080360B2 (en) Game alert system
JP6560305B2 (en) Method for guiding a target object and UAV
US20190152595A1 (en) Apparatus for Sustained Surveillance and Deterrence with Unmanned Aerial Vehicles (UAV)
US20230129369A1 (en) Method and System for Remote Monitoring, Care and Maintenance of Animals
JP2024173978A (en) Flying robot, flying robot control program, and flying robot control method
US11557142B1 (en) Home wildlife deterrence
Smith et al. A method for low‐cost, low‐impact insect tracking using retroreflective tags
US20210022320A1 (en) Special Search Dog Pack and Process for Faster Dog Aided Search, Dog Only Search and Rescue, and other Dog Aided Uses
JP5963068B1 (en) Chicken breeding method
JP7603927B2 (en) Flying robot, flying robot control program, and flying robot control method
JP7261115B2 (en) Individual identification management device
KR20180099278A (en) Auto Security System
US20230037568A1 (en) Method and system for remote monitoring, care and maintenance of an animal
JP6183734B1 (en) Method and structure for preventing flight of harmful birds such as starlings and sparrows
Nadzri Design issues and considerations for hardware implementation of wildlife surveillance system: A review
JP2023098220A (en) Flying robot, control program for flying robot, and control method for flying robot
Trevathan et al. A computer vision enhanced IoT system for koala monitoring and recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250305

R150 Certificate of patent or registration of utility model

Ref document number: 7650485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150