[go: up one dir, main page]

JP6859241B2 - 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体 - Google Patents

飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP6859241B2
JP6859241B2 JP2017188022A JP2017188022A JP6859241B2 JP 6859241 B2 JP6859241 B2 JP 6859241B2 JP 2017188022 A JP2017188022 A JP 2017188022A JP 2017188022 A JP2017188022 A JP 2017188022A JP 6859241 B2 JP6859241 B2 JP 6859241B2
Authority
JP
Japan
Prior art keywords
support member
information
flying object
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017188022A
Other languages
English (en)
Other versions
JP2019059452A (ja
Inventor
杰旻 周
杰旻 周
青宇 盧
青宇 盧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017188022A priority Critical patent/JP6859241B2/ja
Priority to EP17927177.0A priority patent/EP3689754A4/en
Priority to PCT/CN2017/116603 priority patent/WO2019061860A1/zh
Priority to CN201780064190.5A priority patent/CN109843726B/zh
Publication of JP2019059452A publication Critical patent/JP2019059452A/ja
Priority to US16/726,618 priority patent/US11531340B2/en
Application granted granted Critical
Publication of JP6859241B2 publication Critical patent/JP6859241B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/32UAVs specially adapted for particular uses or applications for imaging, photography or videography for cartography or topography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/55UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use
    • B64U2101/56UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use for locating missing persons or animals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、生体を探索する飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体に関する。
近年、無人航空機は、様々な用途で使用され始めている。例えば、無人航空機が、災害調査に活用され始めており、被災地の空撮による災害状況の把握や行方不明者の捜索などに活用され得る。(非特許文献1参照)。無人航空機は、特に、複雑な地形の領域や、二次災害のおそれのある場所での活用が期待されている。
「ドローンで人命救助 初の競技会」、[online]、2016年10月25日、おはよう日本、NHK、[平成29年8月30日検索]、インターネット<URL:http://www.nhk.or.jp/ohayou/digest/2016/10/1025.html?utm_int=detail_contents_news-link_001>
非特許文献1では、無人航空機による災害調査において、無人航空機に取り付けられたカメラにより上空から撮像された画像が用いられるが、画像だけでは災害調査が困難となることがある。例えば、瓦礫の内部に人が埋まっており、瓦礫の外側からでは、瓦礫の内部に人が埋まっていることが視認できない場合には、人体を発見できない可能性が高くなる。また、人体を撮影するだけでは、人体がどのような状況にあるかを十分に把握できず、救助の効率が不十分となる可能性がある。
一態様において、飛行体は、回転翼が取り付けられる本体と、本体に接続された第1の支持部材と、第1の支持部材に支持された第1のジンバルと、第1のジンバルに回転可能に支持された第2の支持部材と、第2の支持部材に支持された第2のジンバルと、第2のジンバルに回転可能に支持されたセンサ部と、を備える。
第2の支持部材は、伸縮自在でよい。
第1の支持部材は、伸縮自在でよい。
センサ部は、生体に関する情報を検出してよい。
一態様において、飛行体は、生体を探索する飛行体であって、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、生体情報の検出に関する処理を行う処理部と、画像を撮像する撮像部と、を備え、処理部は、撮像部に調査領域の画像を撮像させ、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御し、調査領域に存在する調査対象に向けて支持部材を伸長させ、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させる。
処理部は、生体情報として生体が存在する旨の情報が検出された場合、飛行体の位置情報を取得し、飛行体の位置情報をサーバ装置に送信してよい。
飛行体は、電波を発信する発信機を収容する収容部を備えてよい。処理部は、生体情報として生体が存在する旨の情報が検出された場合、収容部から発信機を投下させてよい。
処理部は、飛行体の制御を指示する制御装置から、発信機を投下するための投下指示情報を取得し、投下指示情報に基づいて、発信機を投下させてよい。
処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在しない場合、支持部材を伸長させてよい。
処理部は、飛行体の制御を指示する制御装置から、支持部材の伸長を指示するための伸長指示情報を取得し、伸長指示情報に基づいて、支持部材を伸長させてよい。
処理部は、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて飛行体を移動させてよい。
処理部は、飛行体の制御を指示する制御装置から、飛行体の移動を指示するための移動指示情報を取得し、移動指示情報に基づいて、障害物を避けて飛行体を移動させてよい。
処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在する場合、ジンバルを制御して支持部材の向きを変更してよい。
処理部は、飛行体の制御を指示する制御装置から、支持部材の向きを指示するための向き指示情報を取得し、向き指示情報に基づいて、支持部材の向きを変更してよい。
センサ部は、複数のセンサを含んでよい。処理部は、飛行体の制御を指示する制御装置から、センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得し、オンオフ指示情報に基づいて、センサ部に含まれる少なくとも1つのセンサをオン又はオフしてよい。
センサ条件は、支持部材の一端から回転翼の端部に対応する支持部材の第1の点までの長さと、支持部材の一端から他端までの長さと、調査対象が存在する調査空間に挿入される支持部材の他端から第2の点までの長さと、に基づいて決定されてよい。
一態様において、生体探索システムは、生体を探索する飛行体及び表示装置を備える生体探索システムであって、飛行体は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能に支持するジンバルと、生体の探索に関する処理を行う処理部と、画像を撮像する撮像部と、を備え、処理部は、撮像部に調査領域の画像を撮像させ、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御し、調査領域に存在する調査対象に向けて支持部材を伸長させ、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させ、生体情報を送信し、表示装置は、生体情報を受信し、生体情報に基づいて表示する。
飛行体のセンサ部は、生体の周辺に存在する障害物までの距離を検出してよい。飛行体の処理部は、距離が所定距離未満である場合、距離に基づく第1の通知情報を表示装置へ送信してよい。表示装置は、第1の通知情報を受信し、第1の通知情報に基づいて表示してよい。
飛行体の処理部は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たす場合、センサ条件を満たすことに基づく第2の通知情報を表示装置へ送信してよい。表示装置は、第2の通知情報を受信し、第2の通知情報に基づいて表示してよい。
一態様において、生体探索方法は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体における生体探索方法であって、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を有する。
生体探索方法は、生体情報として生体が存在する旨の情報が検出された場合、飛行体の位置情報を取得するステップと、飛行体の位置情報をサーバ装置に送信するステップと、を更に含んでよい。
飛行体は、電波を発信する発信機を収容する収容部を備えてよい。生体情報として生体が存在する旨の情報が検出された場合、収容部から発信機を投下させるステップ、を更に含んでよい。
生体探索方法は、飛行体の制御を指示する制御装置から、発信機を投下するための投下指示情報を取得するステップ、を更に含んでよい。発信機を投下させるステップは、投下指示情報に基づいて、発信機を投下させるステップを含んでよい。
支持部材を伸長させるステップは、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在しない場合、支持部材を伸長させるステップを含んでよい。
生体探索方法は、飛行体の制御を指示する制御装置から、支持部材の伸長を指示するための伸長指示情報を取得するステップ、を更に含んでよい。支持部材を伸長させるステップは、伸長指示情報に基づいて、支持部材を伸長させてよい。
飛行体の飛行を制御するステップは、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて飛行体を移動させるステップを含んでよい。
生体探索方法は、飛行体の制御を指示する制御装置から、飛行体の移動を指示するための移動指示情報を取得するステップ、を更に含んでよい。飛行体の飛行を制御するステップは、移動指示情報に基づいて、障害物を避けて飛行体を移動させるステップを含んでよい。
生体探索方法は、飛行体の現在位置において、支持部材を伸長させた場合にセンサ部により生体情報の検出が可能か否かを示すセンサ条件を満たし、支持部材の伸長位置に障害物が存在する場合、ジンバルを制御して支持部材の向きを変更するステップ、を更に含んでよい。
生体探索方法は、飛行体の制御を指示する制御装置から、支持部材の向きを指示するための向き指示情報を取得するステップ、を更に含んでよい。支持部材の向きを変更するステップは、向き指示情報に基づいて、支持部材の向きを変更するステップを含んでよい。
センサ部は、複数のセンサを含んでよい。生体探索方法は、飛行体の制御を指示する制御装置から、センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得するステップと、オンオフ指示情報に基づいて、センサ部に含まれる少なくとも1つのセンサをオン又はオフするステップと、を更に含んでよい。
センサ条件は、支持部材の一端から回転翼の端部に対応する支持部材の第1の点までの長さと、支持部材の一端から他端までの長さと、調査対象が存在する調査空間に挿入される支持部材の他端から第2の点までの長さと、に基づいて決定されてよい。
一態様において、プログラムは、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体に、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を実行させるためのプログラムである。
一態様において、記録媒体は、生体に関する生体情報を検出するセンサ部と、センサ部を支持し、伸縮自在な支持部材と、支持部材を回転可能にジンバルと、を備え、生体を探索する飛行体に、画像を撮像する撮像部に調査領域の画像を撮像させるステップと、調査領域に向かって飛行体を接近させるよう、飛行体の飛行を制御するステップと、調査領域に存在する調査対象に向けて支持部材を伸長させるステップと、伸長された支持部材に支持されたジンバルに支持されたセンサ部に、生体情報を検出させるステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
第1の実施形態における生体探索システムの第1構成例を示す模式図 生体探索システムの第2構成例を示す模式図 無人航空機のハードウェア構成の一例を示すブロック図 無人航空機の一例を示す外観図 第2ポールが伸長されていない状態での無人航空機の構成例を示す概略図 第2ポールが伸長された状態での無人航空機の構成例を示す概略図 センサ部を先端側から見た概略図 収容ボックスの構成例を示す概略斜視図 端末のハードウェア構成の一例を示すブロック図 サーバ装置のハードウェア構成の一例を示すブロック図 無人航空機に係る各種長さを説明するための図 操作地域の一例を示す図 端末における表示部の表示例を示す図 障害物に囲まれた調査対象の第1例を示す図 表示部による障害物の周辺の第1表示例を示す図 障害物に囲まれた調査対象の第2例を示す図 表示部による障害物の周辺の第2表示例を示す図 障害物に囲まれた調査対象の第3例を示す図 表示部による障害物の周辺の第3表示例を示す図 障害物に囲まれた調査対象の第4例を示す図 表示部による障害物の周辺の第4表示例を示す図 無人航空機による発信機の第1投下例を示す図 無人航空機により発信機を第1投下例に従って投下する場合の表示部の表示例を示す図 無人航空機による発信機の第2投下例を示す図 無人航空機により発信機を第2投下例に従って投下する場合の表示部の表示例を示す図 左右移動が不要な場合の無人航空機と障害物との位置関係の一例を示す模式図 図25Aの状態から無人航空機が調査対象へ接近した場合の無人航空機と障害物との位置関係の一例を示す模式図 左右移動が必要な場合の無人航空機と障害物との位置関係の一例を示す模式図 無人航空機が障害物を避けて移動することを説明する図 第2ポールの向きを変更することを説明する図 センサ部により生体情報を検出することを説明する図 第1ジンバルに対する第2ポールの向きを考慮した基準長さを説明するための図 生体探索システムの動作例を示すシーケンス図 生体探索システムの動作例を示すシーケンス図(図28の続き)
以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。
以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を主に例示する。本明細書に添付する図面では、無人航空機を「UAV」とも表記する。生体探索方法は、無人航空機における動作が規定されたものである。記録媒体は、プログラム(例えば、無人航空機に各種の処理を実行させるためのプログラム)が記録されたものである。
(第1の実施形態)
図1Aは、第1の実施形態における生体探索システム10の第1構成例を示す模式図である。生体探索システム10は、無人航空機100、送信機50、端末80、及びサーバ装置40を備える。無人航空機100、送信機50、端末80、及びサーバ装置40は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1Aでは、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。送信機50は、制御装置の一例である。端末80は、制御装置の一例である。
図1Bは、第1の実施形態における生体探索システム10の第2構成例を示す模式図である。図1Bでは、端末80がPC(Personal Computer)であることを例示している。図1A及び図1Bのいずれであっても、端末80が有する機能は同じでよい。
図2は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、第1ジンバル200と、第2ジンバル202と、第1ポール204、第2ポール206、回転翼機構210と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、第1超音波センサ280と、レーザー測定器290と、センサ部310、及び収容ボックス320を含む構成である。
センサ部310は、複数のセンサを含んでよい。センサ部310は、例えば、二酸化炭素センサ(CO2センサ)311、可視光LED(Light Emitting Diode)312、赤外線LED313、第2超音波センサ314、赤外線センサ315、撮像部316、及びマイクロホン317を含んでよい。なお、センサ部310におけるこれらの構成部の一部は、省略されてよい。収容ボックス320は、開閉部321及びカメラ322を備える。
UAV制御部110は、処理部の一例である。第1ジンバル200は、ジンバルの一例である。第1ポール204は、第1の支持部材の一例である。第2ポール206は、第2の支持部材及び支持部材の一例である。
UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御してよい。UAV制御部110は、UAV制御部110により生成した空撮経路に従って、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御してよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御してよい。送信機50から受信した命令は、例えば、送信機50に対する操縦者の操縦によって得られた前後・上下・左右・方向への移動の命令、回転、上昇、加工の命令、等を含む。
UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよいUAV制御部110は、第1超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。
UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。
UAV制御部110は、撮像部316が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、地図データベース(3次元地図データベース又は2次元地図データベース)を参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。
UAV制御部110は、撮像部316及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部316及び撮像部230の画角を示す画角情報を撮像部316及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部316及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部316の撮像方向を示す情報として、第1ジンバル200及び第2ジンバル202から撮像部316の姿勢の状態を示す姿勢情報を取得してよい。撮像部316の姿勢情報は、第1ジンバル200のロール軸、ピッチ軸及びヨー軸の基準回転角度からの回転角度と、第2ジンバル202のロール軸、ピッチ軸及びヨー軸の基準回転角度からの回転角度と、を合わせた(例えば合成した、合算した)情報でよい。
UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部316及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部316が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。
UAV制御部110は、第1ジンバル200、第2ジンバル202、第1ポール204、第2ポール206、回転翼機構210、撮像部230、撮像部316を含むセンサ部310及び収容ボックス320を制御する。UAV制御部110は、撮像部316の撮像方向又は画角を変更することによって、撮像部316の撮像範囲を制御してよい。UAV制御部110は、第1ジンバル200及び第2ジンバル202の少なくとも一方の回転機構を制御することで、第2ジンバル202に支持されている撮像部316の撮像範囲を制御してよい。
撮像範囲とは、撮像部316又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でもよい。撮像範囲は、撮像部316又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部316及び撮像部230の撮像方向は、撮像部316及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部316の撮像方向は、無人航空機100の機首の方位と、撮像部316の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。
UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。
UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木、瓦礫等の障害物、等でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。
UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部316の撮像範囲を制御してよい。UAV制御部110は、撮像部316が備えるズームレンズを制御することで、撮像部316の画角を制御してよい。UAV制御部110は、撮像部316のデジタルズーム機能を利用して、デジタルズームにより、撮像部316の画角を制御してよい。
通信インタフェース150は、例えば、送信機50、端末80、及びサーバ装置40と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してもよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報を、端末80やサーバ装置40に送信してよい。空撮画像は、動画であっても静止画であってもよい。通信インタフェース150は、センサ部310により検出された検出情報(例えば生体に関する生体情報)を、端末80やサーバ装置40に送信してよい。
メモリ160は、UAV制御部110が、第1ジンバル200、第2ジンバル202、第1ポール204、第2ポール206、回転翼機構210、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、第1超音波センサ280、レーザー測定器290、センサ部310、及び収容ボックス320を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、UAV本体102(図3参照)から無人航空機100から取り外し可能であってもよい。
ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、UAV本体102から無人航空機100から取り外し可能であってもよい。ストレージ170は、例えば、空撮画像、空撮画像に関する付加情報、センサ部310により検出された生体情報、を記録してよい。
回転翼機構210は、複数の回転翼211と、複数の回転翼211を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでもよいし、その他の数でもよい。また、無人航空機100は、回転翼を有さない固定翼機でもよい。
撮像部316は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラ(メインカメラ)でよい。撮像部316は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部316の撮像により得られた画像データ(例えば空撮画像)は、撮像部316が有するメモリ、又はストレージ170に格納されてよい。撮像部316により複数の箇所で撮像範囲の一部を重複して撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。
撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラ(サブカメラ)でよい。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えてよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部316で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。
磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。
気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。
第1超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(例えば、生体、障害物)までの距離を示してよい。
レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。
図3は、無人航空機100の一例を示す外観図である。
第1ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に、第2ポール206を回転可能に支持してよい。第1ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に第2ポール206を回転させることで、第2ポール206の向きを変更してよい。
ヨー軸、ピッチ軸、及びロール軸は、以下のように定められてよい。例えば、水平方向(地面と平行な方向)にロール軸が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸が定められ、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が定められる。
第2ジンバル202は、ヨー軸、ピッチ軸、及びロール軸を中心に、センサ部310を回転可能に支持してよい。第2ジンバル202は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心にセンサ部310を回転させることで、センサ部310の向きを変更してよい。
UAV本体102には、回転翼機構210の回転翼211、撮像部230、第1ポール204、収容ボックス320、等が取り付けられている。UAV本体102は、本体の一例である。
第1ポール204は、ヨー軸(z)に沿って配置されてよい。第1ポール204は、伸縮自在でもよいし、伸縮自在でなくてもよい。第1ポール204は、UAV制御部110の制御により、伸縮し、長さが変化してよい。第1ポール204は、通常時には、伸長されていない状態でよい。第1ポール204が伸長された場合の長さは、例えば1m以下である。
第1ジンバル200は、第1ポール204に接続され支持される。第1ジンバル200は、UAV制御部110の制御により、第2ポール206の角度、つまり第2ポール206が延びる方向(第2ポール206の向き)を調整する。
第2ポール206は、第1ジンバル200に接続され支持される。第2ポール206は、第1ジンバル200により角度が調整され、つまり第2ポール206の延びる方向が調整される。第2ポール206は、伸縮自在である。第1ポール204は、UAV制御部110の制御により、伸縮し、長さが変化してよい。第2ポール206は、通常時には、伸長されていない状態でよい。第2ポール206が伸長された場合の長さは、例えば1m〜2mである。第2ポール206は、通常時には、基準方向(図3ではロール軸(x)に沿う方向)に沿って延びていてよい。この基準方向は、水平方向(例えばロール軸(x)又はピッチ軸(y))に沿う方向である。
第2ジンバル202は、第2ポール206に接続され支持される。第2ジンバル202は、第2ジンバル202よりも先端側に取り付けられたセンサ部310の角度(向き)を調整する。
このように、無人航空機100は、2つのジンバル(第1ジンバル200、第2ジンバル202)を備えることで、先端部に設けられたセンサ部310の位置調整を細かく実施できる。無人航空機100は、例えば、第1ジンバル200に対する第2ポール206の角度を調整することで、調査対象の周辺に障害物が存在する場合でも、障害物の隙間を通過させて第2ポール206を伸ばし、センサ部310を障害物の隙間の奥に進入させることができる。無人航空機100は、例えば、第2ジンバル202に対するセンサ部310の角度を調整することで、障害物の隙間の奥の空間において、センサ部310の向きの調整を柔軟に行うことができ、調査対象としての生体が不動である場合でも、生体に関する情報(生体情報)を所望の方向から検出(測定)することができる。よって、無人航空機100は、障害物が多数存在する場合や生体が動けない場合でも、生体情報を好適に検出できる可能性を高くできる。
また、第2ジンバル202が伸縮自在である場合には、無人航空機100は、障害物の隙間において第2ポール206を伸長させることができ、第2ポールより更に先端に位置するセンサ部310が、調査対象としての生体に接近することを補助できる。
また、第1ジンバル200が伸縮自在である場合には、無人航空機100は、例えば障害物が多数あったり飛行環境が劣悪であったりして下降することが困難である場合でも、第1ジンバル200を伸長させることで、センサ部310が位置する高度を下げることができる。よって、重力方向における第2ポール206やセンサ部310の位置調整の自由度が向上し、無人航空機100は、様々な災害状況に対応して、生体の探索をし易くできる。
図4は、第2ポール206が伸長されていない状態での無人航空機100の構成例を示す概略図である。図5は、第2ポール206が伸長された状態での無人航空機100の構成例を示す概略図である。図6は、センサ部310を先端側から見た概略図である。図6では、センサ部310のイメージセンサ316aに対向する視点からセンサ部310を見ている。
二酸化炭素センサ311は、二酸化炭素センサ311周辺の二酸化炭素(CO2)のガス濃度を測定する。可視光LED312は、可視光領域の波長を有する可視光(例えば白色光)を出射する。赤外線LED313は、赤外光領域の波長を有する赤外光を出射する。可視光及び赤外光は、調査対象に対して出射され、調査対象が照明されてよい。
第2超音波センサ314は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、第2超音波センサ314から物体(例えば、生体、障害物)までの距離を示してよい。
撮像部316は、イメージセンサ316aを有し、画像を撮像する。イメージセンサ316aは、可視光に対する感度を有する。イメージセンサ316aは、赤外光に対する感度を有してよい。撮像部316は、UAV制御部110の制御により、可視光LED312により可視光が出射されて被写体が照明されている期間に、被写体を撮像してよい。撮像部316は、UAV制御部110の制御により、赤外光LED313により赤外光が被写体に向けて出射されている期間に、被写体を撮像してよい。
マイクロホン317は、マイクロホン317周囲に発生した音を収音する。
図6では、センサ部310において、イメージセンサ316aが中央に配置され、イメージセンサ316aの周囲に可視光LED312及び赤外線LED313が配置される。イメージセンサ316aは、略円形状に形成されてもよいし、他の形状(例えば矩形状)に形成されてもよい。可視光LED312及び赤外線LED313は、イメージセンサ316aの周囲に略円形状に形成されてもよいし、他の形状(例えば矩形状)に形成されてもよい。可視光LED312及び赤外線LED313は、複数設けられ、それぞれの可視光LED312及び赤外線LED313が交互に配置されてよい。なお、可視光LED312及び赤外線LED313が交互に配置されなくてもよい。
図4に示すように、第2ポール206が伸長されていない非伸長状態であると、水平方向においてUAV本体102から第2ポール206が突出する部分が短くなり、又はUAV本体102から第2ポール206が突出しない。そのため、無人航空機100は、飛行中に第2ポール206が他の物体に衝突等することを意識する必要が低くなり、安全な飛行をし易くなる。
図5に示すように、第2ポール206が伸長された伸長状態であると、水平方向においてUAV本体102から第2ポール206が突出する部分が長くなる。そのため、無人航空機100は、伸長された第2ポール206よりも先端側に位置するセンサ部310と、UAV本体102や回転翼211と、の距離を長くすることができる。この場合、無人航空機100は、例えば瓦礫等に包囲された空間であっても、センサ部310を用いた各種測定をし易くなる。
また、センサ部310に含まれる各種センサは、全てが同時に動作する必要はなく、一部がオフにされたり、他の一部がオンにされたりしてよい。例えば、障害物(例えば瓦礫)に埋まっている調査対象のデータを検出しようとする場合には、まず、撮像部316により画像を撮像し、この画像を端末80の表示部88に表示させてよい。つまり、ユーザは、目視で画像中に人等の生体が存在するかどうかを確認してよい。得られた画像において光量が不足している場合には、可視光LED312を用いて調査対象を照明し、可視画像を撮像してよい。また、赤外光LED313を用いて調査対象を照明し、赤外画像を撮像してよい。また、画像による確認が十分に行えない場合には、センサ部310は、マイクロホン317をオンにして音声データを収音したり、二酸化炭素センサ311により二酸化炭素の量を検出したりしてよい。順に各センサの電源がオンにされる場合、無人航空機100は、省電力化を図れる。なお、センサ部310の各種センサを全てオンにし、同時に動作させてもよい。この場合、無人航空機100は、短時間で調査対象のデータ(生体情報)を取得できる。
また、図4及び図5では、第1超音波センサ280は、UAV本体102の前方に取り付けられている。第1超音波センサ280は、UAV本体102の前端(つまり、無人航空機100の前端、無人航空機100が備える前方の回転翼211の前端)から物体(例えば調査対象の周囲の障害物)までの距離を検出する。
図7は、収容ボックス320の構成例を示す概略斜視図である。
収容ボックス320は、1つ以上の発信機400(例えば小型発信機)を搭載し、収容する。収容ボックス320は、1つ以上の開閉部321(例えば開閉扉)及びカメラ322を有する。
開閉部321は、通常時には閉じられている。開閉部321は、例えばUAV制御部110の制御により、開かれてよい。例えば、UAV制御部110は、GPS受信機240を介して取得された位置情報が所定の位置を示す場合に、開閉部321を開いてよい。UAV制御部110は、通信インタフェース150を介して取得された端末80の操作部83の操作情報(開指示情報)に基づいて、開閉部321を開いてよい。開閉部321が開かれると、収容ボックス320に収容された発信機400が開閉部321を通過し、投下される。無人航空機100は、発信機400を投下することで、発信機が投下された位置をマーキングすることができる。例えば、ユーザが発信機400の電波を捕捉することで、発信機400の投下位置の周辺に存在する生体を発見し易くなる。なお、ユーザは、生体を探索する人(例えば災害現場や事故現場で生体の探索や救助を行う救助隊員)や生体の探索を支援する人(例えばセンタに待機して救助隊員と連携する人)、その他の人でよい。
カメラ322は、例えば、収容ボックス320の下部に設けられ、収容ボックス320の下方の画像を撮像する。カメラ322は、例えば、収容ボックス320から発信機400を投下する際に、発信機400の投下位置を確認するために用いられる。カメラ322により画像を撮像することで、無人航空機100は、投下された発信機400が生体に落下することを抑制可能である。カメラ322により撮像された画像は、端末80へ送られ、表示されてよい。
発信機400は、電波を発信する。発信された電波は、例えば、ユーザが所持する端末80に受信されてよい。この場合、ユーザは、このユーザが所持する端末80による発信機400からの電波の受信状況を確認することで、発信機400が存在するか否か、つまり生体が存在するかを判定できる。よって、発信機400は、ユーザによる災害救助を支援できる。
発信機400は、自機を識別するための自機に固有の識別情報を含む信号を発信してよい。発信機400が複数存在する場合、発信機400の識別情報はそれぞれ異なる。そのため、収容ボックス320から複数の発信機400が投下された場合でも、端末80により受信した信号に含まれる識別情報によって、どの発信機400が発する信号かが識別可能である。
発信機400は、発信機400の各部へ電力を供給するためのバッテリを有する。バッテリは、例えば発信機400が少なくとも48時間にわたって稼働することが可能な容量を有する。これにより、発信機400は、48時間以上連続的に電波を発信し続けることができ、発信機400の近くに存在する生存者の発見をし易くできる。
図8は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備えてよい。端末80は、ユーザに所持され得る。端末80とともに、送信機50が、ユーザに所持されてもよい。
端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
端末制御部81は、通信部85を介して、無人航空機100サーバ装置や送信機50からのデータや空撮画像や情報(例えば生体情報)を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してよい。端末制御部81は、メモリ87又はストレージ89に保持されたデータや空撮画像や情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100やサーバ装置や送信機50へ、データや情報を送信してよい。端末制御部81は、データや情報や空撮画像を表示部88に送り、このデータや情報や空撮画像に基づく表示情報を表示部88に表示させてよい。
端末制御部81は、生体の探索を支援するためのアプリケーション(生体探索支援アプリケーション)を実行してよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。
操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100やサーバ装置や送信機50へ送信されてよい。
通信部85は、各種の無線通信方式により、無人航空機100やサーバ装置40や送信機50との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してもよい。
メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87には、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータや空撮画像や生体情報を表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。
ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100やサーバ装置40や送信機50から取得された空撮画像や生体情報を保持してよい。
送信機50は、端末80と同様の構成部を有するので、詳細な説明については省略する。送信機50は、制御部、操作部、通信部、メモリ、等を有する。操作部は、例えば、無人航空機100の飛行の制御を指示するためのコントロールスティックでよい。送信機50は、表示部を有してもよい。送信機50は、端末80と同様の機能を有し、端末80が省略されてもよい。端末80は、送信機50と同様の機能を有し、送信機50が省略されてもよい。
図9は、サーバ装置40のハードウェア構成の一例を示すブロック図である。サーバ装置40は、サーバ制御部41、通信部45、メモリ47及びストレージ49を備えてよい。サーバ装置40は、例えば災害救助を行うためのセンタに設置されてよい。センタには、モニタが備えられ、サーバ制御部41の制御により、サーバ制御部41により処理した各種情報が表示されてよい。
サーバ制御部41は、例えばCPU、MPU又はDSPを用いて構成される。サーバ制御部41は、サーバ装置40の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
サーバ制御部41は、通信部45を介して、無人航空機100や送信機50や端末80からのデータや空撮画像や情報(例えば生体情報)を取得してよい。サーバ制御部41は、メモリ47又はストレージ49に保持されたデータや空撮画像や情報を取得してよい。サーバ制御部41は、通信部45を介して、無人航空機100や送信機50や端末80へ、データや情報を送信してよい。
サーバ制御部41は、生体の探索を支援するためのアプリケーション(生体探索支援アプリケーション)を実行してよい。サーバ制御部41は、アプリケーションで用いられる各種のデータを生成してよい。
通信部45は、各種の無線通信方式により、無人航空機100や送信機50や端末80との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部45は、任意の有線通信方式により有線通信してもよい。
メモリ47は、例えばサーバ装置40の動作を規定するプログラムや設定値のデータが格納されたROMと、サーバ制御部41の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ47には、ROM及びRAM以外のメモリが含まれてよい。メモリ47は、サーバ装置40の内部に設けられてよい。メモリ47は、サーバ装置40から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
ストレージ49は、各種データ、情報を蓄積し、保持する。ストレージ49は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ49は、サーバ装置40の内部に設けられてよい。ストレージ89は、サーバ装置40から取り外し可能に設けられてよい。サーバ装置40は、無人航空機100や送信機50や端末80から取得された空撮画像や生体情報を保持してよい。
次に、無人航空機100に係る各種長さについて説明する。
図10は、無人航空機100に係る各種長さを説明するための図である。図10では、無人航空機100を無人航空機100の真下から見ている。
長さL1は、第2ポール206の全体の長さ(全長)を示し、「L_Total」とも記載する。長さL2は、第1ジンバル200の中心部c1(言い換えると第2ポール206の一端)から前方(図10では右方)の回転翼211の端部までの距離を示し、「L_front」とも記載する。つまり長さL2は、無人航空機100の前後方向の長さの略半分を示してよい。長さL3は、センサ部310を動作させるために、調査対象に進入した場合(調査対象の周囲の障害物の隙間に進入した場合)の進入位置p1から第2ジンバル202(第2ジンバル202の中心部)までの最短距離を示し、「L_min」とも記載する。言い換えると、センサ部310が生体情報を検出可能となるために、調査対象が存在する空間(調査空間ともいう)にセンサ部310が最低限進入するべき長さである。第2ポール206のうち、調査空間内に長さL3に相当する部分が進入すれば、センサ部310が好適に動作し、生体情報の検出が可能となる。L_minは、例えば、cmオーダーの長さでよく、10cm、20cm程度でよい。
長さL2は、第2ポール206の一端から回転翼211の端部に対応する第2ポール206の第1の点までの長さの一例である。長さL1は、第2ポール206の一端から他端までの長さの一例である。長さL3は、調査対象が存在する調査空間に挿入される第2ポール206の他端から第2の点までの長さの一例である。
なお、長さL1〜L3は、いずれも固定値である。長さL3は、センサ部310における各種センサによる検出可能範囲の大きさに依存する。
調査空間内に第2ポール206が長さL3以上にわたって進入しているか否かは、センサ部310を好適に使用するための条件となる。そのため、本実施形態では、この条件を「センサ条件」とも称する。したがって、調査空間内に第2ポール206が長さL3以上進入している場合、センサ条件を満たしている。調査空間内に第2ポール206が長さL3未満進入している場合、又は、調査空間内に第2ポール206が進入していない場合、センサ条件を満たしていない。
ここで、センサ条件を満たすか満たさないかの境界である、障害物の隙間の奥に存在する調査空間内に第2ポール206がちょうど長さL3で進入した場合の、無人航空機100の前端(前方の回転翼211の前端)と障害物との距離を、基準長さdとする。調査空間内に、第2ポール206が長さL3以上の長さで進入した場合、第2ポール206がちょうど長さL3で進入した場合と比較すると、無人航空機100は、より前方に位置する。そのため、無人航空機100の前端と障害物との距離は、基準長さdよりも短くなる。したがって、無人航空機100の前端と障害物との距離が、基準長さdよりも短くなると、センサ条件を満たすことになる。一方、無人航空機100の前端と障害物との距離が、長さdよりも長くなると、センサ条件を満たさないことになる。
基準長さdの一例として、第2ポール206が基準方向に延びている場合の基準長さを、基準長さd0とする(図25B、図26B、図26C参照)。基準長さdの一例として、第2ポール206が基準方向から変更された方向に延びている場合の基準長さを、基準長さd1とする(図26D参照)。
UAV制御部110は、センサ部310により生体情報を検出する際、センサ条件を満たしているか否かを判定してよい。UAV制御部110は、第2ポール206の向きが変更された場合、センサ条件を満たしているか否かを判定してよい。UAV制御部110は、第2ポール206の向きが変更される度に、センサ条件を満たしているか否かを判定してよい。
次に、生体探索システム10による無人航空機100、送信機50及び端末80を用いた生体の探索例について説明する。
生体探索システム10は、地震等により壊れた建物の残骸に埋まっている生存者等の生体を探索する。この場合、ユーザは、送信機50等を用いて、安全な場所において無人航空機100を飛行させ、無人航空機100が捜索地域SR1(調査領域)において生体を探索し、無人航空機100により得られた生体情報を基に、生体の探索を行ってよい。無人航空機100とユーザが所持する送信機50や端末80との間では、無線通信等によりデータ通信される。
無人航空機100では、UAV制御部110は、生体の探索に関する機能を有し、生体の探索に関する処理を行う。送信機50は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。端末80では、端末制御部81は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。サーバ装置40では、サーバ制御部41は、生体の探索の支援に関する機能を有し、生体の探索の支援に関する処理を行う。
図11は、捜索地域A1の一例を示す図である。
無人航空機100は、捜索地域SR1(調査領域の一例)の領域内を飛行する。UAV制御部110は、送信機50からの操作情報(飛行制御の指示情報)を取得し、操作情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。つまり、無人航空機100は、ユーザ操作で(手動で)飛行操作されてよい。UAV制御部110は、メモリ160等から飛行経路情報を取得し、飛行経路情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。UAV制御部110は、センサ部310により検出された検出情報を取得し、検出情報に基づいて無人航空機100を捜索地域SR1内で移動させてよい。つまり、無人航空機100は、ユーザ操作無しで(自動で)飛行制御されてよい。
例えば、UAV制御部110は、撮像部316により撮像された画像において、画像認識等により画像内に調査対象(例えば生体)が認識された場合、無人航空機100を、認識された調査対象を含む所定範囲内で移動させてよく、又は認識された調査対象に向かって移動させてよい。ここでの調査対象は、特定の物体(生体等)でもよいし、特定の場所(生存者がいそうな場所等)でもよい。なお、生体は、人体以外(例えば犬、猫などの動物)でもよい。
UAV制御部110は、二酸化炭素センサ311により生体の存在を示す閾値th1以上の二酸化炭素が検出された場合、無人航空機100を、二酸化炭素が検出された位置を含む所定範囲内で移動させてよいし、二酸化炭素が検出された位置に向かって移動させてよい。
UAV制御部110は、赤外線センサ315により生体の温度(例えば36〜37℃程度の温度)を検出した場合、無人航空機100を、生体の温度が検出された位置を含む所定範囲内で移動させてよいし、生体の温度が検出された位置に向かって移動させてよい。
UAV制御部110は、マイクロホン317により何らかの音が検出された場合、無人航空機100を、音が検出された位置を含む所定範囲内で移動させてよいし、音が検出された位置に向かって移動させてよい。
UAV制御部110は、マイクロホン317により所定の音(例えば人の発する声、動物の鳴き声)が検出された場合、無人航空機100を、所定の音が検出された位置を含む所定範囲内で移動させてよいし、所定の音が検出された位置に向かって移動させてよい。
図12は、端末80における表示部88の表示例を示す図である。端末80は、例えば、PC、スマートフォン、又は送信機50でよい。
図12では、表示部88は、ライブビュー画像g11と、二酸化炭素センサ311による二酸化炭素の検出値(Readout)と、マイクロホン317による音の検出値(Readout)と、を含んで表示する。これらの表示情報は、表示部88により表示される情報の一例であり、例えばセンサ部310により検出された他の検出値が表示されてもよい。端末80では、端末制御部81は、ライブビュー画像g11や二酸化炭素の検出値や音の検出値の情報を、通信部85を介して無人航空機100から取得してよい。ライブビュー画像g11は、可視光LED312及び赤外線LED313の少なくとも1つが発光した状態で撮像部316により撮像された画像でもよいし、可視光LED312及び赤外線LED313の双方が発光していない状態で撮像部316により撮像された画像でもよい。
図13は、障害物BCに囲まれた調査対象SROの第1例を示す図である。障害物BCは、例えば地震により倒壊した建物、家具、の一部でよく、瓦礫でもよい。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、調査対象SROに近づいてきている。
図14は、表示部88による障害物BCの周辺の第1表示例を示す図である。図14に示されたライブビュー画像g11は、障害物BCに近づく図13の無人航空機100の撮像部316により撮像された画像である。この時点では、センサ部310は、電源オン(動作可能な状態)にされていない。そのため、センサ部310における各センサにより各種情報が検出されていない。したがって、端末80の端末制御部81は、センサ部310に含まれる二酸化炭素センサ311による検出値やマイクロホン317による検出値を取得しておらず、センサの検出結果としての検出値を表示部88に表示させていない。
なお、端末制御部81は、操作部83を介してセンサ検出値の表示領域の入力(例えば押下)を検出すると、通信部85を介して、入力が検出されたセンサに対応するセンサのオンオフを指示するためのオンオフ指示情報を、無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、通信インタフェース150を介してオンオフ指示情報を取得し、オンオフ指示情報に基づいて、該当するセンサのオンオフの状態を切り替えてよい。センサ検出値の表示領域は、例えば、二酸化炭素センサ311による二酸化炭素の検出値の表示領域g12や、マイクロホン317による音声信号の検出値の表示領域g13を含んでよい。つまり、表示領域g12が押下された場合、二酸化炭素センサ311がオンやオフにされてよい。表示領域g13が押下された場合、マイクロホン317がオンやオフにされてよい。
無人航空機100は、センサ部310に含まれる各種センサのオンオフの状態を切り替えることで、非使用時にオン状態が継続されることを抑制でき、センサ部310の消費電力を低減できる。また、端末80は、操作部83を介して各種センサのオンオフを指示できるので、直感的に容易に各種センサのオンオフの状態を切り替えできる。
なお、表示部88におけるライブビュー画像g11の領域には、可視光LED312の点灯/消灯の状態を示すLEDボタンB1と、赤外線LED313の点灯/消灯の状態を示すIRLEDボタンB2と、が存在する。例えば、可視光LED312及び赤外線LED313の点灯状態は、実線で示され、可視光LED312及び赤外線LED313の消灯状態は、点線で示される。図14では、LEDボタンB1及びIRLEDボタンB2が点線で示されており、可視光LED312及び赤外線LED313が消灯されている状態であることを示す。
なお、端末制御部81は、操作部83を介してLEDボタンB1の入力(例えば押下)を検出すると、LED312の点灯状態及び消灯状態を切り替えてよい。同様に、端末制御部81は、操作部83を介してIRLEDボタンB2の入力(例えば押下)を検出すると、IRLED313の点灯状態及び消灯状態を切り替えてよい。
ユーザは、端末80の表示部88を介して、ライブビュー画像g11により捜索地域SR1の状況(現場の状況)を確認する。無人航空機100は、上記の手動又は自動により移動して、調査対象SROに接近し、又は調査対象SROを取り囲む障害物BCに接近する。障害物BCへの接近時には、無人航空機100のUAV制御部110は、第2ポール206を、水平方向(ロール軸及びピッチ軸に平行な方向)に維持し、無人航空機100の前進方向にセンサ部310が向くように制御する。UAV制御部110は、例えば複数の障害物BCの隙間に向かって無人航空機100が接近するよう飛行を制御する。この結果、例えば、複数の障害物BCの隙間の奥に存在する調査対象SRO(例えば生体)に、無人航空機100が接近することになる。
図15は、障害物BCに囲まれた調査対象SROの第2例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図13の状態よりも調査対象SROに更に近づいてきている。
図16は、表示部88による障害物BCの周辺の第2表示例を示す図である。図16に示されたライブビュー画像g11は、図14の状態よりも更に調査対象SROに近づいた図15の無人航空機100の撮像部316により撮像された画像である。図16では、センサ部310に含まれる撮像部316が、障害物BCに包囲された内部の調査対象SROを確認できるように、撮像部316が調査対象SROを向くように調整されている。撮像部316の向きは、UAV制御部110により制御されてよい。
また、図16のタイミングでは、第1超音波センサ280が、電源オンされており、動作可能となっている。第1超音波センサ280は、第1超音波センサ280から(つまり無人航空機100から)調査対象SROや障害物BCまでの距離を測定する。端末80では、端末制御部81が、通信部85を介して、第1超音波センサ280による距離の測定結果を取得する。端末制御部81は、取得された距離の測定結果に基づいて、障害物BCが近くに存在することを示す障害物接近マークMK1(例えばMK11,MK12)を、表示部88に表示させてよい。障害物接近マークMK1は、例えば超音波が発信されていることを示すマークや、そのマークにより表現されてよい。
例えば、表示部88は、距離に応じて段階的に距離区分を分け、距離区分に対応する表示態様で、障害物接近マークMK1を表示してよい。ライブビュー画像g11を撮像する無人航空機100から障害物BCまでの距離は、前方及び左方において2m程度であり、右方において1m未満であってよい。例えば、上記距離が2m程度の場合には、障害物接近マークMK11(例えば斜線のハッチングを含むマーク、黄色のマーク)が表示されてよい。上記距離が1m程度の場合には、障害物接近マークMK1が障害物接近マークMK12(例えば黒塗りのマーク、赤色のマーク)で示されてよい。
表示態様は、例えば、障害物接近マークMK1の表示色、表示パターン(例えば点灯、点滅、)その他の表示対応により示されてよい。また、端末制御部81は、障害物接近マークMK1の表示とともに、又は障害物接近マークMK1の表示の代わりに、障害物BCの接近の情報を音声情報として音声出力してもよい。この場合も、端末制御部81は、距離区分に応じて、音声出力態様を変更してよい。また、端末制御部81は、障害物BCの接近の情報を、表示や音声出力する代わりに、その他の提示方法により提示してもよい。
このように、第1超音波センサ280は、調査対象SROの周囲に四方に存在する障害物BCとの距離を測定してよい。UAV制御部110は、第1超音波センサ280により測定された距離(測定距離)が閾値th2(安全が確保される安全距離)よりも小さい場合、端末80の表示部88にその旨を表示させてよい。この場合、UAV制御部110は、通信インタフェース150を介して、測定距離が安全距離よりも小さい旨(第1の通知情報の一例)を端末80へ送信してよい。端末制御部81は、通信部85を介して、測定距離が安全距離よりも小さい旨を取得し、測定距離が安全距離よりも小さい旨(例えば障害物接近マークMK1)を表示部88に表示させてよい。UAV制御部110は、手動又は自動で、障害物BCを避けて無人航空機100の位置を調整し、無人航空機100を調査対象SROに接近させてよい。この場合、ユーザが、測定距離が安全距離よりも小さい旨を端末80の表示部88による障害物接近マークMK1の表示により確認し、送信機50を操作することで、送信機50が、無人航空機100の飛行の制御を指示し、無人航空機100の位置の調整を指示してよい。なお、閾値th2(安全距離)は、基準長さdよりも長くてよい。
これにより、端末80は、障害物接近マークMK1を表示することで、無人航空機100に障害物BCが接近していることを知らせることができる。よって、ユーザは、表示部88の障害物接近マークを確認しながら、無人航空機100の飛行制御を指示するための操縦を慎重に行うことができる。
図17は、障害物BCに囲まれた調査対象SROの第3例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図15の状態よりも調査対象SROに更に近づいてきている。
図18は、表示部88による障害物BCの周辺の第3表示例を示す図である。図18に示されたライブビュー画像g11は、図16の状態よりも更に調査対象SROに近づいた図17の無人航空機100の撮像部316により撮像された画像である。図18では、センサ部310に含まれる撮像部316が、障害物BCに包囲された内部の調査対象SROを確認できるように、撮像部316が調査対象SROを向くように調整されている。撮像部316の向きは、UAV制御部110により調整されてよい。
図18では、表示部88が、ライブビュー画像g11に対してセンサ条件満足マークMK2を重ねて表示している。センサ条件満足マークMK2により、ライブビュー画像g11の表示領域の外縁が強調して表示(強調表示)されてよい。端末制御部81は、センサ条件を満たす場合、つまり第1超音波センサ280による障害物BCまでの測定距離が閾値th3よりも短い場合、このようなセンサ条件満足マークMK2を表示してよい。閾値th3は、上記の基準長さd0と一致してよい。センサ条件満足マークMK2は、例えば、ライブビュー画像g11の表示領域の外縁に示される太枠でよい。また、センサ条件満足マークMK2は、例えば、ライブビュー画像g11の表示領域の外縁に示される緑色の枠でよい。つまり、センサ条件満足マークMK2が、ライブビュー画像g11の注目を引くような表示態様(枠の太さ、枠の色、その他の表示態様)で表示されればよい。
測定距離が閾値th3よりも短い場合、センサ条件を満たし、測定距離が閾値th3以上である場合、センサ条件を満たさなくてよい。センサ条件を満足するとは、センサ部310により調査対象SROに関するデータを検出可能であることを指してよい。この場合、センサ部310における少なくとも1つのセンサにより調査対象SROに関するデータを検出可能であることを指してよい。また、センサ部310における電源オンされているセンサのうちの少なくとも1つにより調査対象SROに関するデータを検出可能であることを指してよい。
このように、ユーザは、表示部88に表示されたセンサ条件満足マークMK2を確認することで、第2ポール206を伸長することでセンサ部310によりデータ(生体情報))を検出可能であることを把握できる。したがって、無人航空機100は、この時点の位置から移動せずに、センサ部310により生体情報を検出可能である。つまり、無人航空機100及び生体探索システム10は、ユーザに対してセンサ部310による生体情報の検出が可能な状態であることを提示でき、ユーザは提示を参考にして生体探索の手順を進行できる。よって、無人航空機100及び生体探索システム10は、生体の探索効率を向上できる。
図19は、障害物BCに囲まれた調査対象SROの第4例を示す図である。障害物BCの周囲では、捜索地域SR1の領域内を飛行する無人航空機100が、図17の状態よりも調査対象SROに更に接近している。また、図19では、必要に応じて第2ポール206の向きが調整されて、障害物BCの隙間に挿入され、センサ部310が調査空間に進入している。
図20は、表示部88による障害物BCの周辺の第4表示例を示す図である。図20に示されたライブビュー画像g11は、図18の状態よりも更に調査対象SROに近づいた図19の無人航空機100の撮像部316により撮像された画像である。
図20では、センサ部310(例えば撮像部316のイメージセンサ316a)が、障害物BCに包囲された内部の調査対象SROに関する情報を検出できるように、センサ部310に含まれる各種センサ(例えば二酸化炭素センサ311、イメージセンサ316a、マイクロホン317)が調査対象SROを向くように調整されてよい。この場合、第2ポール206が障害物BCの隙間を調査対象SROに向かって挿入されるように、第1ジンバル200に対する第2ポール206の角度が調整されてよい。第2ポール206の角度は、UAV制御部110により調整されてよい。また、センサ部310が所望の方向を向くように、第2ジンバル202に対するセンサ部310の角度が調整されてよい。センサ部310の角度は、UAV制御部110により調整されてよい。
図20は、図18の状態よりも調査対象SROに近づいているので、センサ条件が満たされており、センサ部310による生体情報の検出が可能な状態が継続される。よって、表示部88は、ライブビュー画像g11とともにセンサ条件満足マークMK2を表示する。
また、図20では、LEDボタンB1が、実線で示されており、つまり点灯状態である。よって、調査対象SROがLED312により照明されている。そのため、障害物BCの隙間の奥に調査対象SROが位置し、調査対象SROの周囲に光量が少なく暗い場合でも、LED312により照明できる。よって、無人航空機100は、例えば、明るさを強化して撮像部316により画像を撮像できる。したがって、ユーザは、表示部88により表示されるライブビュー画像g11を見易くなり、調査対象SROの状態を視覚的に確認し易くなる。
また、図20では、センサ部310に含まれる各種センサによる検出値が、表示部88に表示される。図20の状態では、センサ条件を満たし、センサ部310に含まれる各種センサにより実際にデータが検出されている。よって、表示部88は、各種センサによる検出値、検出値に基づく情報を表示できる。したがって、ユーザは、可視光や赤外光で照明された調査対象SROのライブビュー画像g11や、各種センサによる検出値(例えば表示領域g12に示された二酸化炭素の検出値、表示領域g13に示された音声信号の検出値)を確認可能である。
図21は、無人航空機100による発信機400の第1投下例を示す図である。図21では、発信機400が、無人航空機100の収容ボックス320から障害物BCの隙間に投下されている。
UAV制御部110は、調査対象としての生体があると判定された場合、つまり得られた生体情報が生体を存在する旨の情報をであった場合、発信機400を投下させる。例えば、UAV制御部110は、撮像部316により撮像された画像に対する画像認識により、生体が存在すると判定してよい。UAV制御部110は、二酸化炭素センサ311により生体の存在を示す閾値th1以上の二酸化炭素が検出された場合、生体が存在すると判定してよい。UAV制御部110は、赤外線センサ315により生体の温度(例えば36〜37℃程度の温度)を検出した場合、生体が存在すると判定してよい。UAV制御部110は、マイクロホン317により何らかの音が検出された場合、又は所定の音(例えば人の発する声、動物の鳴き声)が検出された場合、生体が存在すると判定してよい。
UAV制御部110は、センサ部310による生体情報の検出の結果、調査対象SROに生体が含まれると判定すると、カメラ322により調査対象SROの周辺を撮像する。この撮像画像は、通信インタフェース150を介して端末80に送られ、ユーザにより確認されてよい。UAV制御部110は、手動又は自動により、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間に発信機400を投下するよう、開閉部321を開くよう制御してよい。つまり、送信機50の制御部又は端末80の端末制御部81が、操作部を介して発信機400を投下するための指示を入力し、通信部を介して投下指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、投下指示情報に基づいて、発信機400を投下させてよい。例えば、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間の真上において、開閉部321が開状態とされてよい。なお、調査対象SROの周辺や調査対象SROが所在する障害物BCの隙間に発信機400を投下することが困難である場合、調査対象SROが所在する障害物BCの隙間の近傍に、発信機400が投下されてもよい。
また、UAV制御部110は、発信機400を投下する際には無人航空機100を降下させ、発信機400の飛行高度が閾値th4以下である場合に、発信機400を投下するようにしてよい。これにより、高所から発信機400が落下して発信機が破損したり故障したりすることを抑制できる。なお、閾値th4は、例えば2mである。閾値th4は、固定値でも可変値でもよい。
図22は、無人航空機100により発信機400を第1投下例に従って投下する場合の表示部88の表示例を示す図である。
表示部88におけるライブビュー画像g11の領域には、収容ボックス320の開閉部321を開閉するためのMARKボタンB3が存在する。例えば、開閉部321の開状態は、実線で示され、開閉部321の閉状態は、点線で示される。図22では、MARKボタンB3が実線で示されており、開閉部321が開かれていることを示す。
なお、端末制御部81は、操作部83を介してMARKボタンB3の入力(例えば押下)を検出すると、開閉部321の開状態及び閉状態を切り替えてよい。例えば、ユーザは、端末80の表示部88のライブビュー画像g11を見ながら、送信機50により無人航空機100の飛行の制御を指示し、所望の位置においてMARKボタンB3を押してよい。これにより、無人航空機100は、ユーザ所望の位置において開閉部321を開き、発信機400を投下できる。
このように、無人航空機100は、調査対象SROの周辺に発信機400を投下することで、生体が発見された場所をマーキングできる。よって、例えば、マーキング後にユーザが生体の発見場所付近に近づくと、発信機400から発信される電波を受信でき、生体の所在位置に向かうことができる。よって、無人航空機100は、ユーザが動きながら生体を探索するよりも効率的に且つ安全に、生体の捜索を行うことができる。
また、ユーザは、表示部88を介して生体付近の状況を確認しながら、MARKボタンB3を押下することで、発信機400を投下できる。よって、無人航空機100は、ユーザ所望のタイミングや位置において、発信機400を投下できる。
図23は、無人航空機100による発信機400の第2投下例を示す図である。図23では、発信機400が、無人航空機100の収容ボックス320から生体LBとしての人物の周辺に投下されている。
図23では、生体LBを包囲するような障害物BCが存在しておらず、生体LBの周辺に容易に発信機400を投下できる状態にある。UAV制御部110は、例えば、手動又は自動により、生体LBの周辺に発信機400を投下するよう、開閉部321を開くよう制御してよい。この場合、UAV制御部110は、生体LBの位置を避けて、発信機400を投下してよい。
図24は、無人航空機100により発信機400を第2投下例に従って投下する場合の表示部88の表示例を示す図である。図24では、生体LBの周辺に障害物BCが存在しないので、ライブビュー画像g11には生体LBが識別容易に表示されている。
このように、無人航空機100は、センサ部310が障害物BCの隙間の奥に挿入されなくても、調査対象としての生体LBを識別可能(例えば視認可能)である場合、障害物BCの隙間に発信機400を投下せずに、生体LBの周辺に発信機400を投下可能である。この場合でも、生体LBの位置のマーキングが可能である。
次に、障害物BCを考慮した無人航空機100の調査対象SROへの具体的な接近方法について説明する。この場合、無人航空機100は、障害物BCを避けるために左右移動(つまり進行方向(前進方向)でない水平方向の移動)する場合と、障害物BCを避けなくてよく左右移動しない場合と、が想定される。
図25Aは、左右移動が不要な場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図25Bは、図25Aの状態から無人航空機100が調査対象SROへ接近した場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図25A,図25Bは、無人航空機100及び障害物BCを下方から見た図である。
図25Aでは、調査対象SROが前方(図25Aにおける右方向)にある。また、無人航空機100が備える撮像部316と調査対象SROとの間に、障害物BCが存在していない。つまり、無人航空機100が備える撮像部316と調査対象SROとを結ぶ直線上に、障害物BCが存在していない。よって、無人航空機100がそのまま前進移動することで、調査対象SROに到達可能である。
図25Bでは、図25Aの状態から無人航空機100が前方(図25Aにおける右方向)へ移動したことで、第1超音波センサ280により測定された障害物BCまでの測定距離が基準長さd0であり、センサ条件を満たすことを示している。この場合、ライブビュー画像g11とともにセンサ条件満足マークMK2が表示される。この測定距離は、無人航空機100の前方の回転翼211から障害物BC(進入位置p1)までの距離であり、基準長さd0となっている。
図25Bに示す位置で、無人航空機100のUAV制御部110は、第2ポール206を伸ばし、センサ部310により調査対象SR0における生体情報を検出する。生体情報は、生体が存在することを示す情報や、生体が存在しないことを示す情報を含んでよい。
この場合、UAV制御部110は、第2ポール206が伸長するための伸長指示情報を取得し、伸長指示情報に基づいて第2ポール206を伸長させる。UAV制御部110は、自動又は手動で、第2ポール206を伸長させる。
手動で第2ポール206を伸長させる場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して第2ポール206を伸長するための指示を入力し、通信部を介して伸長指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、伸長指示情報に基づいて、第2ポール206を伸長させてよい。
自動で第2ポール206を伸長させる場合、UAV制御部110は、無人航空機100の現在位置において、センサ条件を満たし、且つ、第2ポール206の伸長位置(第2ポール206が伸長した場合に第2ポール206が到達する位置)に障害物BCが存在しない場合、第2ポール206を伸長させてよい。第2ポール206の伸長位置に障害物BCが存在するか否かは、例えば、無人航空機100の現在位置で撮像部316により撮像された画像に対する画像認識を用いて判定されてよい。図25Bでは、第2ポール206の伸長位置に障害物BCが存在しない。
したがって、無人航空機100は、生体情報を検出するための所定の位置まで到達した場合に、第2ポール206を伸ばして、第2ポール206の先端側に設けられたセンサ部310により生体情報を検出できる。また、生体情報を検出するための所定の位置に到達する前には、第2ポール206を縮めた状態に維持することで、無人航空機100の第2ポール206を含めた全体のサイズが小さくなり、無人航空機100が調査対象SROの周辺の障害物BCに衝突し難くなる。よって、無人航空機100が移動し易くなり、無人航空機100の衝突による破損も抑制できる。
また、手動で第2ポール206が伸長することで、ユーザは、表示部88を介して調査対象SROの付近の状況を確認しながら、第2ポール206の伸長を指示するためのポール伸長ボタン(不図示)を押下することで、第2ポール206の伸長させることができる。よって、無人航空機100は、ユーザ所望のタイミングや位置において、第2ポール206を伸長できる。
図26Aは、左右移動が必要な場合の無人航空機100と障害物BCとの位置関係の一例を示す模式図である。図26Bは、無人航空機100が障害物BCを避けて移動することを説明する図である。図26Cは、第2ポール206の向きを変更することを説明する図である。図26Dは、センサ部310によりセンシングすることを説明する図である。図26A〜図26Dは、無人航空機100及び障害物BCを下方から見た図である。
図26Aでは、調査対象SROが前方(図26Aにおける右方向)にある。一方、無人航空機100が備える撮像部316と調査対象SROとの間に、障害物BCが存在する。つまり、無人航空機100が備える撮像部316と調査対象SROとを結ぶ直線上に、障害物BCが存在する。よって、無人航空機100がそのまま前進移動すると、回転翼211等が障害物BCに接触する。
この場合、UAV制御部110は、無人航空機100が移動するための移動指示情報を取得し、移動指示情報に基づいて無人航空機100を移動させる。UAV制御部110は、自動又は手動で移動する。
手動で無人航空機100を移動させる場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して無人航空機100を移動するための指示を入力し、通信部を介して移動指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、移動指示情報に基づいて、無人航空機100を伸長させてよい。
自動で無人航空機100を移動させる場合、UAV制御部110は、センサ条件を満たさない場合、障害物BCを避けて無人航空機100を移動させてよい。障害物BCを避けた無人航空機100の移動は、無人航空機100の現在位置で撮像部316により撮像された画像に対する画像認識を用いて障害物BCの位置や距離を測定し、この障害物BCを避けるよう調整されればよい。
したがって、無人航空機100は、無人航空機100の飛行進路において調査対象SROの周辺が障害物BCにより覆われていても、飛行進路を任意の方向に変更し、障害物BCを避けながら調査対象SROに接近できる。よって、無人航空機100は、センサ部310により生体情報を検出可能な状態に近づけることができ、生体を発見でき、救助に成功する確率を高くできる。
また、手動で無人航空機100を移動させることで、ユーザは、表示部88を介して調査対象SROの付近の状況を確認しながら、障害物BCを避けて無人航空機100を飛行させ移動させることができる。よって、無人航空機100は、ユーザ所望のタイミングや位置を考慮して、無人航空機100を移動させることができる。
図26Bでは、図26Aの状態から無人航空機100が左前方(図26Bにおける右上方向)へ移動しており、センサ条件を満たしていることを示している。この場合、ライブビュー画像g1とともにセンサ条件満足マークMK2が表示されている。つまり、センサ部310により生体情報を検出するためには、更に無人航空機100が移動する必要がないことを示している。
図26Bにおいて、第2ポール206の向きを変更せずに第2ポール206を伸長すると、第2ポール206に前方に位置する障害物BCに衝突する。また、第2ポール206が延びる方向の延長線上に、調査対象SROが存在しない。そのため、UAV制御部110は、調査対象SROの方向を向くように、第2ポール206の向きを水平方向において変更する。
この場合、UAV制御部110は、第2ポール206の向きを変更するための向き指示情報を取得し、向き指示情報に基づいて第2ポール206の向きを変更する。UAV制御部110は、自動又は手動で、第2ポール206の向きを変更する。
手動で第2ポール206の向きを変更する場合、送信機50の制御部又は端末80の端末制御部81は、操作部を介して第2ポール206の向きを変更するための指示を入力し、通信部を介して向き指示情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、向き指示情報に基づいて、第1ジンバル200を制御し、第2ポール206の向きを変更してよい。
自動で第2ポール206の向きを変更する場合、UAV制御部110は、無人航空機100の現在位置において、センサ条件を満たし、第2ポール206の伸長位置に障害物BCが存在する場合、第1ジンバル200を制御して第2ポール206の向きを変更してよい。図26Bでは、第2ポール206の伸長位置に障害物BCが存在する。
したがって、無人航空機100は、第2ポール206の向きを変更することで、例えば無人航空機100の前進方向に障害物BCが存在する場合でも、無人航空機100を移動させずに、障害物BCの隙間にセンサ部310を進入させ、センサ部310を調査対象SROに近づけることができる。また、無人航空機100は、無人航空機100を所望の位置に移動させた後に、第2ポール206の向きを変更することで、無人航空機100と調査対象SROとの位置関係を微調整することができる。これにより、無人航空機100は、センサ部310により生体情報を検出できる可能性を高くできる。
また、手動で第2ポール206の向きを変更することで、ユーザは、表示部88を介して障害物BCや調査対象SROの付近の状況を確認しながら、障害物BCを避けて障害物BCの隙間に進入可能となるように第2ポール206の向きを調整できる。よって、無人航空機100は、ユーザ所望のタイミングや位置を考慮して、第2ポール206の向きを変更できる。
図26Cでは、UAV制御部110は、無人航空機100が図26Bの位置から位置を変更せずに、第1ジンバル200が第2ポール206を支持する角度を調整し、第2ポール206の向きを右前方(図26Cにおける右下方向)に変更している。これにより、無人航空機100は、第2ポール206を伸長すると、第2ポール206が障害物BCに衝突することを回避できる。また、調査対象SROに向かって第2ポール206を伸長することが可能となる。
また、図26Cでは、無人航空機100の前方端部(前方の回転翼211の先端)から無人航空機100に対向する障害物BCまでの距離が、基準長さd0に一致している。ここで、図26Cでは、第2ポール206の向きが変更されたことに伴い、基準長さd0が基準長さd1に変更されている。基準長さd1は、基準長さd0よりも短い。センサ条件を満たすには、基準長さd1よりも短い必要があるため、図26Cでは、センサ条件を満たしていないことになる。つまり、第2ポール206を最大限伸ばした場合の長さL3を考慮すると、長さL3の起点(回転翼211側の端点)が障害物BCの進入位置p1よりも手前側(無人航空機100側)に位置する。よって、センサ部310によるセンシングを可能とするためには、更に無人航空機100が前進する必要がある。
図26Dでは、無人航空機100が、図26Cの状態よりも対向する障害物BCに向かって前進しており、無人航空機100の前方端部と障害物BCとの距離が、基準長さd1となっている。この場合、センサ条件を満たしており、ライブビュー画像g1とともにセンサ条件満足マークMK2が表示される。つまり、図26Dに示された無人航空機100の位置において、センサ部310により生体情報を検出可能であることを示している。
このように、無人航空機100は、調査対象SROが前方に存在し、且つ障害物BCを避けるために、左右移動(水平方向の前後以外の移動)が必要な場合、UAV制御部110は、上記の手動又は自動により、無人航空機100の飛行を制御し、無人航空機100の位置を移動させる。また、UAV制御部110は、第1ジンバル200を制御し、センサ部310が調査対象SROの方向に向くよう制御する。この場合、例えば撮像部316による撮像方向が調査対象SROの方向となる。
また、第1ジンバル200を制御して第2ポール206の向きを調整すると、UAV制御部110は、第2ポール206の角度により変化する基準長さdを再算出し、再算出結果に応じて、ライブビュー画像g11とともにセンサ条件満足マークMK2を表示し、又は表示しない。
次に、基準長さd(d1,d2)の詳細について説明する。
UAV制御部110は、センサ条件を満たしているか否かを判定するための基準長さdを算出する。UAV制御部110は、第1ジンバル200を制御し、第1ジンバル200に対する第2ポール206の向きを変更した場合、基準長さdを再算出してよい。
例えば、図25B、図26B、図26Cに示した基準長さd0は、以下の(式1)により表されてよい。
d0=L1−L2−L3 ・・・(式1)
図27は、第1ジンバル200に対する第2ポール206の向きを考慮した基準長さd1を説明するための図である。
例えば、図26Cに示した第1ジンバル200に対する第2ポール206の向きを変更した後における無人航空機100と障害物BCとの距離d1は、以下の(式2)により表されてよい。
d1=L1’−L2−L3 ・・・(式2)
なお、L1’=L1×cosα×cosβ
なお、αは、第2ポール206の延びる方向とy軸(ピッチ軸に相当)との成す角度でよい。βは、第2ポール206の延びる方向とz軸(ヨー軸に相当)との成す角度でよい。
つまり、角度αは、例えば図27に示した第2ポール206の基準方向(ここではy軸に沿う方向)に対する第2ポール206が延びる方向の角度のうちの水平方向成分(水平角度)を示す。βは、例えば図27に示した第2ポール206の基準方向に対する第2ポール206が延びる方向の角度のうちの垂直方向成分(垂直角度)を示す。このように、第2ポール206の延びる方向が基準方向から変更されると、第2ポール206が伸長された場合に到達する到達範囲が短くなる。一方、第2ポール206の向きが変化しても、無人航空機100の基準方向(例えば前進方向)は変化しない。そのため、基準長さdの方向としては、無人航空機100の基準方向から変更されず、センシング可能な有効範囲が短くなった(手前側になった)として扱い、基準長さdを短くして対応する。
次に、生体探索システム10の動作について説明する。
図28は、生体探索システム10の動作例を示すシーケンス図である。ここでは、センサ部310に含まれる各種センサの電源がオンされており、各種センサが動作可能となっていることを想定する。
無人航空機100では、UAV制御部110は、捜索地域SR1において撮像部316に画像を撮像させ、通信インタフェース150を介して、撮像された空撮画像を端末80へ送信する(S101)。端末80では、端末制御部81は、通信部85を介して空撮画像を受信し、空撮画像をライブビュー画像g11として表示部88に表示させる(S201)。
ユーザは、ライブビュー画像g11を、表示部88の画面で確認し、無人航空機100を調査対象SROに近づけるよう、送信機50を操作する。送信機50は、ユーザ操作に基づく飛行指示情報を無人航空機100へ送信する。無人航空機100では、UAV制御部110は、通信インタフェース150を介して受信された飛行指示情報に基づいて、無人航空機100の飛行を制御する。また、UAV制御部110は、第2ポール206が基準方向を向くように、第1ジンバル200を制御し、無人航空機100が前進方向(例えば図27のy軸に沿う方向)を向くよう制御している。
UAV制御部110は、無人航空機100が障害物BCの隙間の奥に位置する調査対象SROに近づけるように制御する。UAV制御部110は、第1超音波センサ280を介して、調査対象SROの周囲の四方に存在する障害物BCとの距離を測定(検出)する(S102)。
UAV制御部110は、測定距離が安全距離よりも小さい(安全距離未満である)場合、通信インタフェース150を介してその旨を端末80へ通知する(S103)。端末80では、端末制御部81は、通信部85を介してその旨を受信し、障害物接近マークMK1を表示部88に表示させる(S202)。なお、測定距離に応じて、障害物接近マークMK1の表示態様を変更してもよい。
ユーザは、表示部88に表示された障害物接近マークMK1を参照しながら、障害物BCに無人航空機100が衝突しないように、送信機50を操作して、無人航空機100の飛行指示を行う(S203)。送信機50は、ユーザ操作に基づく飛行指示情報を無人航空機100へ送信する(S204)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して受信された飛行指示情報に基づいて、無人航空機100の飛行を制御し、無人航空機100の位置を調整する(S104)。
UAV制御部110は、無人航空機100の前進方向への飛行に伴い、第1超音波センサ280による測定距離が閾値th3よりも短くなると、この飛行位置でセンサ条件を満たす。この場合、UAV制御部110は、センサ条件を満たす旨(第2の通知情報の一例)を、通信インタフェース150を介して端末80へ通知する(S105)。端末80では、端末制御部81は、通信部85を介してセンサ条件を満たす旨を受信し、センサ条件満足マークMK2を表示部88に表示させる(S205)。
ユーザは、送信機50の操作部又は端末80の操作部83を介して、第1ジンバル200の角度を制御し第2ポール206の向きを調整する指示を入力する(S206)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、第2ポール206の向き指示情報を無人航空機100へ送信する(S207)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して向き指示情報を受信し、向き指示情報に基づいて、第2ポール206の向きを変更する(S106)。
UAV制御部110は、第1ジンバル200に対する第2ポール206の角度の調整により、基準長さd0が短くなり、センサ条件を満たさなくなった場合、その旨を表示させる。この場合、UAV制御部110は、通信インタフェース150を介してセンサ条件を満たさない旨を端末80へ送信する。端末80では、端末制御部81は、通信部85を介してセンサ条件を満たさない旨を受信し、表示部88によるセンサ条件満足マークMK2の表示を解除する(表示を停止させる)。これにより、ユーザは、センサ条件に満足しなくなったことを認識できる。この場合、例えば、UAV制御部110は、無人航空機100を手動又は自動により前進移動させ、センサ条件を満足するよう調整する。
ユーザは、例えばセンサ条件満足マークMK2の表示によりセンサ条件を満足していることを確認すると、送信機50の操作部又は端末80の操作部83を介して、第2ポール206を伸長させる指示を入力する(S208)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、第2ポール206の伸長指示情報を無人航空機100へ送信する(S209)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して伸長指示情報を受信し、伸長指示情報に基づいて、第2ポール206を伸ばす(S107)。
ユーザは、第2ポール206の伸長を確認すると、送信機50の操作部又は端末80の操作部83を介して、第2ジンバル202を制御し、センサ部310の向きを調査対象SROの方向に向ける指示を入力する(S210)。送信機50の制御部又は端末制御部81は、ユーザ操作を受け、通信部85等を介して、センサ部310の向き指示情報を無人航空機100へ送信する(S211)。無人航空機100では、UAV制御部110は、通信インタフェース150を介して向き指示情報を受信し、向き指示情報に基づいて、センサ部310の向きを変更する(S108)。
UAV制御部110は、調査対象SROに接近し、調査対象SROに向けられたセンサ部310に含まれる各種センサに、生体情報を検出させる(S109)。生体情報は、センサ部310により検出され、調査対象に関するデータを含む情報でよい。UAV制御部110は、検出された生体情報を基に、生体の有無を判定する(S110)。
UAV制御部110は、生体(例えば生存者)が存在すると判定した場合、発信機400が収容された収容ボックス320の開閉部321を開き、発信機400を投下する(S111)。
また、UAV制御部110は、生体が存在すると判定した際、GPS受信機240を介して無人航空機100の位置情報を取得する。UAV制御部110は、通信インタフェース150を介して、無人航空機100のこの位置情報をサーバ装置40へ送信する。UAV制御部110は、通信インタフェース150を介して、無人航空機100の位置情報を取得する。UAV制御部110は、通信インタフェース150を介して、無人航空機100の位置情報とともに、センサ部310により検出された生体情報や撮像部316又は撮像部230により撮像された画像をサーバ装置40へ送信してもよい。撮像部316により撮像された画像は、生体が映り込んだ画像でよい。
このような無人航空機100及び生体探索システム10によれば、各種カメラや各種ジンバルを用いて生体の探索を行うことに加え、センサ部310の各種センサを用いて生体の探索を行うので、視覚的に生体の有無を判断できるとともに、視覚以外の情報を用いて生体の有無を判断できる。よって、無人航空機100及び生体探索システム10は、例えば、救援効率を改善でき、救援時間を節約できる。また、地震や雪崩により、人が瓦礫や雪の下に埋まっている場合でも、無人航空機100及び生体探索システム10は、ユーザが生体を探索する際のリスクを低減して、生体を探索できる。
次に、サーバ装置40による生体情報や発信者情報の管理について説明する。
サーバ装置40では、サーバ制御部41は、通信部45を介して無人航空機100から生体の位置情報を取得する。サーバ制御部41は、通信部45を介して無人航空機100から生体情報や撮像部316又は撮像部230により撮像された画像を取得してもよい。サーバ制御部41は、取得された生体の位置情報、生体情報、画像、等をストレージ49にストレージ49に蓄積させる。
ストレージ49は、生体情報や発信機400に関する情報(発信機情報)を保持してよい。発信機情報は、過去に投下された又は今後投下される発信機400の情報でよい。例えば、ストレージ49は、発信機400の識別情報、その発信機400が投下された位置情報(無人航空機100の位置情報)、生体情報、等を保持してよい。発信機400が投下された位置の情報は、生体の位置情報と一致してよい。ストレージ49は、生体情報や発信機情報とともに、無人航空機100が撮像した画像を保持してよい。この空撮画像は、調査対象SROに含まれる生体の画像でよい。
サーバ制御部41は、ストレージ49に蓄積された情報(生体の位置情報、生体情報、画像、等)を取得し、外部のモニタに表示させてよい。サーバ制御部41は、通信部45を介して、ストレージ49に蓄積された情報(生体の位置情報、生体情報、画像、等)を端末80等に送信してよい。
サーバ制御部41は、ストレージ49に保持された地図データを取得してよい。サーバ制御部41は、通信部45を介して外部サーバから地図データを取得してよい。サーバ制御部41は、地図データにおいて、無人航空機100から取得された生体の位置情報を重畳してよい。生体の位置情報が重畳された地図データは、外部のモニタに表示されてもよいし、端末80に送信されてよい。
このように、サーバ装置40に生体の位置情報等が送られて蓄積されることで、サーバ装置40を集約するセンタ内では、生体の位置情報等を一覧して確認できる。よって、例えばセンタから出発するユーザが生体の存在する位置に直接向かうことができる。また、サーバ装置40とユーザが有する端末80とが連携することで、ユーザは、生体の位置情報や発信機の情報を救助現場付近でも確認できる。
このように、災害救助センタの救助隊員は、外部のモニタを参照して、生体が所持位置を確認できる。また、捜索地域SR1に向かった救助隊員は、端末80の表示部88を参照して、生体の所持位置を確認できる。また、ユーザは、位置情報とともに生体情報を取得でき、生体が存在する各位置に、どのような状態の生体が存在するかを把握することが可能である。
また、ユーザは、生体の周辺に近づくと、端末80により、生体の周辺に投下された発信機400の電波を受信できる。よって、生体探索システム10は、障害物BCが多く手がかりなく生体を探索する場合と比較すると、生体の探索効率、救助効率を大幅に向上できる。
本実施形態では、無人航空機100が、生体の探索に関する処理を実施することを例示したが、これに限られない。例えば、送信機50の処理部や端末80の端末制御部81が、本実施形態で説明した生体の探索に関する処理の少なくとも一部を行ってもよい。これにより、生体の探査に関する処理の実行時における無人航空機100の処理負荷を低減でき、負荷分散が図れる。
本実施形態では、無人航空機100の生体探索を支援する端末80(無人航空機100の制御を指示する端末)と、実際に生体の探索に向かう救助隊員が保持する端末80とは、同じ端末でもよいし、別個の端末でもよい。
以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 生体探索システム
40 サーバ装置
41 サーバ制御部
45 通信部
47 メモリ
49 ストレージ
50 送信機
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 第1ジンバル
202 第2ジンバル
204 第1ポール
206 第2ポール
210 回転翼機構
230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 第1超音波センサ
290 レーザー測定器
310 センサ部
311 二酸化炭素センサ
312 可視光LED
313 赤外線LED
314 第2超音波センサ
315 赤外線センサ
316 撮像部
316a イメージセンサ
317 マイクロホン
320 収容ボックス
321 開閉部
322 カメラ
B1 LEDボタン
B2 IRLEDボタン
B3 MARKボタン
BC 障害物
g11 ライブビュー画像
g12,g13 検出値の表示領域
MK1,MK11,MK12 障害物接近マーク
MK2 センサ条件満足マーク
LB 生体
p1 挿入位置
SRO 調査対象
SR1 捜索地域
U1 ユーザ

Claims (29)

  1. 生体を探索する飛行体であって、
    前記生体に関する生体情報を検出するセンサ部と、
    前記センサ部を支持し、伸縮自在な支持部材と、
    前記支持部材を回転可能に支持する第1のジンバルと、
    前記生体の探索に関する処理を行う処理部と、
    画像を撮像する撮像部と、
    電波を発信する発信機を収容する収容部と、
    を備え、
    前記処理部は、
    前記撮像部に調査領域の画像を撮像させ、
    前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御し、
    前記調査領域に存在する調査対象に向けて前記支持部材を伸長させ、
    伸長された前記支持部材に支持された前記センサ部に、前記生体情報を検出させ、
    前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させる、
    飛行体。
  2. 前記処理部は、
    前記生体情報として前記生体が存在する旨の情報が検出された場合、
    前記飛行体の位置情報を取得し、
    前記飛行体の位置情報をサーバ装置に送信する、
    請求項に記載の飛行体。
  3. 前記処理部は、
    前記飛行体の制御を指示する制御装置から、前記発信機を投下するための投下指示情報を取得し、
    前記投下指示情報に基づいて、前記発信機を投下させる、
    請求項に記載の飛行体。
  4. 前記処理部は、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在しない場合、前記支持部材を伸長させる、
    請求項のいずれか1項に記載の飛行体。
  5. 前記処理部は、
    前記飛行体の制御を指示する制御装置から、前記支持部材の伸長を指示するための伸長指示情報を取得し、
    前記伸長指示情報に基づいて、前記支持部材を伸長させる、
    請求項に記載の飛行体。
  6. 前記処理部は、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて前記飛行体を移動させる、
    請求項のいずれか1項に記載の飛行体。
  7. 前記処理部は、
    前記飛行体の制御を指示する制御装置から、前記飛行体の移動を指示するための移動指示情報を取得し、
    前記移動指示情報に基づいて、前記障害物を避けて前記飛行体を移動させる、
    請求項に記載の飛行体。
  8. 前記処理部は、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在する場合、前記第1のジンバルを制御して前記支持部材の向きを変更する、
    請求項のいずれか1項に記載の飛行体。
  9. 前記処理部は、前記飛行体の制御を指示する制御装置から、前記支持部材の向きを指示するための向き指示情報を取得し、
    前記向き指示情報に基づいて、前記支持部材の向きを変更する、
    請求項に記載の飛行体。
  10. 前記センサ部は、複数のセンサを含み、
    前記処理部は、前記飛行体の制御を指示する制御装置から、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得し、
    前記オンオフ指示情報に基づいて、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフする、
    請求項のいずれか1項に記載の飛行体。
  11. 前記センサ条件は、前記支持部材の一端から回転翼の端部に対応する前記支持部材の第1の点までの長さと、前記支持部材の前記一端から他端までの長さと、前記調査対象が存在する調査空間に挿入される前記支持部材の前記他端から第2の点までの長さと、に基づいて決定された、
    請求項のいずれか1項に記載の飛行体。
  12. 前記センサ部を回転可能に支持する第2のジンバル、を更に備え、
    前記処理部は、
    伸長された前記支持部材に支持された前記第2のジンバルに支持された前記センサ部に、前記生体情報を検出させる、
    請求項1〜11のいずれか1項に記載の飛行体。
  13. 生体を探索する飛行体及び表示装置を備える生体探索システムであって、
    前記飛行体は、
    生体に関する生体情報を検出するセンサ部と、
    前記センサ部を支持し、伸縮自在な支持部材と、
    前記支持部材を回転可能に支持するジンバルと、
    前記生体の探索に関する処理を行う処理部と、
    画像を撮像する撮像部と、
    電波を発信する発信機を収容する収容部と、
    を備え、
    前記処理部は、
    前記撮像部に調査領域の画像を撮像させ、
    前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御し、
    前記調査領域に存在する調査対象に向けて前記支持部材を伸長させ、
    伸長された前記支持部材に支持された前記センサ部に、前記生体情報を検出させ、
    前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させ、
    前記生体情報を送信し、
    前記表示装置は、
    前記生体情報を受信し、
    前記生体情報に基づいて表示する、
    生体探索システム。
  14. 前記飛行体の前記センサ部は、前記生体の周辺に存在する障害物までの距離を検出し、
    前記飛行体の前記処理部は、前記距離が所定距離未満である場合、前記距離に基づく第1の通知情報を表示装置へ送信し、
    前記表示装置は、
    前記第1の通知情報を受信し、
    前記第1の通知情報に基づいて表示する、
    請求項13に記載の生体探索システム。
  15. 前記飛行体の前記処理部は、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たす場合、前記センサ条件を満たすことに基づく第2の通知情報を表示装置へ送信し、
    前記表示装置は、
    前記第2の通知情報を受信し、
    前記第2の通知情報に基づいて表示する、
    請求項13又は14に記載の生体探索システム。
  16. 生体に関する生体情報を検出するセンサ部と、前記センサ部を支持し、伸縮自在な支持部材と、前記支持部材を回転可能に支持する第1のジンバルと、電波を発信する発信機を収容する収容部と、を備え、前記生体を探索する飛行体における生体探索方法であって、
    画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
    前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
    前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
    伸長された前記支持部材に支持された前記センサ部に、前記生体情報を検出させるステップと、
    前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させるステップと、
    を有する生体探索方法。
  17. 前記生体情報として前記生体が存在する旨の情報が検出された場合、前記飛行体の位置情報を取得するステップと、
    前記飛行体の位置情報をサーバ装置に送信するステップと、を更に含む、
    請求項16に記載の生体探索方法。
  18. 前記飛行体の制御を指示する制御装置から、前記発信機を投下するための投下指示情報を取得するステップ、を更に含み、
    前記発信機を投下させるステップは、前記投下指示情報に基づいて、前記発信機を投下させるステップを含む、
    請求項16に記載の生体探索方法。
  19. 前記支持部材を伸長させるステップは、前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在しない場合、前記支持部材を伸長させるステップを含む、
    請求項1618のいずれか1項に記載の生体探索方法。
  20. 前記飛行体の制御を指示する制御装置から、前記支持部材の伸長を指示するための伸長指示情報を取得するステップ、を更に含み、
    前記支持部材を伸長させるステップは、前記伸長指示情報に基づいて、前記支持部材を伸長させる、
    請求項19に記載の生体探索方法。
  21. 前記飛行体の飛行を制御するステップは、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たさない場合、障害物を避けて前記飛行体を移動させるステップを含む、
    請求項1620のいずれか1項に記載の生体探索方法。
  22. 前記飛行体の制御を指示する制御装置から、前記飛行体の移動を指示するための移動指示情報を取得するステップ、を更に含み、
    前記飛行体の飛行を制御するステップは、前記移動指示情報に基づいて、前記障害物を避けて前記飛行体を移動させるステップを含む、
    請求項21に記載の生体探索方法。
  23. 前記飛行体の現在位置において、前記支持部材を伸長させた場合に前記センサ部により前記生体情報の検出が可能か否かを示すセンサ条件を満たし、前記支持部材の伸長位置に障害物が存在する場合、前記第1のジンバルを制御して前記支持部材の向きを変更するステップ、を更に含む、
    請求項1622のいずれか1項に記載の生体探索方法。
  24. 前記飛行体の制御を指示する制御装置から、前記支持部材の向きを指示するための向き指示情報を取得するステップ、を更に含み、
    前記支持部材の向きを変更するステップは、前記向き指示情報に基づいて、前記支持部材の向きを変更するステップを含む、
    請求項23に記載の生体探索方法。
  25. 前記センサ部は、複数のセンサを含み、
    前記飛行体の制御を指示する制御装置から、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするためのオンオフ指示情報を取得するステップと、
    前記オンオフ指示情報に基づいて、前記センサ部に含まれる少なくとも1つのセンサをオン又はオフするステップと、を更に含む、
    請求項1624のいずれか1項に記載の生体探索方法。
  26. 前記センサ条件は、前記支持部材の一端から回転翼の端部に対応する前記支持部材の第1の点までの長さと、前記支持部材の前記一端から他端までの長さと、前記調査対象が存在する調査空間に挿入される前記支持部材の前記他端から第2の点までの長さと、に基づいて決定された、
    請求項192123のいずれか1項に記載の生体探索方法。
  27. 前記飛行体は、前記センサ部を回転可能に支持する第2のジンバル、を備え、
    前記生体情報を検出させるステップは、
    伸長された前記支持部材に支持された前記第2のジンバルに支持された前記センサ部に、前記生体情報を検出させるステップを含む、
    請求項16〜26のいずれか1項に記載の生体探索方法。
  28. 生体に関する生体情報を検出するセンサ部と、前記センサ部を支持し、伸縮自在な支持部材と、前記支持部材を回転可能に支持する第1のジンバルと、電波を発信する発信機を収容する収容部と、を備え、前記生体を探索する飛行体に、
    画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
    前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
    前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
    伸長された前記支持部材に支持された前記センサ部に、前記生体情報を検出させるステップと、
    前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させるステップと、
    を実行させるためのプログラム。
  29. 生体に関する生体情報を検出するセンサ部と、前記センサ部を支持し、伸縮自在な支持部材と、前記支持部材を回転可能に支持する第1のジンバルと、電波を発信する発信機を収容する収容部と、を備え、前記生体を探索する飛行体に、
    画像を撮像する撮像部に調査領域の画像を撮像させるステップと、
    前記調査領域に向かって前記飛行体を接近させるよう、前記飛行体の飛行を制御するステップと、
    前記調査領域に存在する調査対象に向けて前記支持部材を伸長させるステップと、
    伸長された前記支持部材に支持された前記センサ部に、前記生体情報を検出させるステップと、
    前記生体情報として前記生体が存在する旨の情報が検出された場合、前記収容部から前記発信機を投下させるステップと、
    を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2017188022A 2017-09-28 2017-09-28 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体 Expired - Fee Related JP6859241B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017188022A JP6859241B2 (ja) 2017-09-28 2017-09-28 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体
EP17927177.0A EP3689754A4 (en) 2017-09-28 2017-12-15 FLYING BODY, LIVE BODY DETECTION DEVICE, LIVE BODY DETECTION PROCESS AND RECORDING MEDIA
PCT/CN2017/116603 WO2019061860A1 (zh) 2017-09-28 2017-12-15 飞行体、生物体探测系统、生物体探测方法、程序和记录介质
CN201780064190.5A CN109843726B (zh) 2017-09-28 2017-12-15 飞行体、生物体探测系统、生物体探测方法、程序和记录介质
US16/726,618 US11531340B2 (en) 2017-09-28 2019-12-24 Flying body, living body detection system, living body detection method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017188022A JP6859241B2 (ja) 2017-09-28 2017-09-28 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体

Publications (2)

Publication Number Publication Date
JP2019059452A JP2019059452A (ja) 2019-04-18
JP6859241B2 true JP6859241B2 (ja) 2021-04-14

Family

ID=65902132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017188022A Expired - Fee Related JP6859241B2 (ja) 2017-09-28 2017-09-28 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体

Country Status (5)

Country Link
US (1) US11531340B2 (ja)
EP (1) EP3689754A4 (ja)
JP (1) JP6859241B2 (ja)
CN (1) CN109843726B (ja)
WO (1) WO2019061860A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144260A (ja) * 2018-06-15 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
EP3957561B1 (en) 2019-04-18 2023-07-19 Panasonic Intellectual Property Management Co., Ltd. Unmanned flight body, control method, and program
CN109976370B (zh) * 2019-04-19 2022-09-30 深圳市道通智能航空技术股份有限公司 立面环绕飞行的控制方法、装置、终端及存储介质
JP7302349B2 (ja) * 2019-07-23 2023-07-04 東洋製罐株式会社 無人航空機、発射方法およびプログラム
JP6898410B2 (ja) * 2019-10-09 2021-07-07 ソフトバンク株式会社 射出装置、プログラム、システム及び射出方法
CN110963064B (zh) * 2019-11-05 2022-06-24 深圳市道通智能航空技术股份有限公司 镜头模组的控制方法、装置、飞行器、飞行系统及介质
JP7556286B2 (ja) * 2020-12-23 2024-09-26 トヨタ自動車株式会社 サーバ、車両検出システム及び車両検出方法
JP7579197B2 (ja) 2021-04-21 2024-11-07 株式会社日立製作所 設備のメンテナンスを行うロボット
CN113011391B (zh) * 2021-04-25 2024-04-26 秦皇岛本征晶体科技有限公司 一种用于人脸识别活体检测的光学系统及方法
CN113223156B (zh) * 2021-05-25 2024-10-25 杭州晟冠科技有限公司 一种测算和纠正云台初始角度的方法
CN116006855B (zh) * 2022-12-27 2024-08-16 鄂尔多斯市腾远煤炭有限责任公司 一种煤矿变电所的监控装置及其使用方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04349095A (ja) * 1991-05-28 1992-12-03 Toshiba Corp 航空機の作業用装置
JPH0871964A (ja) * 1994-09-09 1996-03-19 Mitsubishi Heavy Ind Ltd 回転機器捕獲装置
US20080078865A1 (en) * 2006-09-21 2008-04-03 Honeywell International Inc. Unmanned Sensor Placement In A Cluttered Terrain
CN101914893B (zh) * 2010-07-09 2011-07-27 重庆交通大学 基于四轴飞行器的桥梁检测机器人
US9384668B2 (en) * 2012-05-09 2016-07-05 Singularity University Transportation using network of unmanned aerial vehicles
CN203444123U (zh) * 2013-08-05 2014-02-19 朱小炜 一种飞行生命探测仪
US10132951B2 (en) * 2013-10-22 2018-11-20 Alan Haddy Detection of buried assets using drone apparatus
US11397258B2 (en) * 2015-07-17 2022-07-26 Origin Wireless, Inc. Method, apparatus, and system for outdoor target tracking
CN104477399B (zh) * 2014-11-26 2016-09-07 马鞍山市靓马航空科技有限公司 一种夜间搜救多旋翼无人机
CN204433078U (zh) * 2015-01-30 2015-07-01 深圳市大疆创新科技有限公司 云台及使用该云台的飞行器
KR101536574B1 (ko) * 2015-03-02 2015-07-14 건설표준시험원(주) 구조물 검사용 비행체
US9944366B2 (en) * 2015-05-19 2018-04-17 Rujing Tang Unmanned aerial vehicle system and methods for use
JP6310569B2 (ja) * 2015-09-11 2018-04-11 エスゼット ディージェイアイ オスモ テクノロジー カンパニー リミテッドSZ DJI Osmo Technology Co., Ltd. 支持機構
JP6714236B2 (ja) * 2015-10-13 2020-06-24 独立行政法人国立高等専門学校機構 水難救助装置
JP6436049B2 (ja) * 2015-10-14 2018-12-12 東京電力ホールディングス株式会社 状態検出装置及び状態検出プログラム
US9984586B2 (en) * 2015-11-22 2018-05-29 Victor Popa-Simil Method and device to improve the flying abilities of the airborne devices operator
JP6738611B2 (ja) * 2016-02-02 2020-08-12 株式会社プロドローン 無人回転翼機
WO2017147188A1 (en) * 2016-02-23 2017-08-31 Culver Matthew Systems and methods for unmanned aerial vehicles
CN206141848U (zh) * 2016-10-09 2017-05-03 无锡飞天侠科技有限公司 一种农业用病虫害监测无人机
KR101715210B1 (ko) * 2016-11-01 2017-03-22 한국건설기술연구원 무인 이동 장치를 이용한 매몰자 위치 탐지 장치 및 방법
CN106412525B (zh) * 2016-11-11 2023-04-07 湖南广远视通网络技术有限公司 一种警灯
CN106741895A (zh) * 2016-12-28 2017-05-31 合肥工业大学 违章巡查无人机及违章巡查无人机的操作方法
CN107089319A (zh) * 2017-04-20 2017-08-25 中化舟山危化品应急救援基地有限公司 储罐火灾侦检系统
CN107168358A (zh) * 2017-06-30 2017-09-15 马鞍山市赛迪智能科技有限公司 一种基于多角度倾斜摄影装置的三维建模数据采集方法
US20190057233A1 (en) * 2017-08-15 2019-02-21 Lawrence Livermore National Security, Llc Detection and tracking system using tattoos

Also Published As

Publication number Publication date
US11531340B2 (en) 2022-12-20
CN109843726B (zh) 2021-10-19
CN109843726A (zh) 2019-06-04
US20200150662A1 (en) 2020-05-14
EP3689754A1 (en) 2020-08-05
JP2019059452A (ja) 2019-04-18
WO2019061860A1 (zh) 2019-04-04
EP3689754A4 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
JP6859241B2 (ja) 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体
US12007761B2 (en) Unmanned aerial vehicle inspection system
US11794890B2 (en) Unmanned aerial vehicle inspection system
US10332407B2 (en) Systems and methods for providing emergency alerts at emergency landing areas of unmanned aerial vehicles
US9513635B1 (en) Unmanned aerial vehicle inspection system
CN108351653B (zh) 用于uav飞行控制的系统和方法
US9665094B1 (en) Automatically deployed UAVs for disaster response
WO2019041633A1 (zh) 通信中继方法、中继飞行体、程序以及记录介质
US20200064133A1 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium
JPWO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
JP2017117018A (ja) 無人小型航空機飛行ルート設定・登録システム及び方法
KR20180065331A (ko) 영상 인식을 이용한 드론 제어 방법 및 그 장치
JP6460524B2 (ja) ナビゲーションシステム、ナビゲーション装置、飛行体及びナビゲーション連携制御方法
JP2019006154A (ja) 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
JP6143313B1 (ja) 移動体
JP7040827B1 (ja) 捜索支援システムおよび救助支援プログラム
Saadat et al. An application framework for forest fire and haze detection with data acquisition using unmanned aerial vehicle
KR102474684B1 (ko) 재난 구조 장치
KR102503849B1 (ko) 이동형 기지국 및 이동형 기지국을 이용한 서비스 제공 시스템
Saadat et al. Unmanned aerial vehicle surveillance system (UAVSS) for forest surveillance and data acquisition
JP7317684B2 (ja) 移動体、情報処理装置、及び撮像システム
JP2019179529A (ja) 管制装置
KR102237342B1 (ko) 비행 계획 정보 생성 장치 및 방법
JP2023076166A (ja) 探索装置、自律探索システム、監視装置、探索方法、およびプログラム
WO2017221867A1 (ja) 移動体、プログラム、およびコンピュータ読み取り可能な記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees