[go: up one dir, main page]

JP2020150360A - ウェアラブルカメラおよび映像データ生成方法 - Google Patents

ウェアラブルカメラおよび映像データ生成方法 Download PDF

Info

Publication number
JP2020150360A
JP2020150360A JP2019044753A JP2019044753A JP2020150360A JP 2020150360 A JP2020150360 A JP 2020150360A JP 2019044753 A JP2019044753 A JP 2019044753A JP 2019044753 A JP2019044753 A JP 2019044753A JP 2020150360 A JP2020150360 A JP 2020150360A
Authority
JP
Japan
Prior art keywords
sound
wearable camera
control unit
microphone
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019044753A
Other languages
English (en)
Inventor
貴行 原口
Takayuki Haraguchi
貴行 原口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019044753A priority Critical patent/JP2020150360A/ja
Priority to US16/786,699 priority patent/US11223794B2/en
Publication of JP2020150360A publication Critical patent/JP2020150360A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/802Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving processing of the sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】映像データに基づいたレポート作成を容易にするウェアラブルカメラを提供すること。【解決手段】ウェアラブルカメラは、撮像部と、撮像部により撮像された映像データを記憶する記憶部と、筺体の異なる位置に配置され、音を集音し、信号を出力する複数の集音部と、信号の出力タイミングのずれに基づいて、音の発生方向を判定し、音の発生方向を属性情報として映像データに付与する制御部と、を備える。【選択図】図4

Description

本開示は、ウェアラブルカメラおよび映像データ生成方法に関する。
近年、警察官または警備員等の業務を支援するため、ウェアラブルカメラが導入されている(例えば、特許文献1を参照)。ウェアラブルカメラは、警察官または警備員等の身体または着用した衣服等に装着され、現場等の映像を撮像する。
警察官は、例えば、警察署に戻り、ウェアラブルカメラで撮影(録画)した映像を、警察署内の端末装置で再生し、再生した映像に基づいて事件に関するレポートを作成する場合がある。
特開2016−181767号公報
ウェアラブルカメラが録画する映像データには、銃声等の事件に関する音が含まれる場合がある。また、映像データには、警察官、容疑者、または目撃者等が発する音声が含まれる場合がある。
レポート作成では、音の発生方向を記載する場合がある。映像データに音の発生方向に関する情報が含まれていると、レポート作成が容易になる場合がある。
本開示の非限定的な実施例は、映像データに基づいたレポート作成を容易にするウェアラブルカメラの提供に資する。
本開示の一態様に係るウェアラブルカメラは、撮像部と、前記撮像部により撮像された映像データを記憶する記憶部と、筺体の異なる位置に配置され、音を集音し、信号を出力する複数の集音部と、前記信号の出力タイミングのずれに基づいて、前記音の発生方向を判定し、前記音の発生方向を属性情報として前記映像データに付与する制御部と、を備える。
本開示の一態様に係る映像データ生成方法は、ウェアラブルカメラの映像データ生成方法であって、筺体の異なる位置に配置され、音を集音する複数の集音部の各々から出力される信号の出力タイミングのずれに基づいて、前記音の発生方向を判定し、前記音の発生方向を属性情報として撮像部が撮影した映像データに付与する。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様によれば、映像データに基づいたレポート作成を容易にすることができる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
実施の形態に係るウェアラブルカメラシステムの構成例を示した図 ウェアラブルカメラを装着した警察官の上半身の一例を示した図 ウェアラブルカメラの外観例を示した図 図3のウェアラブルカメラのブロック構成例を示した図 話者を示した図 図5の警察官が発話したときのマイクロホンから出力される信号の波形例を示した図 図5の人が発話したときのマイクロホンから出力される信号の波形例を示した図 図5の人が発話したときのマイクロホンから出力される信号の波形例を示した図 図5の人が発話したときのマイクロホンから出力される信号の波形例を示した図 属性情報の付与を説明する図 ウェアラブルカメラの動作例を示したフローチャート 識別情報の付与を説明する図
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1は、実施の形態に係るウェアラブルカメラシステムの構成例を示した図である。図1に示すように、ウェアラブルカメラシステムは、ウェアラブルカメラ1と、車載システム2と、サーバ3と、端末装置4と、を有する。
車載システム2、サーバ3、および端末装置4は、ネットワーク5を介して接続される。ウェアラブルカメラ1は、車載システム2およびネットワーク5を介して、サーバ3および端末装置4と接続される。ネットワーク5は、例えば、携帯電話等の無線通信ネットワークおよびインターネット等のネットワークを含んでもよい。
ウェアラブルカメラ1は、例えば、警察官に装着または所持される(例えば、図2を参照)。ウェアラブルカメラ1は、例えば、Wi−Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信によって、車載システム2と通信する。
車載システム2は、例えば、警察車両A1に搭載される。車載システム2は、例えば、車載カメラ(図示せず)、パーソナルコンピュータ等の制御装置(図示せず)、および通信装置(図示せず)等を有している。
車載システム2は、例えば、ウェアラブルカメラ1から、ウェアラブルカメラ1が撮影した映像データを受信する。車載システム2は、ウェアラブルカメラ1から受信した映像データを、ネットワーク5を介して、サーバ3に送信する。また、車載システム2は、車載カメラが撮影した映像データを、ネットワーク5を介して、サーバ3に送信する。
サーバ3は、ウェアラブルカメラ1が撮影した映像データおよび車載システム2の車載カメラが撮影した映像データを記憶する。また、サーバ3は、端末装置4によって作成されたレポート等を記憶する。
端末装置4は、例えば、警察署A2において、警察官によって使用される。端末装置4は、警察官の操作に応じて、サーバ3にアクセスし、サーバ3に記憶されている映像データを表示装置に表示する。また、端末装置4は、警察官の操作に応じて、事件等に関するレポートを作成する。例えば、警察官は、ウェアラブルカメラ1で撮影(録画)した映像を端末装置4で再生し、再生した映像に基づいて事件に関するレポートを作成する。端末装置4は、作成したレポートを、ネットワーク5を介して、サーバ3に送信する。
なお、ウェアラブルカメラ1は、車載システム2およびネットワーク5を介して、サーバ3および端末装置4と接続されるとしたが、これに限られない。ウェアラブルカメラ1は、車載システム2を介さず、ネットワーク5を介して、サーバ3および端末装置4と接続されてもよい。
図2は、ウェアラブルカメラ1を装着した警察官U1の上半身の一例を示した図である。図2において、図1と同じものには同じ符号が付してある。
ウェアラブルカメラ1は、ユーザである警察官U1の前方(正面方向)を撮影するように、警察官U1の制服の前部に装着または保持される。すなわち、ウェアラブルカメラ1は、警察官U1の顔より下であって、かつ、筐体正面が警察官U1の前方を向くように配置される。
ウェアラブルカメラ1は、例えば、首から紐で吊り下げた状態で制服の前部に固定されてもよい。ウェアラブルカメラ1は、ウェアラブルカメラ1の筐体の背面に取り付けられた取付具(例えば、取付用クリップ)と制服の前部に取り付けられた被取付具とが係合することで制服の前部に固定されてもよい。
図3は、ウェアラブルカメラ1の外観例を示した図である。図3に示すように、ウェアラブルカメラ1の筐体の正面には、カメラレンズ11aと、マイクロホンMC1〜MC4と、スイッチSW1,SW2と、が配置されている。ウェアラブルカメラの筐体の上面には、LED(Light Emitting Diode)26a〜26cが配置されている。
マイクロホンMC1〜MC4は、警察官の発する声および周囲の音を集音する。マイクロホンMC1は、マイクロホンMC4より上方に配置されている。例えば、マイクロホンMC1は、マイクロホンMC4の垂直方向上に配置されている。言い換えれば、マイクロホンMC1は、マイクロホンMC4より警察官の顔に近い位置に配置されている。
後述するが、ウェアラブルカメラ1は、マイクロホンMC1〜MC4の各々から出力される信号の出力タイミングのずれに基づいて、音の発生した方向を判定する。そのため、マイクロホンMC1,MC4は、互いにできるだけ離れて配置されるのがよい。例えば、マイクロホンMC1は、筺体正面の上端に配置されてもよい。マイクロホンMC4は、筺体正面の下端に配置されてもよい。
なお、マイクロホンMC1は、ウェアラブルカメラ1の筐体の上面に配置されてもよい。この場合、マイクロホンMC1は、警察官U1の音声を、筐体の正面に配置された場合より拾いやすくなる。
マイクロホンMC2,MC3は、マイクロホンMC1とマイクロホンMC4との間であって、マイクロホンMC1とマイクロホンMC4とを結ぶ線を境に左右に配置されている。例えば、ウェアラブルカメラ1を正面から見て、マイクロホンMC2は、マイクロホンMC1とマイクロホンMC4とを結ぶ線を境に、左側に配置されている。マイクロホンMC3は、マイクロホンMC1とマイクロホンMC4とを結ぶ線を境に、右側に配置されている。
後述するが、ウェアラブルカメラ1は、マイクロホンMC1〜MC4の各々から出力される信号の出力タイミングのずれに基づいて、音の発生した方向を判定する。そのため、マイクロホンMC2,MC3は、互いにできるだけ離れて配置されるのがよい。例えば、マイクロホンMC2は、筺体正面の左端に配置されてもよい。マイクロホンMC3は、筺体正面の右端に配置されてもよい。また、マイクロホンMC2,MC3は、マイクロホンMC1,MC4とできるだけ離れて配置されるのがよい。
スイッチSW1は、ウェアラブルカメラ1の撮影(動画像の録画)の開始/停止の操作を受付けるボタンスイッチである。例えば、ウェアラブルカメラ1は、スイッチSW1が1回押下されると、撮影を開始する。ウェアラブルカメラ1は、次にスイッチSW1が1回押下されると撮影を停止する。ウェアラブルカメラ1は、さらにスイッチSW1が1回押下されると、撮影を開始する。
スイッチSW2は、ウェアラブルカメラ1の静止画像の撮影操作を受付けるボタンスイッチである。例えば、ウェアラブルカメラ1は、スイッチSW2が1回押下されるたびに、静止画像を撮影する。
LED26a〜26cは、点灯状態によって、ウェアラブルカメラ1の動作状態を示す。例えば、LED26a〜26cは、点灯状態によって、ウェアラブルカメラ1が録画中であるか否かを示す。
図4は、図3のウェアラブルカメラ1のブロック構成例を示した図である。図4に示すように、ウェアラブルカメラ1は、撮像部11と、GPIO(General Purpose Input/Output)12と、RAM(Random access memory)13と、ROM(Read Only Memory)14と、記憶部15と、EEPROM(Electrically Erasable Programmable Read-Only Memory)16と、RTC(Real Time Clock)17と、GPS(Global Positioning System)18と、制御部19と、通信部21と、USB(Universal Serial Bus)22と、コンタクトターミナル23と、電源部24と、バッテリ25と、LED26a,26b,26cと、バイブレータ27と、オーディオコーデック28と、スイッチSW1,SW2と、マイクロホンMC1〜MC4と、を有している。
撮像部11は、カメラレンズ11a(図3を参照)と、固体撮像素子(図示せず)とを有している。個体撮像素子は、カメラレンズ11aを通して受けた光を電気信号に変換する。撮像部11は、個体撮像素子の電気信号(映像データ)を制御部19に出力する。
GPIO12は、シリアルパラレル変換用のインタフェースである。GPIO12は、スイッチSW1,SW2、LED26a〜26c、およびバイブレータ27と、制御部19との間の信号の入出力を行う。
RAM13は、制御部19の動作において使用されるワークメモリである。
ROM14は、制御部19を制御するためのプログラムおよびデータを予め記憶するメモリである。
記憶部15は、例えば、SDメモリ等の外部記憶媒体である。記憶部15は、撮像部11にて撮像して得られた映像データを記憶する。記憶部15は、ウェアラブルカメラ1の筐体本体に対して取付け及び取外しが可能である。
EEPROM16は、ウェアラブルカメラ1を識別する識別情報(例えば、カメラID)、および他の設定情報を記憶する。
RTC17は、現在の時刻情報をカウントして制御部19に出力する。
GPS18は、GPS発信機から送信されるGPS信号を受信して、現在のウェアラブルカメラ1の位置情報を算出する。GPS18は、算出した位置情報を制御部19に出力する。
制御部19は、ROM14に記憶されたプログラムおよびデータに従って動作し、ウェアラブルカメラ1全体を制御する。例えば、制御部19は、各部との間のデータの入出力処理、データの演算(計算)処理、およびデータの記憶処理を行う。制御部19は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)等によって構成されてもよい。
通信部21は、例えば、OSI(Open Systems Interconnection)参照モデルの第1層である物理層において、制御部19と車載システム2との間を接続する。
USB22は、例えば、車載システム2との接続を可能とする。また、USB22は、例えば、警察署A2内の端末装置4との接続を可能とする。
コンタクトターミナル23は、クレードル(図示せず)または外付けアダプタ(図示せず)等と電気的に接続される端子である。コンタクトターミナル23は、USB22を介して制御部19に接続されるともに、電源部24と接続される。ウェアラブルカメラ1は、クレードルまたはアダプタを介して、充電が可能となり、または外部装置との通信が可能となる。
電源部24は、コンタクトターミナル23を介して、クレードルまたは外付けアダプタより供給される電源電力をバッテリ25に給電する。
バッテリ25は、充電可能な2次電池により構成され、ウェアラブルカメラ1の各部に電源電力を供給する。
スイッチSW1は、ウェアラブルカメラ1の撮影の開始/停止の操作を受付けるボタンスイッチである。スイッチSW2は、ウェアラブルカメラ1の静止画像の撮影操作を受付けるボタンスイッチである。
LED26a〜26cは、点灯状態によって、ウェアラブルカメラ1の動作状態を示す。バイブレータ27は、振動によって、ウェアラブルカメラ1の動作状態を示す。
マイクロホンMC1〜MC4は、ウェアラブルカメラ1を装着した警察官の発話音声および周囲の音を集音し、集音により得られた信号をオーディオコーデック28に出力する。オーディオコーデック28は、信号を符号化(圧縮)し、制御部19に出力する。
以下、音の発生方向の判定について説明する。
図5は、話者を示した図である。図5には、図2に示した警察官U1と、人P1〜P3と、が示してある。人P1〜P3は、例えば、犯人、容疑者、証人、または目撃者等である。
人P1は、警察官U1から見て、右側に立っている。人P2は、警察官U1から見て、正面に立っている。人P3は、警察官U1から見て、左側に立っている。人P1〜P3は、警察官U1の方を向いて立っている。
警察官U1は、ウェアラブルカメラ1を装着している。警察官U1は、ウェアラブルカメラ1のスイッチSW1を押下して録画を開始し、例えば、人P1〜P3に対してインタビューを行う。
図6は、図5の警察官U1が発話したときのマイクロホンMC1〜MC4から出力される信号の波形例を示した図である。図6に示す横軸は時間を示し、縦軸は電圧を示す。
図6に示す波形W1aは、マイクロホンMC1から出力された信号の波形を示している。図6に示す波形W1bは、マイクロホンMC2から出力された信号の波形を示している。図6に示す波形W1cは、マイクロホンMC3から出力された信号の波形を示している。図6に示す波形W1dは、マイクロホンMC4から出力された信号の波形を示している。
マイクロホンMC1は、図5に示した警察官U1の口に最も近い位置にある(図2および図3を参照)。マイクロホンMC2,MC3は、マイクロホンMC1の次に、警察官U1の口に近い位置にある。マイクロホンMC4は、警察官U1の口から最も遠い位置にある。
従って、警察官U1が発話した音声は、マイクロホンMC1〜MC4に到達する時間が異なる。警察官U1が発話した音声の、マイクロホンMC1〜MC4への到達時間が異なるため、マイクロホンMC1〜MC4から出力される信号(警察官の発話に基づく信号)の出力タイミングは、異なる。
例えば、波形W1aに示すように、最初、マイクロホンMC1から信号が出力される。例えば、時刻t1において、マイクロホンMC1から信号が出力される。
次に、波形W1b,1cに示すように、マイクロホンMC2,MC3から信号が出力される。例えば、時刻t21,t22において、マイクロホンMC2,MC3から信号が出力される。なお、マイクロホンMC2と警察官U1の口との距離と、マイクロホンMC3と警察官U1の口との距離とは、略同じであるため、略同時刻t21,t22において、マイクロホンMC2,MC3から信号が出力される。
最後に、波形W1dに示すように、マイクロホンMC4から信号が出力される。例えば、時刻t3において、マイクロホンMC4から信号が出力される。
制御部19は、マイクロホンMC1〜MC4の各々から出力される信号の出力タイミングのずれに基づいて、音の発生した方向を判定する。
例えば、制御部19は、最初に信号を出力したマイクロホンを判定する。図6の例の場合、最初に信号を出力したのは、上下方向に配置されたマイクロホンMC1,MC4のうちのマイクロホンMC1である。制御部19は、少なくとも、ウェアラブルカメラ1の上方から音が発せられたと判定する。
制御部19は、最初に信号を出力したマイクロホンを判定すると、次に信号を出力したマイクロホンを判定する。図6の例の場合、次に信号を出力したのは、左右方向に配置されたマイクロホンMC2,MC3(略同時刻に出力)である。制御部19は、ウェアラブルカメラ1の左右方向の中央から音が発せられたと判定する。
制御部19は、さらに、次に信号を出力したマイクロホンを判定する。図6の例の場合、次に信号を出力したのは、上下方向に配置されたマイクロホンMC1,MC4のうちのマイクロホンMC4である。制御部19は、最初に信号を出力したマイクロホンMC1と、最後に信号を出力したマイクロホンMC4とから、ウェアラブルカメラ1の上方から音が発せられたと判定する。
以上から、制御部19は、ウェアラブルカメラ1の上方から音が発せられたと判定する。
なお、制御部19は、ウェアラブルカメラ1の上方から音が発せられたと判定した場合、ウェアラブルカメラ1を所持する警察官U1が発話したと判定してもよい。
また、制御部19は、マイクロホンMC1〜MC4から出力される信号の大きさが所定の閾値を超えた場合に、マイクロホンMC1〜MC4から信号が出力されたと判定してもよい。言い換えれば、制御部19は、所定の閾値を超えた信号(音声、銃声、または事故による衝突音等の特定音の信号)において、音の発生方向を判定してもよい。
図7は、図5の人P1が発話したときのマイクロホンMC1〜MC4から出力される信号の波形例を示した図である。図7に示す横軸は時間を示し、縦軸は電圧を示す。
図7に示す波形W2aは、マイクロホンMC1から出力された信号の波形を示している。図7に示す波形W2bは、マイクロホンMC2から出力された信号の波形を示している。図7に示す波形W2cは、マイクロホンMC3から出力された信号の波形を示している。図7に示す波形W2dは、マイクロホンMC4から出力された信号の波形を示している。
マイクロホンMC2は、図5に示した人P1(人P1の口)に最も近い位置にある(図2および図3を参照)。マイクロホンMC1,MC4は、マイクロホンMC2の次に、人P1に近い位置にある。マイクロホンMC3は、人P1から最も遠い位置にある。
従って、人P1が発話した音声は、マイクロホンMC1〜MC4に到達する時間が異なる。人P1が発話した音声の、マイクロホンMC1〜MC4への到達時間が異なるため、マイクロホンMC1〜MC4から出力される信号(人P1の発話に基づく信号)の出力タイミングは、異なる。
例えば、波形W2bに示すように、最初、マイクロホンMC2から信号が出力される。例えば、時刻t1において、マイクロホンMC2から信号が出力される。
次に、波形W2a,2dに示すように、マイクロホンMC1,MC4から信号が出力される。例えば、時刻t21,t22において、マイクロホンMC1,MC4から信号が出力される。なお、マイクロホンMC1と人P1との距離と、マイクロホンMC4と人P1との距離とは、略同じであるため、略同時刻t21,t22において、マイクロホンMC1,MC4から信号が出力される。
最後に、波形W2cに示すように、マイクロホンMC3から信号が出力される。例えば、時刻t3において、マイクロホンMC3から信号が出力される。
制御部19は、マイクロホンMC1〜MC4の各々から出力される信号の出力タイミングのずれに基づいて、音の発生した方向を判定する。
例えば、制御部19は、最初に信号を出力したマイクロホンを判定する。図7の例の場合、最初に信号を出力したのは、左右方向に配置されたマイクロホンMC2,MC3のうちのマイクロホンMC2である。制御部19は、少なくとも、ウェアラブルカメラ1の正面方向から見て(警察官U1から見て)右方から音が発せられたと判定する。
制御部19は、最初に信号を出力したマイクロホンを判定すると、次に信号を出力したマイクロホンを判定する。図7の例の場合、次に信号を出力したのは、上下方向に配置されたマイクロホンMC1,MC4(略同時刻に出力)である。制御部19は、ウェアラブルカメラ1の上下方向の中央付近から音が発せられたと判定する。
制御部19は、さらに、次に信号を出力したマイクロホンを判定する。図7の例の場合、次に信号を出力したのは、左右方向に配置されたマイクロホンMC2,MC3のうちのマイクロホンMC3である。制御部19は、最初に信号を出力したマイクロホンMC2と、最後に信号を出力したマイクロホンMC3とから、ウェアラブルカメラ1の右方から音が発せられたと判定する。
以上から、制御部19は、ウェアラブルカメラ1の右方から音が発せられたと判定する。
図8は、図5の人P2が発話したときのマイクロホンMC1〜MC4から出力される信号の波形例を示した図である。図8に示す横軸は時間を示し、縦軸は電圧を示す。
図8に示す波形W3aは、マイクロホンMC1から出力された信号の波形を示している。図8に示す波形W3bは、マイクロホンMC2から出力された信号の波形を示している。図8に示す波形W3cは、マイクロホンMC3から出力された信号の波形を示している。図8に示す波形W3dは、マイクロホンMC4から出力された信号の波形を示している。
マイクロホンMC1〜MC4は、図5に示した人P2(人P2の口)と略同じ距離にある。
従って、人P2が発話した音声は、マイクロホンMC1〜MC4に到達する時間が略同じになる。
例えば、波形W3a〜W3dに示すように、略同時刻t11〜t14において、マイクロホンMC1〜MC4から信号が出力される。
制御部19は、マイクロホンMC1〜MC4から略同時刻t11〜t14に信号が出力された場合、ウェアラブルカメラ1の正面から音が発せられたと判定する。
図9は、図5の人P3が発話したときのマイクロホンMC1〜MC4から出力される信号の波形例を示した図である。図9に示す横軸は時間を示し、縦軸は電圧を示す。
図9に示す波形W4aは、マイクロホンMC1から出力された信号の波形を示している。図9に示す波形W4bは、マイクロホンMC2から出力された信号の波形を示している。図9に示す波形W4cは、マイクロホンMC3から出力された信号の波形を示している。図9に示す波形W4dは、マイクロホンMC4から出力された信号の波形を示している。
マイクロホンMC3は、図5に示した人P3(人P3の口)に最も近い位置にある(図2および図3を参照)。マイクロホンMC1,MC4は、マイクロホンMC3の次に、人P3に近い位置にある。マイクロホンMC2は、人P3から最も遠い位置にある。
従って、人P3が発話した音声は、マイクロホンMC1〜MC4に到達する時間が異なる。人P3が発話した音声の、マイクロホンMC1〜MC4への到達時間が異なるため、マイクロホンMC1〜MC4から出力される信号(人P3の発話に基づく信号)の出力タイミングは、異なる。
例えば、波形W4cに示すように、最初、マイクロホンMC3から信号が出力される。例えば、時刻t1において、マイクロホンMC3から信号が出力される。
次に、波形W4a,4dに示すように、マイクロホンMC1,MC4から信号が出力される。例えば、時刻t21,t22において、マイクロホンMC1,MC4から信号が出力される。なお、マイクロホンMC1と人P3との距離と、マイクロホンMC4と人P3との距離とは、略同じであるため、略同時刻t21,t22において、マイクロホンMC1,MC4から信号が出力される。
最後に、波形W4bに示すように、マイクロホンMC2から信号が出力される。例えば、時刻t3において、マイクロホンMC2から信号が出力される。
制御部19は、マイクロホンMC1〜MC4の各々から出力される信号の出力タイミングのずれに基づいて、音の発生した方向を判定する。
例えば、制御部19は、最初に信号を出力したマイクロホンを判定する。図9の例の場合、最初に信号を出力したのは、左右方向に配置されたマイクロホンMC2,MC3のうちのマイクロホンMC3である。制御部19は、少なくとも、ウェアラブルカメラ1の左方から音が発せられたと判定する。
制御部19は、最初に信号を出力したマイクロホンを判定すると、次に信号を出力したマイクロホンを判定する。図9の例の場合、次に信号を出力したのは、上下方向に配置されたマイクロホンMC1,MC4(略同時刻に出力)である。制御部19は、ウェアラブルカメラ1の上下方向の中央付近から音が発せられたと判定する。
制御部19は、さらに、次に信号を出力したマイクロホンを判定する。図9の例の場合、次に信号を出力したのは、左右方向に配置されたマイクロホンMC2,MC3のうちのマイクロホンMC2である。制御部19は、最初に信号を出力したマイクロホンMC3と、最後に信号を出力したマイクロホンMC2とから、ウェアラブルカメラ1の左方から音が発せられたと判定する。
以上から、制御部19は、ウェアラブルカメラ1の左方から音が発せられたと判定する。
図6〜図9では、制御部19は、人の声の発生方向を判定したが、これに限られない。制御部19は、例えば、銃声または事故による衝突音等の事件に関する音の発生方向を判定してもよい。事件に関する音の発生方向の判定方法は、図6〜図9で説明した方法と同様である。
制御部19は、音の発生方向を判定すると、判定した音の発生方向を属性情報として、映像データに付与する。
図10は、属性情報の付与を説明する図である。図10には、映像データが示してある。映像データには、音声データも含まれている。図10に示す横軸は、時間を示す。図5に示した警察官U1および人P1〜P3は、図10の両矢印に示す間、発話する。
制御部19は、マイクロホンMC1〜MC4から出力される信号の出力タイミングに基づいて、音の発生した方向を判定する。
例えば、警察官U1が発話した場合、制御部19は、ウェアラブルカメラ1の上方から、音が発生したと判定する。制御部19は、音の発生方向を判定すると、図10の矢印A11に示すように、警察官U1が発話を開始した時刻において、音の発生方向はウェアラブルカメラ1の上方であることを示す属性情報を、映像データに付与する。
人P1が発話した場合、制御部19は、ウェアラブルカメラ1の右方から、音が発生したと判定する。制御部19は、音の発生方向を判定すると、図10の矢印A12に示すように、人P1が発話を開始した時刻において、音の発生方向はウェアラブルカメラ1の右方であることを示す属性情報を、映像データに付与する。
人P2が発話した場合、制御部19は、ウェアラブルカメラ1の正面から、音が発生したと判定する。制御部19は、音の発生方向を判定すると、図10の矢印A13に示すように、人P2が発話を開始した時刻において、音の発生方向はウェアラブルカメラ1の正面であることを示す属性情報を、映像データに付与する。
人P3が発話した場合、制御部19は、ウェアラブルカメラ1の左方から、音が発生したと判定する。制御部19は、音の発生方向を判定すると、図10の矢印A14に示すように、人P3が発話を開始した時刻において、音の発生方向はウェアラブルカメラ1の左方であることを示す属性情報を、映像データに付与する。
なお、制御部19は、音の発生方向に関する属性情報を映像データに付与する際、映像データの映像中における時刻および位置情報を属性情報として、映像データに付与してもよい。
図11は、ウェアラブルカメラ1の動作例を示したフローチャートである。制御部19は、録画中に図11に示すフローチャートの処理を実行してもよい。
制御部19は、マイクロホンMC1〜MC4から信号を受信する(ステップS1)。
制御部19は、ステップS1にて受信した信号の出力タイミングのずれから、話者の方向を判定する(ステップS2)。
例えば、制御部19は、マイクロホンMC1〜MC4から出力される信号の出力順に基づいて、話者の方向を判定してもよい。
また、制御部19は、ステップS1にて受信した信号の出力時間差から、ウェアラブルカメラ1の正面方向を基準(例えば、0度)とした、音声の発生方向(角度)を判定してもよい。言い換えれば、制御部19は、音声の到着時間差から、ウェアラブルカメラ1の正面方向を基準とした、音声の発生方向を判定してもよい。
制御部19は、ステップS2にて判定した方向の信号に対し、ノイズを除去する(ステップS3)。例えば、制御部19は、ステップS2にて判定した方向の音を集音するマイクロホンMC1〜MC4から出力される信号に対し、音声帯域以外の帯域の信号を除去する。制御部19は、例えば、デジタルフィルタによって、音声帯域以外の帯域の信号を除去してもよい。
制御部19は、ステップS2にて判定した話者の方向を属性情報として映像データに付与する(ステップS4)。制御部19は、話者の方向を属性情報として映像データに付与する際、映像データの映像中における時刻および位置情報を属性情報として、映像データに付与してもよい。
なお、図11のフローチャートでは、制御部19は、話者の方向を判定したが、これに限られない。制御部19は、銃声または事故による衝突音等の発生方向も判定してよい。
また、図11のフローチャートでは、録画中に属性情報を映像データに付与したが、これに限られない。制御部19は、録画停止後、記憶部15に記憶された映像データから、属性情報を生成し、映像データに付与してもよい。例えば、制御部19は、記憶部15に記憶された映像データを車載システム2に送信する際、映像データに含まれるマイクロホンMC1〜MC4の信号から音の発生方向を判定する。制御部19は、判定した音の発生方向を属性情報として映像データに付与する。制御部19は、属性情報を付与した映像データを車載システム2に送信する。
以上説明したように、ウェアラブルカメラ1は、撮像部11と、撮像部11により撮像された映像データを記憶する記憶部15と、筺体の異なる位置に配置され、音を集音する複数のマイクロホンMC1〜MC4と、複数のマイクロホンMC1〜MC4の各々から出力される信号の出力タイミングのずれに基づいて、音の発生した方向を判定し、判定した方向を属性情報として前記映像データに付与する制御部19と、を備える。
これにより、警察官は、映像データに基づいたレポート作成が容易となる。例えば、警察官は、映像データに含まれる属性情報を、端末装置4に表示させることにより、音の発生方向を把握でき、把握した音の発生方向をレポートに記載できる。また、警察官は、音の発生方向から、例えば、だれが発話したかを把握でき、発話者をレポートに記載できる。
(変形例1)
マイクロホンの数は、4つに限られない。マイクロホンの数は、5つ以上であってもよい。マイクロホンの数が多い程、制御部19は、音の発生方向を細かく判定できる。
マイクロホンの数は、2つであってもよい。例えば、ウェアラブルカメラ1は、マイクロホンMC1とマイクロホンMC4との2つを備えてもよい。この場合、制御部19は、ウェアラブルカメラ1を装着した警察官と、その他の人の音声とを区別できる。制御部10は、警察官が発話したことを示す属性情報を映像データに付与してもよい。
(変形例2)
制御部19は、マイクロホンMC1〜MC4から出力される信号の周波数に基づいて、音の発生源を区別し、区別した発生源を識別する識別情報を属性情報として映像データに付与してもよい。
図12は、識別情報の付与を説明する図である。例えば、図12には、映像データが示してある。映像データには、音声データも含まれている。図12に示す横軸は、時間を示す。図5に示した警察官U1および人P1〜P3は、図12の両矢印に示す間、発話する。
制御部19は、マイクロホンMC1〜MC4から出力される信号(音)を周波数解析する。制御部19は、警察官U1および人P1〜P3が発した音声を周波数解析し、音声の発生源である警察官U1および人P1〜P3を区別する。制御部19は、区別した警察官U1および人P1〜P3のそれぞれを識別する識別情報を生成し、生成した識別情報を属性情報として映像データに付与する。
例えば、制御部19は、警察官U1が発話すると、警察官U1の識別情報Aを生成する。制御部19は、矢印A21に示すように、警察官U1が発話を開始した時刻において、識別情報Aを属性情報として映像データに付与する。
制御部19は、人P1が発話すると、警察官U1の識別情報Aと異なる識別情報Bを生成する。制御部19は、矢印A22に示すように、人P1が発話を開始した時刻において、識別情報Bを属性情報として映像データに付与する。
制御部19は、警察官U1が発話すると、矢印A23に示すように、警察官U1が発話を開始した時刻において、すでに生成した識別情報Aを属性情報として映像データに付与する。
制御部19は、人P3が発話すると、警察官U1および人P1の識別情報A,Bと異なる識別情報Cを生成する。制御部19は、矢印A24に示すように、人P3が発話を開始した時刻において、識別情報Cを属性情報として映像データに付与する。
制御部19は、人P2が発話すると、警察官U1および人P1,P2の識別情報A,B,Cと異なる識別情報Dを生成する。制御部19は、矢印A25に示すように、人P2が発話を開始した時刻において、識別情報Dを属性情報として映像データに付与する。
制御部19は、人P1が発話すると、矢印A26に示すように、人P1が発話を開始した時刻において、すでに生成した識別情報Bを属性情報として映像データに付与する。
このように、制御部19は、発話者を識別する識別情報を映像データに付与する。これにより、警察官は、レポートの作成が容易となる。例えば、端末装置4は、警察官の操作に応じて、映像データに属性情報として付与された識別情報を検索して再生することにより、特定の人物が発話した映像を選択的に再生できる。
(変形例3)
ウェアラブルカメラ1を装着するユーザは、警察官に限られない。ウェアラブルカメラ1を装着するユーザは、警備員等であってもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本開示は、例えば、警察官に装着され、撮影を行うウェアラブルカメラに有用である。
1 ウェアラブルカメラ
2 車載システム
3 サーバ
4 端末装置
5 ネットワーク
11 撮像部
11a カメラレンズ
12 GPIO
13 RAM
14 ROM
15 記憶部
16 EEPROM
17 RTC
18 GPS
19 制御部
21 通信部
22 USB
23 コンタクトターミナル
24 電源部
25 バッテリ
26a,26b,26c LED
27 バイブレータ
28 オーディオコーデック
SW1,SW2 スイッチ
MC1〜MC4 マイクロホン
A1 警察車両
A2 警察署

Claims (5)

  1. 撮像部と、
    前記撮像部により撮像された映像データを記憶する記憶部と、
    筺体の異なる位置に配置され、音を集音し、信号を出力する複数の集音部と、
    前記信号の出力タイミングのずれに基づいて、前記音の発生方向を判定し、前記音の発生方向を属性情報として前記映像データに付与する制御部と、
    を有するウェアラブルカメラ。
  2. 前記ウェアラブルカメラは、前記ウェアラブルカメラを装着または保持するユーザの顔より下であって、かつ、前記筐体の正面が前記ユーザの前方を向くように配置され、
    前記複数の集音部の第1の集音部は、前記複数の集音部の第2の集音部より前記ユーザの顔に近い位置に配置される、
    請求項1に記載のウェアラブルカメラ。
  3. 前記複数の集音部の第3の集音部および第4の集音部は、前記第1の集音部と第2の集音部との間であって、前記第1の集音部と第2の集音部とを結ぶ線を境に左右に配置される、
    請求項2に記載のウェアラブルカメラ。
  4. 前記制御部は、前記信号の周波数に基づいて前記音の発生源を区別し、前記音の発生源を識別する識別情報を属性情報として前記映像データに付与する、
    請求項1から3のいずれか一項に記載のウェアラブルカメラ。
  5. ウェアラブルカメラの映像データ生成方法であって、
    筺体の異なる位置に配置され、音を集音する複数の集音部の各々から出力される信号の出力タイミングのずれに基づいて、前記音の発生方向を判定し、
    前記音の発生方向を属性情報として撮像部が撮影した映像データに付与する、
    映像データ生成方法。
JP2019044753A 2019-03-12 2019-03-12 ウェアラブルカメラおよび映像データ生成方法 Pending JP2020150360A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019044753A JP2020150360A (ja) 2019-03-12 2019-03-12 ウェアラブルカメラおよび映像データ生成方法
US16/786,699 US11223794B2 (en) 2019-03-12 2020-02-10 Wearable camera and video data generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044753A JP2020150360A (ja) 2019-03-12 2019-03-12 ウェアラブルカメラおよび映像データ生成方法

Publications (1)

Publication Number Publication Date
JP2020150360A true JP2020150360A (ja) 2020-09-17

Family

ID=72422958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044753A Pending JP2020150360A (ja) 2019-03-12 2019-03-12 ウェアラブルカメラおよび映像データ生成方法

Country Status (2)

Country Link
US (1) US11223794B2 (ja)
JP (1) JP2020150360A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112887613A (zh) * 2021-01-27 2021-06-01 维沃移动通信有限公司 拍摄方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197552A (ja) * 2004-12-17 2006-07-27 Univ Waseda 音源分離システムおよび音源分離方法、並びに音響信号取得装置
JP2010251916A (ja) * 2009-04-13 2010-11-04 Nec Casio Mobile Communications Ltd 音データ処理装置、及び、プログラム
JP2013161098A (ja) * 2012-02-01 2013-08-19 Nikon Corp サーバ装置及び監視システム
WO2015107737A1 (ja) * 2014-01-20 2015-07-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018043235A1 (ja) * 2016-08-29 2018-03-08 Groove X株式会社 音源の方向を認識する自律行動型ロボット

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4001958B2 (ja) * 1996-08-19 2007-10-31 ソニー株式会社 撮像装置
US10904658B2 (en) * 2008-07-31 2021-01-26 Nokia Technologies Oy Electronic device directional audio-video capture
US9094645B2 (en) * 2009-07-17 2015-07-28 Lg Electronics Inc. Method for processing sound source in terminal and terminal using the same
JP2016181767A (ja) 2015-03-23 2016-10-13 パナソニックIpマネジメント株式会社 ウェアラブルカメラ及びウェアラブルカメラシステム
CN110622500B (zh) * 2017-05-18 2021-08-24 索尼公司 成像设备和成像方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197552A (ja) * 2004-12-17 2006-07-27 Univ Waseda 音源分離システムおよび音源分離方法、並びに音響信号取得装置
JP2010251916A (ja) * 2009-04-13 2010-11-04 Nec Casio Mobile Communications Ltd 音データ処理装置、及び、プログラム
JP2013161098A (ja) * 2012-02-01 2013-08-19 Nikon Corp サーバ装置及び監視システム
WO2015107737A1 (ja) * 2014-01-20 2015-07-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018043235A1 (ja) * 2016-08-29 2018-03-08 Groove X株式会社 音源の方向を認識する自律行動型ロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112887613A (zh) * 2021-01-27 2021-06-01 维沃移动通信有限公司 拍摄方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
US11223794B2 (en) 2022-01-11
US20200296321A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP4669041B2 (ja) ウェアラブル端末
JP7347597B2 (ja) 動画編集装置、動画編集方法及びプログラム
US20210350823A1 (en) Systems and methods for processing audio and video using a voice print
US20150172830A1 (en) Method of Audio Signal Processing and Hearing Aid System for Implementing the Same
US20130343584A1 (en) Hearing assist device with external operational support
CN113411726A (zh) 一种音频处理方法、装置及系统
TWI222622B (en) Robotic vision-audition system
EP3533237A1 (en) Facial recognition system
CN111326156A (zh) 一种智能头盔控制方法、装置
US12300248B2 (en) Audio signal processing for automatic transcription using ear-wearable device
JP6740641B2 (ja) ウェアラブル端末、制御方法、およびプログラム
CN107404682B (zh) 一种智能耳机
US20220284915A1 (en) Separation of signals based on direction of arrival
US12063465B2 (en) Neck-worn device
JP2020150360A (ja) ウェアラブルカメラおよび映像データ生成方法
WO2016151994A1 (ja) ウェアラブルカメラ及びウェアラブルカメラシステム
CN112565598B (zh) 聚焦方法与装置、终端、计算机可读存储介质和电子设备
CN111065020A (zh) 音频数据处理的方法和装置
CN114360206A (zh) 一种智能报警方法、耳机、终端和系统
US11127435B2 (en) Wearable camera
TWI814651B (zh) 整合影像、音訊定位與全方位收音陣列之具警示功能輔聽裝置與方法
JP7118456B2 (ja) 首掛け型装置
JP2021141505A (ja) 撮像装置、制御方法、およびプログラム
US20230290369A1 (en) Audio input device
US10397468B2 (en) Recorded image sharing system, method, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509