JP7361460B2 - Communication devices, communication programs, and communication methods - Google Patents
Communication devices, communication programs, and communication methods Download PDFInfo
- Publication number
- JP7361460B2 JP7361460B2 JP2018182423A JP2018182423A JP7361460B2 JP 7361460 B2 JP7361460 B2 JP 7361460B2 JP 2018182423 A JP2018182423 A JP 2018182423A JP 2018182423 A JP2018182423 A JP 2018182423A JP 7361460 B2 JP7361460 B2 JP 7361460B2
- Authority
- JP
- Japan
- Prior art keywords
- connection
- unit
- command
- signal
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Image Analysis (AREA)
Description
本発明は、コミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法に関し、例えば、テレビ会議システムや電話会議システム等において用いられるコミュニケーション装置に適用し得るものである。 The present invention relates to a communication device, a communication program, and a communication method, and is applicable to, for example, a communication device used in a video conference system, a telephone conference system, and the like.
近年、テレビ会議システムや電話会議システム等のコミュニケーションシステムを用いて、遠隔地と、テレビ会議やテレワークなどの通話やコミュニケーションを行う機会が増えている。 2. Description of the Related Art In recent years, there have been an increasing number of opportunities to conduct calls and communicate with remote locations using communication systems such as video conference systems and telephone conference systems.
遠隔通話システムでは、遠隔地の相手と通話を行うために、遠隔通話システムに接続されている入力装置(例えば、マウス、キーボード、リモコンなど)で通話相手先の電話番号などの連絡先を入力、選択して接続する。また近年ではモバイル端末(例えば、スマートフォンやタブレットパソコンなどの端末)の普及により、遠隔通話システムがモバイル端末で動作するものもある。この場合、モバイル端末の画面上に表示されるキーボードで連絡先を入力して接続したり、モバイル端末のタッチパネルディスプレイに表示されている連絡先をタッチして接続したり、モバイル端末の画面上に表示されている通話相手の映像をタッチして接続するなどして、遠隔通話システムが相手側と接続することが多い。 In a remote call system, in order to make a call to a remote party, you enter contact information such as the telephone number of the other party using an input device (e.g., mouse, keyboard, remote control, etc.) connected to the remote call system. Select and connect. Furthermore, in recent years, with the spread of mobile terminals (for example, terminals such as smartphones and tablet computers), some remote call systems operate on mobile terminals. In this case, you can connect by entering the contact information using the keyboard displayed on the screen of the mobile device, connect by touching the contact information displayed on the touch panel display of the mobile device, or connect by entering the contact information on the keyboard displayed on the screen of the mobile device. A remote call system often connects to the other party by touching the displayed image of the other party.
さらに、特許文献1には、遠隔通話システムをロボッ卜に組込み、近親者と単身の高齢者とのコミュニケーション支援するコミュニケーション支援ロボットシステムが提案されている。
Further,
特許文献1に記載のコミュニケーション支援ロボッ卜システムは、タッチパネルディスプレイに表示されている、近親者や高齢者の映像をタッチすることで通話相手に接続され、通話が開始する。
The communication support robot system described in
しかしながら、特許文献1に記載のコミュニケーション支援ロボットシステムは、従来の遠隔通話システムの接続方法と同様に、入力装置で通話相手の連絡先を入力したり、タッチパネルディスプレイに表示されている連絡先をタッチしたりするなどして、通話の開始や終了を行っている。従来の接続方法で遠隔地と接続することは、実際の対面での通話と異なっているため臨場感(例えば、対面で会話しているような感覚)が非常に低い。
However, in the communication support robot system described in
上記の問題を解決するために、例えば、特許文献1に記載のコミュニケーション支援ロボットに搭載されている音声認識システムを使用して、接続先の通話相手の名前や会話を開始するコマンド(例えば、「人名+こんにちは」、「人名+こんばんは」など)などの呼びかける音声(以下、呼びかけ音声)を使用者が発話し、その言葉を音声認識システムに入力し、コミュニケーション支援ロボットが音声認識結果から接続先を判定して接続を開始できるようにすることも考えられる。
In order to solve the above problem, for example, the voice recognition system installed in the communication support robot described in
しかし、呼びかけ音声が音声認識システムに入力され、音声認識結果が得られた後に、音声認識結果から通話相手が決定して相手側に接続されるため、呼びかけ音声が通話相手に伝わらない。このため、通話相手からすると突然接続されることになるので、通話相手は違和感や不安感を得て、臨場感が向上しない。 However, after the calling voice is input to the voice recognition system and the voice recognition result is obtained, the other party is determined from the voice recognition result and the person is connected to the other party, so the calling voice is not transmitted to the other party. For this reason, from the perspective of the other party, the connection is suddenly made, which makes the other party feel uncomfortable and uneasy, and the sense of realism is not improved.
また、例えば、周りで人が話をしていたり、空調などの騒音が大きかったりする場合、使用環境の雑音が大きく、使用者が呼びかけ音声を発話しても、特許文献1に記載のコミュニケーション支援ロボットでは、呼びかけ音声を品質良く収音することができず、相手側との接続や切断が正しく機能しない。
In addition, for example, if there are people talking around you or there is a lot of noise from an air conditioner, etc., the noise in the usage environment is large, and even if the user utters a calling voice, the communication support described in
さらに、特許文献1に記載のコミュニケーション支援ロボットシステムでは、ロボットの使用者側が単身の高齢者向けであるので、1人でしか遠隔通話システムを使用できず、遠隔通話システムを複数の使用者が使用することが出来ない。
Furthermore, in the communication support robot system described in
そのため、使用環境の雑音が大きい場合でも、複数の使用者のいずれかが発話した呼びかけ音声を収音し、収音した呼びかけ音声を正しく認識して、その呼びかけ音声で相手側との接続を開始した後に、その呼びかけ音声を相手側に伝達することで臨場感のある通話を開始することができ、また、通話を終了するときには、複数の使用者のいずれかが発話した通話を切断する音声(以下、切断音声)を正しく認識して、通話が終了してから、相手側との通話が切断できるコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法が望まれている。 Therefore, even if the usage environment is noisy, it can collect the calling voice uttered by any one of multiple users, correctly recognize the collected calling voice, and start a connection with the other party using that calling voice. After that, you can start a realistic call by transmitting the calling voice to the other party, and when ending the call, a voice ( There is a need for a communication device, a communication program, and a communication method that can correctly recognize the disconnection voice (hereinafter referred to as disconnection voice) and disconnect the call with the other party after the call ends.
本発明は、以上の点を考慮してなされたものであり、マイクアレイを使用して複数の話者が発話した音声を強調する信号処理を行い、信号処理した信号を一度バッファに保持すると同時に信号処理した信号に対して音声認識を行う。そして、その音声認識結果が呼びかけ音声かを判定し、呼びかけ音声の場合は、通話相手に接続してから、バッファに保持している呼びかけ音声を出力して呼びかけ音声が相手に伝達して通話を開始することができる。また、通話を終了するときには、マイクアレイを使用して複数の使用者が発話した音声を強調する信号処理を行い、信号処理した信号に対して音声認識を行う。そして、その音声認識結果が切断音声かを判定し、切断音声の場合は、相手側との通話を切断して、より対面での会話に近い状態を再現できる呼びかけ処理装置を提供しようとするものである。 The present invention has been made in consideration of the above points, and uses a microphone array to perform signal processing that emphasizes voices uttered by multiple speakers, and simultaneously stores the processed signals in a buffer. Speech recognition is performed on the processed signal. Then, it is determined whether the voice recognition result is a calling voice, and if it is a calling voice, it connects to the other party, outputs the calling voice held in the buffer, transmits the calling voice to the other party, and completes the call. You can start. Furthermore, when ending a call, signal processing is performed to emphasize the sounds uttered by a plurality of users using a microphone array, and speech recognition is performed on the signal-processed signals. The present invention attempts to provide a calling processing device that can determine whether the voice recognition result is a disconnection voice, and if it is a disconnection voice, disconnect the call with the other party to reproduce a situation that is more similar to a face-to-face conversation. It is.
例えば、雑音が大きい環境での複数の話者の呼びかけ音声の収音は、マイクアレイを使用して音声を強調する信号処理で解決する。相手側の呼びかけ音声の再生、及び臨場感の向上は、バッファに保持している呼びかけ音声を出力する処理で解決する。 For example, collecting the voices of multiple speakers in a noisy environment can be solved by signal processing that uses a microphone array to enhance the voices. Reproducing the calling voice of the other party and improving the sense of presence are solved by outputting the calling voice held in the buffer.
第1の本発明に係るコミュニケーション装置は、(1)入力された映像信号から1又は複数の人物を検知し、検知した各人物の位置に関する情報を獲得する人物検知部と、(2)人物検知部の各人物の位置に関する情報に基づいて、1又は複数のマイクロホンの指向性を形成して、各人物の音声信号を抽出する信号処理部と、(3)相手側と接続後に送信する接続コマンド音声を相手側で再生させるためのバッファであり、上記信号処理部による上記接続コマンド音声を含む各人物の音声信号を一定期間保持する保持部と、(4)人物検知部により1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、(5)少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、(6)音声認識部による音声認識結果がコマンド記憶部に記憶される接続コマンド又は切断コマンドを含むか否かを判定するコマンド判定部と、(7)コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、(8)音声認識結果及び上記コマンド判定結果に基づいて、相手側の接続先との接続処理を行う接続判定部とを備え、音声認識結果が接続コマンドを含むとき、接続判定部が、相手側の接続先との接続処理を行い、出力切替部は、相手側の接続先との接続後、保持部に保持されている接続コマンドを含む音声信号を出力した後に、信号処理部により処理された信号を出力することを特徴とする。 A communication device according to a first aspect of the present invention includes (1) a person detection unit that detects one or more people from an input video signal and acquires information regarding the position of each detected person; and (2) person detection. (3) a signal processing unit that forms the directivity of one or more microphones based on information regarding the position of each person in the part and extracts the audio signal of each person; and (3) a connection command that is sent after connecting with the other party. (4) a holding unit that is a buffer for reproducing audio on the other party's side and holds audio signals of each person for a certain period of time including the connection command audio by the signal processing unit; (5) a voice recognition unit that performs voice recognition based on the input voice signal when a connection is detected; a command storage unit that stores commands; (6) a command determination unit that determines whether the voice recognition result by the voice recognition unit includes a connection command or a disconnection command stored in the command storage unit; and (7) command determination. (8) an output switching unit that determines an output audio signal according to the command determination result by the unit; and (8) a connection determination unit that performs connection processing with the other party's connection destination based on the voice recognition result and the command determination result. and when the voice recognition result includes a connection command, the connection determination unit performs connection processing with the other party's connection destination, and the output switching unit is held in the holding unit after connection with the other party's connection destination. The present invention is characterized in that after outputting an audio signal including a connection command , a signal processed by a signal processing section is outputted.
第2の本発明に係るコミュニケーションプログラムは、コンピュータを、(1)入力された映像信号から1又は複数の人物を検知し、検知した各人物の位置に関する情報を獲得する人物検知部と、(2)人物検知部の各人物の位置に関する情報に基づいて、1又は複数のマイクロホンの指向性を形成して、各人物の音声信号を抽出する信号処理部と、(3)相手側と接続後に送信する接続コマンド音声を相手側で再生させるためのバッファであり、上記信号処理部による上記接続コマンド音声を含む各人物の音声信号を一定期間保持する保持部と、(4)人物検知部により1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、(5)少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、(6)音声認識部による音声認識結果がコマンド記憶部に記憶される接続コマンド又は切断コマンドを含むか否かを判定するコマンド判定部と、(7)コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、(8)音声認識結果及びコマンド判定結果に基づいて、相手側の接続先との接続処理を行う接続判定部として機能させ、音声認識結果が接続コマンドを含むとき、接続判定部が、相手側の接続先との接続処理を行い、出力切替部は、相手側の接続先との接続後、保持部に保持されている接続コマンドを含む音声信号を出力した後に、信号処理部により処理された信号を出力することを特徴とする。 The communication program according to the second aspect of the present invention includes: (1) a person detection unit that detects one or more people from an input video signal and acquires information regarding the position of each detected person; ) A signal processing unit that forms the directivity of one or more microphones based on the information regarding the position of each person in the person detection unit and extracts the audio signal of each person, and (3) transmits after connecting with the other party. (4) a buffer for reproducing the connection command voice on the other party's side, and a holding section that holds each person's voice signal including the connection command voice by the signal processing section for a certain period of time; (5) a voice recognition unit that performs voice recognition based on input voice signals when multiple people are detected; and (5) at least a connection command to start a connection with a connection destination and a disconnection command to disconnect the connection. a command storage unit that stores a plurality of commands including (6) a command determination unit that determines whether the voice recognition result by the voice recognition unit includes a connection command or a disconnection command stored in the command storage unit; ) an output switching unit that determines an output audio signal according to the command determination result by the command determination unit; and (8) a connection determination unit that performs connection processing with the other party's connection destination based on the voice recognition result and the command determination result. When the voice recognition result includes a connection command, the connection determination unit performs connection processing with the other party's connection destination, and the output switching unit sends the message to the holding unit after connection with the other party's connection destination. It is characterized in that after outputting the audio signal including the held connection command , the signal processed by the signal processing section is outputted.
第3の本発明に係るコミュニケーション方法は、(1)人物検知部が、入力された映像信号から1又は複数の人物を検知し、検知した各人物の位置に関する情報を獲得し、(2)信号処理部が、人物検知部の各人物の位置に関する情報に基づいて、1又は複数のマイクロホンの指向性を形成して、上記各人物の音声信号を抽出し、(3)保持部が、相手側と接続後に送信する接続コマンド音声を相手側で再生させるためのバッファであり、上記信号処理部による上記接続コマンド音声を含む各人物の音声信号を一定期間保持し、(4)音声認識部が、人物検知部により1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をし、(5)コマンド記憶部が、少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶し、(6)コマンド判定部が、音声認識部による音声認識結果がコマンド記憶部に記憶される接続コマンド又は切断コマンドを含むか否かを判定し、(7)出力切替部が、コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定し、(8)接続判定部が、音声認識結果及びコマンド判定結果に基づいて、相手側の接続先との接続処理を行い、(9)音声認識結果が接続コマンドを含むとき、(10)接続判定部が、相手側の接続先との接続処理を行い、(11)出力切替部は、相手側の接続先との接続後、保持部に保持されている接続コマンドを含む音声信号を出力した後に、信号処理部により処理された信号を出力することを特徴とする。 In the communication method according to the third aspect of the present invention, (1) the person detection unit detects one or more people from the input video signal and acquires information regarding the position of each detected person; The processing unit forms the directivity of one or more microphones based on the information regarding the position of each person in the person detection unit, and extracts the audio signal of each person, and (3) the holding unit extracts the audio signal of each person . This is a buffer for reproducing the connection command voice transmitted after connection with the other party, and holds the voice signal of each person including the connection command voice by the signal processing unit for a certain period of time , and (4) the voice recognition unit, When one or more people are detected by the person detection unit, voice recognition is performed based on the input voice signal, and (5) the command storage unit stores at least a connection command and a command to start a connection with the connection destination. A plurality of commands including a disconnection command for disconnecting the connection are stored, and (6) a command determination unit determines whether the voice recognition result by the voice recognition unit includes a connection command or a disconnection command stored in the command storage unit. (7) The output switching unit determines the output audio signal according to the command determination result by the command determination unit, and (8) the connection determination unit determines the output audio signal of the other party based on the voice recognition result and the command determination result. (9) When the voice recognition result includes a connection command, (10) the connection determination section performs connection processing with the other party's connection destination; (11) the output switching section: The device is characterized in that after connection with the other party's connection destination, an audio signal including a connection command held in the holding unit is output, and then a signal processed by the signal processing unit is output.
本発明によれば、使用環境の雑音が大きい場合でも、複数の使用者が発話した音声を強調し、呼びかけ音声かどうか判定し、呼びかけ音声の場合は、呼びかけ音声で相手側との接続を開始した後に、その呼びかけ音声を相手側に伝達することで臨場感のある通話を開始することができ、又通話を終了するときには、複数の使用者が発話した音声を強調し、切断音声かどうか判定し、切断音声の場合は、相手側との通話が切断できる。 According to the present invention, even when the noise in the usage environment is large, voices uttered by multiple users are emphasized, it is determined whether the voice is a calling voice, and if it is a calling voice, a connection with the other party is started using the calling voice. Then, by transmitting the calling voice to the other party, it is possible to start a realistic call. Also, when ending a call, the voice uttered by multiple users is emphasized and it is determined whether it is a disconnection voice. However, in the case of disconnection voice, the call with the other party can be disconnected.
また、本発明によれば、使用者がマイクから離れていても通話相手と接続するときに、実際の対面での通話するときと同じ、接続先の通話相手の名前等と会話が開始する言葉で接続を開始し、通話が終了する言葉で接続を終了することで、会話が開始する状態と終了する状態を再現し、双方が高い臨場感を感じることができる。 Furthermore, according to the present invention, when the user connects to the other party even when the user is away from the microphone, the name, etc. of the other party to be connected and the words used to start the conversation are the same as when talking face-to-face. By starting the connection with and ending the connection with the words that end the conversation, both parties can experience a high sense of realism by recreating the beginning and end of a conversation.
(A)第1の実施形態
以下では、本発明のコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法の実施形態を、図面を参照しながら詳細に説明する。
(A) First Embodiment Below, embodiments of a communication device, a communication program, and a communication method of the present invention will be described in detail with reference to the drawings.
第1の実施形態は、例えば、テレビ会議システムや電話会議システム等のマイク入力部に、上述した本発明のコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法を適用した場合を例示したものである。 The first embodiment exemplifies a case where the above-described communication device, communication program, and communication method of the present invention are applied to a microphone input unit of a video conference system, a telephone conference system, or the like.
(A-1)第1の実施形態の構成
図1は、第1の実施形態に係るコミュニケーション装置100の構成を示すブロック図である。
(A-1) Configuration of First Embodiment FIG. 1 is a block diagram showing the configuration of a
第1の実施形態のコミュニケーション装置100は、例えば、専用ボードとして構築されるようにしても良いし、DSP(デジタルシグナルプロセッサ)への遠隔コミュニケーションプログラムの書き込みによって実現されたものであっても良く、CPUと、CPUが実行するソフトウェア(例えば、遠隔コミュニケーションプログラム)によって実現されたものであっても良いが、機能的には、図1で表すことができる。
The
コミュニケーション装置100は、ネットワーク107を介して、遠隔地にある相手側の拠点に設置されているコミュニケーション装置との間で、映像信号及び音信号を通信して、相手側とコミュニケーションを図るものである。ここでは、相手側の拠点にも、図1に例示するコミュニケーション装置100が配置されているものとする。
The
図1において、第1の実施形態に係るコミュニケーション装置100は、マイクアレイ101、マイクアンプ102、アナログ-デジタル(AD)変換部103、ビデオカメラ104、呼びかけ処理部105、NW通信部106、デジタル-アナログ(DA)変換部108、スピーカアンプ109、スピーカ110a及び110b、モニター111を有する。
In FIG. 1, a
マイクアレイ101は、人の音声や音を受音する複数本のマイクロホン(以下、「マイク」とも呼ぶ。)を有するものである。
The
マイクアンプ102は、マイクアレイ101の各マイクにより受音された複数の入力信号(アナログの音信号)のそれぞれを増幅して、AD変換部103に出力する。
The
AD変換部103は、マイクアンプ102により増幅された複数の入力信号をアナログ信号からデジタル信号に変換して、コミュニケーション装置100に出力する。以下、AD変換部103で変換された信号を「マイク入力信号」とも呼ぶ。
The AD conversion unit 103 converts the plurality of input signals amplified by the
ビデオカメラ104は、自拠点(コミュニケーション装置100が設置される拠点)に設置される撮影デバイス(撮像装置)である。ビデオカメラ104によって撮像された映像信号は、呼びかけ処理部105を介してNW通信部106に出力され、映像信号はNW通信部106によってネットワーク107に送信される。
The
呼びかけ処理部105には、ビデオカメラ104からの映像信号と、マイクアレイ101が受音したマイク入力信号とが入力する。ビデオカメラ104から入力された映像信号は、呼びかけ処理部105を介してNW通信部106に出力されてネットワーク107に送信される。
A video signal from the
呼びかけ処理部105は、ビデオカメラ104から入力された映像信号に人が撮像されているか否かを判定する。そして、映像信号に人が映っていると判定した場合、呼びかけ処理部105は、入力された複数のマイク入力信号を信号処理して、NW通信部106に出力する共に、同時に信号処理した信号をオーディオバッファ部117に保存する。
The calling
また、呼びかけ処理部105は、信号処理した信号を用いて音声認識を行ない、音声認識結果がコマンドリスト部119のコマンドの1つと一致するか否かを判定する。音声認識結果がコマンドの1つと一致する場合、呼びかけ処理部105は、接続判定結果と、オーディオバッファ部117に保存されている音信号をNW通信部106に一定時間出力する。そして、一定時間出力が完了すると、呼びかけ処理部105は、再び信号処理した信号を、NW通信部106に出力する。音声認識結果がコマンドの1つと一致しない場合、呼びかけ処理部105は、接続判定結果と信号処理した信号とを、NW通信部106に出力する。
Further, the calling
一方、映像信号に人が映っていないと判定した場合、呼びかけ処理部105は、信号処理を停止する。このとき、NW通信部106には音声を出力しない。
On the other hand, if it is determined that no person is shown in the video signal, the calling
NW通信部106は、ネットワーク107を介して、相手側の拠点に設置されているコミュニケーション装置100との間で映像信号及び音信号を送受信するものである。NW通信部106は、呼びかけ処理部105からの接続判定結果に基づいて、ネットワーク107との接続処理を行う。つまり、ネットワーク107と接続指示を受けると、NW通信部106は、指示された相手側のコミュニケーション装置100と接続を開始する。ネットワーク107との接続後、コミュニケーション装置100は、NW通信部106を介して、相手側のコミュニケーション装置100との間で音声のやり取りを行なう。
The
また、ネットワーク107との接続切断指示を受けると、NW通信部106は、相手側のコミュニケーション装置100との接続を切断する。
Further, upon receiving an instruction to disconnect from the
DA変換部108は、ネットワーク107からの音信号(NW通信部106を介して送信されてきた音信号)をデジタル信号からアナログ信号に変換して、スピーカアンプ109に出力する。
The
スピーカアンプ109は、DA変換部108により変換されたアナログ信号を増幅して、スピーカ110a及び110bに出力する。
The
スピーカ110a、110bは、電気信号を空気の振動に変換して音として出力するスピーカである。第1の実施形態では、スピーカ110a及び110bはステレオスピーカである場合を例示するが、スピーカ110a及び110bは、ステレオスピーカに限定されるものではない。
The
モニター111は、映像出力デバイス(映像出力装置)である。モニター111が出力する映像は、例えば、相手側の拠点に設置されたビデオカメラ104によって撮影された映像であって、この映像(エンコードされたデータ)はネットワーク107を介してNW通信部106で受信されデコード(復号)した後、モニター111に入力される。
The monitor 111 is a video output device (video output device). The video output by the monitor 111 is, for example, a video shot by a
次に、第1の実施形態に係る呼びかけ処理部105の詳細な構成を説明する。
Next, a detailed configuration of the
呼びかけ処理部105は、音入力端子115、映像入力端子112、映像出力端子113、人物位置検知部114、信号処理部116、オーディオバッファ部117、音声認識部118、コマンドリスト部119、コマンド判定部120、出力切替部121、音出力端子122、接続判定部123、接続判定結果出力端子124を有する。
The calling
映像入力端子112は、ビデオカメラ104から映像信号を入力するインタフェース部である。
The
映像出力端子113は、ビデオカメラ104から入力された映像信号をNW通信部106に出力するインタフェース部である。
The video output terminal 113 is an interface unit that outputs a video signal input from the
人物位置検知部114は、ビデオカメラ104から入力された映像信号に人が映っているか否かを判定し、その判定結果を信号処理部116及び音声認識部118に出力する。例えば、人物位置検知部114は、入力される映像信号を用いた画像処理により、映像フレームに人が映っているか否かを判定し、人物を検知した場合には、人を検知したことを示す判定結果(例えば、「1」など)を出力し、それ以外の場合には、人非検知を示す判定結果(例えば、「0」など)を出力する。
The person
また、映像信号に人が映っていると判定した場合、人物位置検知部114は、人がいる方向情報を信号処理部116に出力する。さらに、複数の人物を検知した場合には、検知した各人の方向情報を出力する。
Further, when it is determined that a person is shown in the video signal, the person
音入力端子115は、AD変換部103からマイク入力信号を入力するインタフェース部である。
The
信号処理部116は、入力されたマイク入力信号を信号処理し、信号処理した信号(以下、「マイクアレイ処理信号」とも呼ぶ。)を出力切替部121、オーディオバッファ部117及び音声認識部118に出力する。
The
オーディオバッファ部117は、信号処理部116により信号処理信号を、一定時間保持するバッファである。オーディオバッファ部117は、一定時間経過後、保持している信号を出力切替部121に出力する。
The
音声認識部118は、信号処理部116により信号処理されたマイクアレイ処理信号を音声認識して、その音声認識結果をコマンド判定部120に出力する。
The speech recognition section 118 performs speech recognition on the microphone array processed signal processed by the
コマンドリスト部119は、コマンドの一覧が保持されているテキストファイルである。ここで、コマンドには、様々なコマンドを含むことができるが、この実施形態では、コマンドの一例として接続コマンドと切断コマンドとが含まれる。コマンドの一例である接続コマンドと切断コマンドの詳細な説明は後述する。
The
コマンド判定部120は、音声認識部118からの音声認識結果がコマンドリスト部119に保持されているコマンドに存在するか否か判定するものであり、その判定結果を、出力切替部121及び接続判定部123に出力する。コマンド判定部120による判定方法の詳細な説明は後述する。
The
出力切替部121は、信号処理部116とオーディオバッファ部117とに接続しており、コマンド判定部120による判定結果に応じて、信号処理部116からの出力信号と、オーディオバッファ部117からの出力信号とのいずれかを切り替えて、音出力端子122に出力する。
The output switching unit 121 is connected to the
音出力端子122は、出力切替部121により切り替えられた音信号を出力するインタフェース部である。音出力端子122から出力される音信号が、呼びかけ処理部105から出力される音信号となる。
The
接続判定部123は、コマンド判定部120により判定された判定結果に基づいて、ネットワーク107との接続判定を行なうものである。
The connection determination unit 123 determines the connection to the
例えば、音声認識結果が、人名と接続コマンドと続けて一致するとの判定結果である場合、接続判定部123は、接続コマンドに基づいて、相手側の接続先であるコミュニケーション装置100を決定し、決定した接続先に関する情報と、当該接続先への接続指示とを含む接続判定結果をNW通信部106に出力する。音声認識結果が切断コマンドと一致するとの判定結果である場合、接続判定部123は、接続している相手側のコミュニケーション装置100との接続切断指示を含む接続判定結果をNW通信部106に出力する。
For example, when the voice recognition result is determined to match the person's name and the connection command, the connection determination unit 123 determines the
接続判定結果出力端子124は、接続判定部123からの接続判定結果を、NW通信部106に出力する。
The connection determination
(A-2)第1の実施形態の動作
次に、第1の実施形態に係るコミュニケーション装置100における処理動作を、図面を参照しながら詳細に説明する。
(A-2) Operation of First Embodiment Next, processing operations in the
図2は、第1の実施形態において、一方の拠点の部屋内に設置されるコミュニケーション装置に係る機器の配置や使用者との位置関係の一例を説明する説明図である。なお、他方の拠点においても図2と同様に、遠隔コミュニケーション100が設置されているものとする。
FIG. 2 is an explanatory diagram illustrating an example of the arrangement of equipment related to a communication device installed in a room at one base and the positional relationship with a user in the first embodiment. Note that it is assumed that the
図2において、部屋151は例えば会議室であり、部屋151の高さは、モニター111を簡単に設置でき、かつ十分に余裕のある高さ(例えば、モニター111の高さ+数m、または2m以上)があれば良く、部屋151の大きさ(面積)は、モニター111やマイクアレイ101、スピーカ110a及び110bなどが簡単に設置でき、かつ、十分に余裕がある広さ、または使用者152a及び152bが会話するのに十分広さ(例えば、横縦数m)があれば良い。
In FIG. 2, the
まず、コミュニケーション装置100の動作が開始すると、モニター111は、相手側の拠点のコミュニケーション装置100のビデオカメラ104で撮影している映像を表示する。
First, when the
つまり、コミュニケーション装置100が動作開始し、自拠点のビデオカメラ104が起動すると、ビデオカメラ104で撮影された映像信号は、呼びかけ処理部105を介してNW通信部106に与えられ、NW通信部106が、ネットワーク107を通じて、相手側の拠点のNW通信部106に映像信号を送信する。これにより、自拠点の映像は相手側の拠点のモニター111に表示される。同様に、相手拠点の映像が自拠点のモニター111に表示される。
That is, when the
このとき、両拠点のコミュニケーション装置100は音声信号を送受信しておらず、両拠点とも相手側のビデオカメラ104で撮影した映像だけがモニター111に表示されて、お互いの拠点の様子を確認できる。
At this time, the
また、ビデオカメラ104により撮影された映像信号は、呼びかけ処理部105の映像入力端子112に入力され、映像信号が人物位置検知部114に入力される。
Further, the video signal captured by the
コミュニケーション装置100が動作開始後から人がコミュニケーション装置100に近づくまでは,各拠点のコミュニケーション装置100は音声信号を送受信しておらず、両拠点とも相手側のビデオカメラ104で撮影した映像だけがモニター111に表示されて、お互いの拠点の様子を確認できる状態になっている。
After the
コミュニケーション装置100が動作開始してしばらくすると、相手拠点にいる人と通話を試みようとする使用者152a及び152bは、相手側の拠点の映像を見て、通話相手を探したり、確認したりするためにモニター111に近づく。このとき、図2に例示するように、ビデオカメラ104はモニター111付近に設置されている(図2の例では、モニター111の上部にビデオカメラ104が設置されている)ため、ビデオカメラ104は、モニター111に近づく使用者152a及び152bを撮影し、使用者152a及び152bが映っている映像信号が呼びかけ処理部105の映像入力端子112に入力される。
After a while after the
呼びかけ処理部105の映像入力端子112に、使用者152a及び152bが映っている映像信号が入力され始めると、ビデオカメラ104の映像信号が人物位置検知部114に入力される。
When a video signal showing the users 152a and 152b begins to be input to the
人物位置検知部114は、映像信号に映っている使用者152a及び152bの2人を検知し、人物位置検知部114は、人が映っていることを示す判定結果(例えば「1」など)を信号処理部116及び音声認識部118に出力すると共に、映像フレームにおける使用者152a及び152bの位置に関する情報(例えば、方向情報)を信号処理部116に出力する。
The person
さらに、相手側の拠点にいる人と通話を試みようとする使用者152aと152bのいずれかは、通話したい相手を呼びかけるために、呼びかけ音声を発声する。ここで、呼びかけ音声とは、相手側の拠点で通話したい相手を呼びかける音声であると共に、相手側の拠点との通話を開始するものとして機能する。呼びかけ音声は、実際に対面して会話をする際に用いられる言葉を含むことが望ましい(例えば、「人名+こんにちは」、「人名+こんばんは」など)。これにより、コミュニケーション装置100を通じて相手側の拠点の人と通話をする際に違和感なく通話を開始させることができる。
Furthermore, either user 152a or 152b who attempts to talk to a person at the other party's base utters a calling voice in order to call out the person with whom the user wishes to talk. Here, the calling voice is a voice that calls out to the person with whom the user wants to talk at the other party's base, and also functions as a voice that starts a call with the other party's base. It is preferable that the greeting voice includes words used when actually having a face-to-face conversation (for example, "person's name + hello", "person's name + good evening", etc.). Thereby, when talking to a person at the other party's base through the
使用者152a又は152bのいずれかが発話した呼びかけ音声は、マイクアレイ101の各マイクに受音される。このとき、部屋151における環境音も各マイクに受音されるため、各マイクに受音される音信号は、使用者152a及び152bが発話した音声信号に環境音が重畳した信号となる。
The calling voice uttered by either the user 152a or 152b is received by each microphone of the
マイクアレイ101の各マイクに入力したアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、呼びかけ処理部105の音入力端子115にマイク入力信号x(m,n)として入力される。なお、マイク入力信号x(m,n)において、mはマイクアレイ101内の各マイクを識別するパラメータであり、nは入力信号の時系列を示すパラメータである。
Analog sound signals input to each microphone of the
呼びかけ処理部105の音入力端子115に信号が入力され始めると、まず、マイク入力信号x(m,n)が信号処理部116に入力される。
When a signal starts to be input to the
人物位置検知部114でビデオカメラ104の映像信号に人が映っていると判定されたとき、信号処理部116は、人物位置検知部114から各人物の位置に関する情報(例えば、方向情報)を用いて、マイク入力信号x(m,n)に対してマイクアレイ処理を行い、指向性処理や音源を分離する音源分離処理をする。
When the person
このように、映像信号に人が映っていると判定されたときに、信号処理部116が信号処理を行うことで、使用環境となる部屋151に使用者以外の人がいるような場合でも、使用者以外の人の音声をマイクが受音して、誤って相手側の拠点と接続することなく、モニター111の前にいる使用者の音声を正しく捉えることができる。
In this way, when it is determined that a person is reflected in the video signal, the
また、映像信号に人が映っていると判定されたとき、信号処理部116は、人物位置検知部114からの人の方向情報に基づいて、映像信号に映っている各人の音声として扱い、マイクアレイ101に形成される指向性や音源分離処理を行なう。人物位置検知部114による人の検知方法は特に限定されるものではなく、種々の方法を広く適用することができ、例えば、ビデオカメラ104が撮影する映像信号(映像フレーム)のX-Y座標系と、マイクアレイ101の各マイクの位置を決めるX-Y座標系との対応させるために、映像信号(映像フレーム)のX-Y座標系と、マイクアレイ101の各マイク位置のX-Y座標系の原点との間で座標変換処理を行ない、人のいる方向情報を算出するようにしても良い。
Further, when it is determined that a person is shown in the video signal, the
指向性処理の手法は、例えば、従来のマイクアレイ処理である遅延和アレイ処理でマイクアレイ101が直線型のマイクアレイの場合に、以下の(1)式に従い、処理する手法がある。
上記(1)式のx’_k(n)はマイクアレイ処理信号、Dmは各マイク信号に付加する遅延量、Kは指向性を形成する数、Mはマイクの本数、(2)式のD0は固定遅延量、(3)式のτ_kはマイク間の遅延量、dはマイク間隔、θkは指向性を形成する角度(人物位置検知部114からの人の方向情報)、cは音速である。 In the above equation (1), x'_k(n) is the microphone array processed signal, Dm is the amount of delay added to each microphone signal, K is the number forming directivity, M is the number of microphones, and D0 in equation (2) is the fixed delay amount, τ_k in equation (3) is the delay amount between the microphones, d is the microphone interval, θk is the angle forming the directivity (direction information of the person from the person position detection unit 114), and c is the speed of sound .
例えば、1つの指向性をマイクアレイ101の正面方向に指向性を形成する場合は、K=1、指向性を形成する角度θ1=0になるので、上記(3)式より、τ_1=0となる。また例えば、2つの指向性をマイクアレイ101の90度方向に指向性を形成する場合は、K=2、指向性を形成する角度θ2=π/2(πは円周率)になり、上記(3)式より、τ_2=d/cとなる。
For example, when one directivity is formed in the front direction of the
なお、信号処理の算出手段は、種々の方法を広く適用することができ、例えば、遅延和アレイ処理以外の従来の別マイクアレイ処理や、マイクアレイを2組使用して、ある特定のエリアの収音できるマイクアレイ処理でも良い。 Note that various methods can be widely applied to the signal processing calculation means, such as conventional separate microphone array processing other than delay-sum array processing, or calculation of a certain area using two microphone arrays. Microphone array processing that can collect sound may also be used.
そして、信号処理部116は、人物位置検知部114でビデオカメラ104の映像信号に人が映っていると判定されたときは、算出したマイクアレイ処理信号x’_k(n)を、オーディオバッファ部117と、音声認識部118と、出力切替部121に出力し、人物位置検知部114でビデオカメラ104の映像信号に人が映っていないと判定されたときは、(4)式に示すように、無線信号をオーディオバッファ部117と、音声認識部118と、出力切替部121に出力する。
x’_k(n)=0 …(4)
Then, when the person
x'_k(n)=0...(4)
また、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を、以下の(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_k(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部105は、以下の(6)式に示すように、書込み位置write_indexの値に「1」をインクリメントして処理を進める。
上記(6)式のBUFFER_SIZEは、オーディオバッファ部117のバッファの長さである。
BUFFER_SIZE in the above equation (6) is the length of the buffer in the
さらに、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を音声認識部118で音声認識を行う。そして、マイクアレイ処理信号x’_k(n)の音声認識結果をマイクアレイ処理信号毎にコマンド判定部120に出力する。
Furthermore, the calling
コマンド判定部120は、音声認識結果とコマンドリスト部119に保持されているコマンド一覧(例えば、図3のコマンドリスト)とを比較し、コマンドリストにある「人名」とコマンドリストにある「接続コマンド」が続けて音声認識されたか否かの判定を行う。例えば、使用者が「○○さん こんにちは」などのように発話し、音声認識結果が、コマンドリストに設定されている「人名」と「接続コマンド」とが連続して音声認識された場合、判定結果として「1」を、後述する「切断コマンド」が音声認識された場合は、判定結果として「2」を、それ以外は「0」を出力する。そして、コマンド判定部120は、判定結果を出力切替部121に出力し、判定結果と音声認識結果を接続判定部123に出力する。
The
コマンドリスト部119は、例えば、図3のようにコマンドの一覧がテキス卜ファイルで保持されている。例えば、図3に例示するコマンドリストは、大別して、少なくとも相手側の拠点の通話相手となり得る人の名前等を示す「人名」、実際に対面する相手と会話を始める際に用いる言葉であって、且つ、相手側の拠点との接続開始を実行するコマンドとして機能する「接続コマンド」、実際に対面する相手と会話を終了する際に用いる言葉であって、且つ、相手側の拠点との接続終了を実行するコマンドとして機能する「切断コマンド」を有している。なお、図3のコマンド一覧は一例であって、コマンドリスト部119が保持するデータの内容及び形式は、種々様々な値(形式)を適用することができる。
The
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて接続判定を行い、接続判定結果をNW通信部106に出力する。
The connection determination unit 123 performs connection determination based on the voice recognition result by the voice recognition unit 118 and the command determination result based on the
例えば、コマンド判定部120の判定結果が「1」で音声認識結果118の認識結果が「○○さん こんにちは」という音声認識結果が出力された場合、接続判定部123は、相手側の拠点のコミュニケーション装置100が設置されている近くに「○○さん」がいるとき、相手側の拠点のコミュニケーション装置100に接続する信号を接続判定結果出力端子124に出力する。拠点のコミュニケーション装置100が設置されている近くに「○○さん」が入るかどうかの判定は、事前に端末の近くにいる人を登録した情報を使用する。
For example, if the judgment result of the
NW通信部106は、接続判定結果出力端子124を介して出力された接続判定結果に基づき、ネットワーク107との接続処理を行う。
The
コマンド判定部120により「人名」と「接続コマンド」が続けて音声認識された場合には、オーディオバッファ部117に保持されている該当のマイクアレイ処理信号のオーディオバッファ音を出力する。
When the
オーディオバッファ部117に保持されている音を出力するために、読出し位置read_indexを、下記の(7)式に従い計算する。
上記(7)式のLENは、オーディオバッファ部117に保持されている処理信号を再生する長さである。なお、LENの決定方法は、種々の方法を広く適用することができ、例えば、オーディオバッファ部117のバッファサイズと同じ長さ(LEN=BUFFER_SIZE)とするなどの定数とする方法が存在する。また、オーディオバッファ部117に保持されているマイク入力信号に音声区間処理を行い、バッファに保持されている音の長さを求めて、その長さをLENとする方法でも良い。
LEN in the above equation (7) is the length for reproducing the processed signal held in the
そして、出力切替部121は、以下の(8)式に示すようにオーディオバッファ部117に保持されている音信号を出力信号y(n)として音出力端子122に一定時間(例えば、LENの時間長分)出力し、以下の(9)式に示すように読出し位置read_indexを進める(インクリメン卜する)。
NW通信部106は、音出力端子122から介して出力された出力信号y(n)をネットワーク107で接続している相手側のコミュニケーション装置100のNW通信部106に送信する。
The
出力切替部121は、オーディオバッファ部117に保持されている音信号を一定時間出力すると、以下の(10)式に示すように、マイクアレイ処理信号x’_k(n)を出力信号y(n)として音出力端子122に出力する。
y(n)=x’_k(n) …(10)
When the output switching unit 121 outputs the sound signal held in the
y(n)=x'_k(n)...(10)
一方、出力切替部121は、コマンド判定部120で音声認識部118の音声認識結果が「人名」と「接続コマンド」が続けて音声認識されない場合は、(4)式に示すように、x’_k(n)が無音信号になるので、(10)式に示すようにy(n)も無音信号になり、無音信号を音出力端子122に出力し続ける。
y(n)=0 …(11)
On the other hand, if the
y(n)=0...(11)
NW通信部106は、音出力端子122を介して出力された出力信号y(n)を引き続きネットワーク107に接続している相手側のコミュニケーション装置100のNW通信部106に送信する。
The
一方、ネットワーク107から送信されてきた相手側の音声信号は、NW通信部106を介してDA変換部108に入力する。そして、DA変換部108によりデジタル信号からアナログ信号に変換後、音声信号がスピーカアンプ109で増幅され、音声がスピーカ110から出力される。
On the other hand, the other party's audio signal transmitted from the
呼びかけ音声再生後は、自拠点のコミュニケーション装置100と相手側の拠点のコミュニケーション装置100とが接続し、両拠点の間で、ビデオカメラ映像と音声のやりとりが行われる。
After the calling voice is played back, the
しばらくして、通話を終了する場合は、使用者152aと152bのいずれかが、切断音声を発話して会話を終了する。 If the call is to be ended after a while, either user 152a or 152b utters a disconnection voice to end the conversation.
使用者152a、152bのいずれかが発した音声は、環境音が重畳しマイクアレイ101の各マイクに入力される。
The sound emitted by either user 152a or 152b is input to each microphone of
マイクアレイ101に入力されたアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、呼びかけ処理部105の音入力端子115にマイク入力信号x_k(m,n)として入力され、マイク入力信号x_k(m,n)が信号処理部116に入力される。
The analog sound signal input to the
信号処理部116は、マイク入力信号x_k(m,n)に対して(1)、(2)、(3)式に示すように、マイクアレイ処理を行い、指向性処理や音源を分離する音源分離処理を行い、算出したマイクアレイ処理信号x’_k(n)をオーディオバッファ部117と音声認識部118と出力切替部121に出力する。
The
出力切替部121は、(10)式に示すように、マイクアレイ処理信号x’_k(n)を出力信号y(n)として音出力端子122に出力する。
The output switching unit 121 outputs the microphone array processed signal x'_k(n) to the
また、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を、(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_k(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部105は、(6)式に示すように、書込み位置write_indexを進める(すなわち、書き込み位置をインクリメン卜する)。
Further, the calling
さらに、呼びかけ処理部105は、同時にマイクアレイ処理信号x’_k(n)を音声認識部118で音声認識を行い、音声認識結果をコマンド判定部120に出力する。
Furthermore, the calling
コマンド判定部120は、音声認識結果と、コマンドリスト部119に保持されているコマンド一覧(図3のコマンドリスト)とを比較し、音声認識の結果が「切断コマンド」の一覧に存在するか否かの判定を行う。そして、コマンド判定部120は、コマンドリストにある「切断コマンド」が音声認識された場合(例えば、「さようなら」など)、判定結果を出力切替部121、及び接続判定部123に出力する。例えば、使用者が「○○さん こんにちは」などのように発話し、音声認識結果が、コマンドリストに設定されている「人名」と「接続コマンド」とが連続して音声認識された場合、判定結果として「1」を、「切断コマンド」が音声認識された場合は、判定結果として「2」を、それ以外は「0」を出力する。
The
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて、切断判定を行い、NW通信部106に相手側のNW通信部と切断する信号を接続判定結果出力端子124に出力する。
The connection determination unit 123 makes a disconnection determination based on the voice recognition result by the voice recognition unit 118 and the command determination result based on the
NW通信部106は、接続判定結果出力端子124を介して出力された接続判定結果に基づき、相手側のコミュニケーション装置100のNW通信部106との切断処理を行う。
The
出力切替部121は、コマンド判定部120で音声認識部118の音声認識結果がコマンドリスト部119の切断コマンド一覧に存在しないと判定された場合には、マイクアレイ処理信号を音出力端子122に出力し続ける。
When the
一方、コマンド判定部120で音声認識部118の音声認識結果がコマンドリスト部119の切断コマンド一覧に存在すると判定された場合には、出力切替部121は、(11)式に示すように、無音信号を出力信号y(n)として音出力端子122に出力される。
On the other hand, if the
(A-3)第1の実施形態の効果
以上のように、第1の実施形態によれば、コミュニケーション装置100は、マイクアレイに受音される音声信号と人の方向情報から、各使用者の音声を強調する信号処理を行い、信号処理した信号を一度オーディオバッファ部に保持し、同時に音声認識部が信号処理した信号に対して音声認識を行なう。そして、音声認識結果が呼びかけ音声か否かを判定し、呼びかけ音声の場合には、相手側のコミュニケーション装置と接続してから、バッファに保持している呼びかけ音声を出力することで、呼びかけ音声が相手に伝わってから会話を開始することができる。また、相手側との会話が開始してから、音声認識部が信号処理した信号に対して音声認識を行い、その音声認識結果が切断音声か否かを判定し、切断音声の場合には切断する。このことにより、対面での会話に近い状態を再現でき、複数の話者で高い臨場感で会話を開始することができる。
(A-3) Effects of First Embodiment As described above, according to the first embodiment, the
また、第1の実施形態のコミュニケーション装置100は、使用環境の雑音が大きい環境においても、呼びかけ音声の収音はマイクアレイを使用して、音声を強調する信号処理を行っているため、呼びかけ音声を正しく認識でき、雑音が大きい環境でも通話を行うことができる。
Furthermore, even in a noisy usage environment, the
(B)第2の実施形態
次に、本発明のコミュニケーション装置、コミュニケーションプログラム、及びコミュニケーション方法の第2の実施形態を、図面を参照しながら詳細に説明する。
(B) Second Embodiment Next, a second embodiment of the communication device, communication program, and communication method of the present invention will be described in detail with reference to the drawings.
第2の実施形態は、本発明のコミュニケーション装置の音出力方法が、第1の実施形態と異なっている場合を例示する。 The second embodiment exemplifies a case where the sound output method of the communication device of the present invention is different from the first embodiment.
(B-1)第2の実施形態の構成
図4は、第2の実施形態に係るコミュニケーション装置200の構成を示すブロック図である。
(B-1) Configuration of Second Embodiment FIG. 4 is a block diagram showing the configuration of a
図4において、第2の実施形態に係るコミュニケーション装置200は、マイクアレイ101、マイクアンプ102、アナログ-デジタル(AD)変換部103、2台のビデオカメラ104a及び104b、呼びかけ処理部201、NW通信部106、デジタル-アナログ(DA)変換部108、スピーカアンプ109、2台のスピーカ110a及び110b、モニター111を有する。
In FIG. 4, a
また、呼びかけ処理部201は、音入力端子115、映像入力端子112a及び112b、映像出力端子113a及び113b、人物位置検知部202、信号処理部116、オーディオバッファ部117、音声認識部118、コマンドリスト部119、コマンド判定部120、出力切替部203、音出力端子122a及び122b、接続判定部123、接続判定結果出力端子124を有する。
The calling
第2の実施形態に係るコミュニケーション装置200は、2台のビデオカメラ104a及び104bと、2台のスピーカ110a及び110bとを備え、さらに、呼びかけ処理部201の映像入力端子112a及び112b、映像出力端子113a及び113b、音出力端子122a及び122bが2個に増えたことにより、人物位置検知部202と出力切替部203の動作が第1の実施形態と異なる。
The
それ以外の構成要素は、第1の実施形態に係る図1のコミュニケーション装置100の構成要素と同一、又は対応するものである。なお、図4において、第1の実施形態に係るコミュニケーション装置100の構成要素と同一、又は対応するものについては同一の符号を付している。また、第1の実施形態と同一、又は対応する構成要素の詳細な説明は重複するため、ここでは省略する。
The other components are the same as or correspond to the components of the
呼びかけ処理部201は、2台のビデオカメラ104a及び104bと接続しており、入力された各々のビデオカメラ104a及び104bからの営巣信号に人が映っているか否かを判定する。いずれか又は両方の映像信号に人が映っていると判定された場合のみ、呼びかけ処理部201は、入力された複数のマイク入力信号を信号処理し、信号処理した信号を音出力端子に出力する。同時に、呼びかけ処理部201は信号処理した信号をオーディオバッファ部117に保存する。さらに、呼びかけ処理部201は、信号処理した信号を音声認識し、音声認識結果がコマンドリスト部119のコマンドの1つと一致した場合に、接続判定結果とオーディオバッファに保存されている音信号を一定時間出力し、一定時間出力が完了すると再び信号処理した信号を出力する。
The calling
次に、呼びかけ処理部201の詳細な構成を説明する。
Next, the detailed configuration of the
映像入力端子112a、112bは、ビデオカメラ104a、104bからの映像信号を呼びかけ処理部201に入力するインタフェース部である。
The
映像出力端子113a、113bは、ビデオカメラ104a、104bからの映像信号を呼びかけ処理部201から出力するインタフェース部である。
The
人物位置検知部202は、映像入力端子112a、112bから入力したビデオカメラ104a、104bのそれぞれの映像信号に人が映っているか否かを判定するものである。
The person
出力切替部203は、コマンド判定部120によるコマンド判定結果に基づいて出力する音信号を決定し、音信号を出力する。
The
(B-2)第2の実施形態の動作
第2の実施形態に係るコミュニケーション装置200における音声処理の基本的な動作は、第1の実施形態で説明した音声処理と同様である。
(B-2) Operation of Second Embodiment The basic operation of voice processing in the
以下では、第1の実施形態と異なる点である人物位置検知部202、及び出力切替部203における処理動作を中心に詳細に説明する。
Below, processing operations in the person
また、以下では、図5に示すように、1人の使用者152aが相手側の拠点にいる人とコミュニケーションをとっており、その後、2人目の使用者152bがコミュニケーションに参加してきた場合を想定して説明する。この場合、使用者152aはビデオカメラ104aにより撮影され、使用者152bはビデオカメラ104bに撮影されるものとして説明する。
Further, in the following, as shown in FIG. 5, it is assumed that one user 152a is communicating with a person at the other party's base, and then a second user 152b joins the communication. and explain. In this case, the description will be made assuming that the user 152a is photographed by the
まず、コミュニケーション装置200の動作が開始すると、モニター111は、相手側の拠点のコミュニケーション装置100のビデオカメラ104a、104bで撮影している映像を表示する。
First, when the
自拠点のビデオカメラ104a、104bで撮影している映像は、呼びかけ処理部201を介してNW通信部106に与えられ、NW通信部106がNWを通して相手側の拠点に映像信号を送信する。映像信号は相手側の拠点のNW通信部106で受信され、相手の拠点のモニター111には、自拠点のビデオカメラ104a、104bで撮影された映像が表示される。
The images captured by the
このとき、両拠点のコミュニケーション装置200は音声信号を送受信しておらず、両拠点とも相手側のビデオカメラ104a、104bで撮影した映像だけがモニター111に表示されて、お互いの拠点の様子を確認できる。また、各拠点の音声信号がお互いに送受信されるようにしても良く、その場合には、お互いの映像がモニター111に表示されると共に、お互いの音が聞こえる。
At this time, the
また、ビデオカメラ104a、104bで撮影している映像信号は、呼びかけ処理部201の映像入力端子112a、112bに入力され、人物位置検知部202に入力される。
Further, video signals captured by the
人物位置検知部202は、ビデオカメラ104a、104bで撮影された映像信号に人が映っているか否かを判定し、その判定結果を、信号処理部116及び音声認識部118に出力する。例えば、人物位置検知部202は、ビデオカメラ104aに人が映っていると判定したときには判定結果を「1」、ビデオカメラ104bに人が映っていると判定したときには判定結果を「2」、それ以外は判定結果を「0」などとして出力する。
The person
例えば、使用者152aが相手側の拠点の全体映像に映っている人と通話を行う場合は、モニター111に表示されている相手側の拠点の映像を見るために、図5に示すように、使用者152aは、モニター111に近づき、モニター111に映っている相手の拠点の映像を確認する。 For example, when the user 152a has a call with a person who is displayed in the overall image of the other party's base, in order to view the image of the other party's base displayed on the monitor 111, as shown in FIG. The user 152a approaches the monitor 111 and checks the image of the other party's base displayed on the monitor 111.
このとき、図5に例示するように、モニター111付近に設置されているビデオカメラ104aが使用者152aを撮影するので、ビデオカメラ104aの映像信号を監視する人物位置検知部202は、ビデオカメラ104aの映像信号に人が映っているという判定結果(例えば、判定結果「1」等)を、信号処理部116及び音声認識部118に出力する。また、人物位置検知部202は、ビデオカメラ104aの映像フレームにおける使用者152aの方向情報を信号処理部116に出力する。
At this time, as illustrated in FIG. 5, the
使用者152aは、通話したい相手を呼びかけるために、呼びかけ音声を発声する。使用者152aが発した音声は、環境音が重畳しマイクアレイ101aの各マイクに入力される。 The user 152a utters a calling voice in order to call the person with whom the user wants to talk. The sound emitted by the user 152a is superimposed with environmental sounds and input to each microphone of the microphone array 101a.
マイクアレイ101aに入力されたアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、呼びかけ処理部201の音入力端子115にマイク入力信号x(m,n)として入力される。
The analog sound signal input to the microphone array 101a is amplified by the
呼びかけ処理部201の音入力端子115に信号が入力され始めると、まず、マイク入力信号x(m,n)が信号処理部116に入力される。
When a signal starts to be input to the
人物位置検知部202でビデオカメラ104aの映像信号に人が映っていると判定されたとき、信号処理部116は入力信号に対してマイクアレイ処理を行う。このとき、信号処理部116は、人物位置検知部202から取得した、ビデオカメラ104aの映像における使用者152aの方向情報に基づいて、使用者152aの位置方向から到来する使用者152aの音声をマイクアレイ101が収音する指向性処理や、使用者152aの音声を抽出する音源分離処理を行う。
When the person
そして、信号処理部116は、人物位置検知部202でビデオカメラ104の映像信号に人が映っていると判定されたときは、算出したマイクアレイ処理信号x’_1(n)を、オーディオバッファ部117と、音声認識部118と、出力切替部203に出力し、人物位置検知部202でビデオカメラ104の映像信号に人が映っていないと判定されたときは、(12)式に示すように、無線信号をオーディオバッファ部117と、音声認識部118と、無線信号を出力切替部203に出力する。
x’_1(n)=0 …(12)
Then, when the person
x'_1(n)=0...(12)
呼びかけ処理部201は、同時にマイクアレイ処理信号x’_1(n)は、(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_1(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部201は、(6)式のように、書込み位置write_indexの値をインクリメントして進める。
At the same time, the calling
さらに、呼びかけ処理部201では、同時にマイクアレイ処理信号x’_1(n)を音声認識部118に入力し、音声認識部118が音声認識を行い、マイクアレイ処理信号x’_1(n)の音声認識結果をコマンド判定部120に出力する。
Furthermore, the calling
コマンド判定部120は、マイクアレイ処理信号x’_1(n)の音声認識結果と、コマンドリスト部119に保持されているコマンド一覧(例えば、図3のコマンドリスト)を比較し、コマンドリストにある「人名」とコマンドリストにある「接続コマンド」が続けて音声認識されたか否かの判定を行う(例えば、「○○さん こんにちは」など)。
The
そして、コマンド判定部120は、判定結果を出力切替部203に、判定結果と音声認識結果を接続判定部123に出力する。例えば、マイクアレイ処理信号x’_1(n)の音声認識結果が「人名」と「接続コマンド」が続けて音声認識された場合、コマンド判定部120は、判定結果を「1」、後述するマイクアレイ処理信号x’_2(n)の音声認識結果が「人名」と「接続コマンド」が続けて音声認識された場合は判定結果を「2」、それ以外は「0」などのように出力する。
Then, the
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて、接続判定を行い、接続判定結果をNW通信部106に出力する。例えば、判定結果が「1」で、コマンド判定部120から「○○さん こんにちは」という音声認識結果が出力された場合、接続判定部123は、相手側の拠点のコミュニケーション装置100が設置されている近くに「○○さん」がいるときは、ビデオカメラ104aとマイクアレイ101aと相手側の拠点のコミュニケーション装置200の「○○さん」の近くのビデオカメラとマイクアレイに接続する信号を接続判定結果出力端子124に出力する。拠点のコミュニケーション装置200が設置されている近くに○○さんが入るかどうかの判定は、事前に端末の近くにいる人を登録した情報を使用する。
The connection determination unit 123 performs connection determination based on the voice recognition result by the voice recognition unit 118 and the command determination result based on the
NW通信部106は、接続判定結果出力端子124を介して出力された接続判定結果に基づき、ネットワーク107との接続処理を行う。
The
コマンド判定部120で音声認識部118の音声認識の結果が「人名」と「接続コマンド」が続けて音声認識されない場合は、出力切替部203は、(13)式に示すように、無音信号を出力信号y_1(n)として音出力端子122aに出力する。
y_1(n)=0 …(13)
If the voice recognition result of the voice recognition unit 118 in the
y_1(n)=0...(13)
一方、コマンド判定部120で「人名」と「接続コマンド」が続けて音声認識された場合には、出力切替部203は、オーディオバッファ部117の読出し位置read_index_1を、下記の(14)式に従い計算する。
また、「人名」と「接続コマンド」が続けて音声認識されない場合は、出力切替部203は、信号処理部116からのマイク入力信号x(m,n)を出力するようにしても良い。
Further, if the "person's name" and "connection command" are not voice recognized consecutively, the
そして、出力切替部203は、以下の(15)式に示すようにオーディオバッファ部117に保持されている音信号を出力信号y_1(n)として音出力端子122に一定時間(例えば、LENの時間長分)出力し、以下の(16)式に示すように読出し位置read_index_1をインクリメントして進める。
NW通信部106は、音出力端子122aから出力された出力信号y_1(n)をネットワーク107で接続している相手側のコミュニケーション装置200のNW通信部106に送信する。
The
出力切替部203は、オーディオバッファ部117に保持されている音信号を一定時間出力すると、以下の(17)式に示すように、マイクアレイ処理信号x’_1(n)を、出力信号y_1(n)として音出力端子122aに出力する。
y_1(n)=x’_1(n) …(17)
When the
y_1(n)=x'_1(n)...(17)
NW通信部106は、音出力端子122から出力された出力信号y_1(n)を引き続きネットワーク107で接続している相手側のコミュニケーション装置200のNW通信部106に送信する。
The
一方、ネットワーク107から送信されてきた相手側の音声信号は、NW通信部106を介してDA変換部108に入力し、DA変換部108によりデジタル信号からアナログ信号に変換後、音声信号がスピーカアンプ109で増幅され、音声がスピーカ110aにより出力される。つまり、スピーカ110aから、使用者152aの音声が出力される。
On the other hand, the audio signal of the other party transmitted from the
呼びかけ音声再生後は、自拠点のコミュニケーション装置200と相手側の拠点のコミュニケーション装置200とが接続し、両拠点の間で、ビデオカメラ映像と音声のやりとりが行われる。
After the calling voice is played back, the
次に、図6に示すように、2人目の使用者152bがコミュニケーションに参加して、相手側の拠点にいる人と通話する場合を説明する。 Next, as shown in FIG. 6, a case where the second user 152b participates in communication and speaks with a person at the other party's base will be described.
この場合も、使用者152bがモニター111に表示されている相手側の拠点の映像を見るために、図6に示すように、使用者152bがモニター111に近づき、モニター111に映っている相手の拠点の映像を確認する。そうすると、人物位置検知部114は、ビデオカメラ104bに人が映っていることを判定し、その旨の判定結果を信号処理部116及び音声認識部118に出力する。
In this case as well, in order for the user 152b to view the image of the other party's base displayed on the monitor 111, the user 152b approaches the monitor 111 and views the other party's base displayed on the monitor 111, as shown in FIG. Check the video of the base. Then, the person
使用者152bは、映像に通話したい相手が映っていると、使用者152bが呼びかけ音声を発話する。使用者152bが発した音声は、環境音が重畳しマイクアレイ101bの各マイクに入力される。 When the user 152b sees the person he or she wants to talk to in the video, the user 152b utters a calling voice. The voice emitted by the user 152b is superimposed with environmental sounds and input to each microphone of the microphone array 101b.
マイクアレイ101bに入力されたアナログの音信号は、マイクアンプ102で増幅され、AD変換部103でアナログ信号からデジタル信号に変換され、音声信号が、呼びかけ処理部201の音入力端子115にマイク入力信号x(m,n)として入力される。
The analog sound signal input to the microphone array 101b is amplified by the
呼びかけ処理部201の音入力端子115に信号が入力され始めると、まず、マイク入力信号x(m,n)が信号処理部116に入力される。
When a signal starts to be input to the
人物位置検知部202でビデオカメラ104bの映像に人が映っていると判定されたとき、信号処理部116は入力信号に対してマイクアレイ処理を行い、指向性処理や音源を分離する音源分離処理をする。
When the person
そして、信号処理部116は、算出したマイクアレイ処理信号x’_2(n)、をオーディオバッファ部117と、音声認識部118と、出力切替部203に出力する。
Then, the
そして、信号処理部116は、人物位置検知部202でビデオカメラ104bの映像信号に人が映っていると判定されたときは、算出したマイクアレイ処理信号x’_2(n)を、オーディオバッファ部117と、音声認識部118と、出力切替部203に出力し、人物位置検知部202でビデオカメラ104の映像信号に人が映っていないと判定されたときは、(18)式に示すように、無線信号をオーディオバッファ部117と、音声認識部118と、無線信号を出力切替部203に出力する。
x’_2(n)=0 …(18)
Then, when the person
x'_2(n)=0...(18)
呼びかけ処理部201は、同時にマイクアレイ処理信号x’_2(n)は、(5)式に従い、オーディオバッファ部117のオーディオバッファbuffer_2(n)の書込み位置write_indexの位置に保持する。保持した後、呼びかけ処理部201は、(6)式のように、書込み位置write_indexの値に「1」をインクリメントして進める。
At the same time, the calling
さらに、呼びかけ処理部201では、同時にマイクアレイ処理信号x’_2(n)を音声認識部118に入力し、音声認識部118が音声認識を行い、マイクアレイ処理信号x’_2(n)の音声認識結果をコマンド判定部120に出力する。
Furthermore, the calling
コマンド判定部120は、マイクアレイ処理信号x’_2(n)の音声認識結果とコマンドリスト部119に保持されているコマンド一覧(例えば、図3のコマンドリスト)を比較し、コマンドリストにある「人名」とコマンドリストにある「接続コマンド」が続けて音声認識されたか否かの判定を行う(例えば、「○○さん こんにちは」など)。そして、コマンド判定部120は、判定結果を出力切替部121に、判定結果と音声認識結果を接続判定部123に出力する。
The
接続判定部123は、音声認識部118による音声認識結果及びコマンド判定部120に基づくコマンド判定結果に基づいて、接続判定を行い、接続判定結果をNW通信部106に出力する。
The connection determination unit 123 performs connection determination based on the voice recognition result by the voice recognition unit 118 and the command determination result based on the
例えば、音声認識部118による音声認識結果が「2」で、コマンド判定部120から「××さん こんにちは」という音声認識結果が出力された場合、接続判定部123は、相手側の拠点のコミュニケーション装置200が設置されている近くに「××さん」がいる場合は、ビデオカメラ104bとマイクアレイ101bと相手側の拠点のコミュニケーション装置100の○○さんの接続されていないビデオカメラとマイクアレイに接続する信号を接続判定結果出力端子124に出力する。拠点のコミュニケーション装置200が設置されている近くに「××さん」が入るかどうかの判定は、事前に端末の近くにいる人を登録した情報を使用する。
For example, if the voice recognition result by the voice recognition unit 118 is “2” and the
NW通信部106は、接続判定結果出力端子124から出力された接続判定結果に基づき、ネットワーク107との接続処理を行う。
The
コマンド判定部120で音声認識部118のマイクアレイ処理信号x’_2(n)の音声認識の結果が「人名」と「接続コマンド」が続けて音声認識されない場合は、出力切替部203は、(19)式に示すように、無音信号を出力信号y_2(n)として音出力端子122bに出力し続ける。
y_2(n)=0 …(19)
If the result of voice recognition of the microphone array processed signal x'_2(n) of the voice recognition unit 118 by the
y_2(n)=0...(19)
一方、コマンド判定部120で「人名」と「接続コマンド」が続けて音声認識された場合には、出力切替部203は、オーディオバッファ部117の読出し位置read_index_2を、下記の(20)式に従い計算する。
そして、出力切替部203は、以下の(21)式に示すようにオーディオバッファ部117に保持されている音信号を出力信号y_2(n)として音出力端子122bに、一定時間(例えば、LENの時間長分)出力し、以下の(22)式に示すように読出し位置read_index_2の値に「1」をインクリメントして進める。
NW通信部106は、音出力端子122から出力された出力信号y_2(n)をネットワーク107で接続している相手のNW通信部106に送信する。
The
出力切替部203は、オーディオバッファ部117に保持されている音信号を一定時間出力すると、以下の(23)式に示すように、マイクアレイ処理信号x’_2(n)を出力信号y_2(n)として音出力端子122bに出力する。
y_2(n)=x’_2(n) …(23)
When the
y_2(n)=x'_2(n)...(23)
NW通信部106は、音出力端子122を介して出力された出力信号y_2(n)を引き続きネットワーク107で接続している相手のNW通信部106に送信する。
The
一方、ネットワーク107から送信されてきた相手側の音声は、NW通信部106を介してDA変換部108に入力し、DA変換部108によりデジタル信号からアナログ信号に変換後、音声信号がスピーカアンプ109で増幅され、音声がスピーカ110bにより出力される。つまり、スピーカ110bから使用者152bの音声が出力される。
On the other hand, the voice of the other party transmitted from the
呼びかけ音声再生後は、接続後に遠隔通話装置はNW通信部106を介して、ビデオカメラ映像と音声のやりとりが行われる。
After the calling voice is played back, the remote communication device exchanges the video camera image and voice via the
(B-3)第2の実施形態の効果
以上のように、第2の実施形態によれば、コミュニケーション装置は、複数のマイクアレイを使用して、複数の話者の音声を別々に強調する信号処理を行う。そして、信号処理した信号を一度オーディオバッファ部に保持し、同時に信号処理した信号に対して音声認識を行い、その音声認識結果が呼びかけ音声か否かを各マイクアレイ信号毎に判定する。呼びかけ音声の場合には、通話相手に接続してからオーディオバッファ部に保持している呼びかけ音声を出力することで、呼びかけ音声が相手に伝わってから会話を開始することができる。また通話を終了する際には、信号処理した信号に対して音声認識を行い、その音声認識結果が切断音声か否かを判定し、切断音声の場合には、相手側の拠点との接続を切断する。このことにより、対面での会話に近い状態を再現でき、複数の話者で高い臨場感で会話を開始することができる。
(B-3) Effects of the second embodiment As described above, according to the second embodiment, the communication device uses multiple microphone arrays to separately emphasize the voices of multiple speakers. Perform signal processing. Then, the processed signal is once held in the audio buffer section, and at the same time, speech recognition is performed on the signal processed signal, and it is determined for each microphone array signal whether or not the speech recognition result is a calling speech. In the case of a calling voice, by outputting the calling voice held in the audio buffer section after connecting to the other party, it is possible to start a conversation after the calling voice is transmitted to the other party. In addition, when ending a call, voice recognition is performed on the processed signal, and it is determined whether the voice recognition result is a disconnection voice. If it is a disconnection voice, the connection with the other party's base is established. disconnect. This makes it possible to reproduce a situation similar to a face-to-face conversation, and allows multiple speakers to start a conversation with a high sense of realism.
(C)他の実施形態
上述した各実施形態においても、種々の変形実施形態を説明したが、本発明は以下の変形実施形態についても適用することができる。
(C) Other Embodiments Although various modified embodiments have been described in each of the above-described embodiments, the present invention can also be applied to the following modified embodiments.
(C-1)上述した各実施形態で説明したコミュニケーション装置は、例えば、電話会議で通話を開始するときに、音声の入力によるコマンドで通話を開始する装置に搭載されるようにしても良い。 (C-1) The communication device described in each of the above-described embodiments may be installed in a device that starts a call using a voice input command, for example, when starting a call in a conference call.
(C-2)上述した各実施形態で説明したコミュニケーション装置における、呼びかけ処理部やNW通信部は、ネットワーク上に設けられた処理装置(例えば、サーバなど)で処理されるようにしても良い。 (C-2) The call processing unit and the NW communication unit in the communication device described in each of the above-described embodiments may be processed by a processing device (for example, a server, etc.) provided on the network.
(C-3)上述した各実施形態で説明したコミュニケーション装置では、マイクアレイ101が、図2、図5、図6で例示したように、モニター111の前方に配置される場合を例示した。しかし、マイクアレイ101の配置例は、図2、図5、図6に限定されない。例えば、マイクアレイ101は、モニター111の上部又は側面に配置されても良い。また、コミュニケーション装置がプロジェクターとスクリーンを備えている場合、プロジェクターからの投影映像を結像させるためのスクリーンをモニター111に代えて設けるようにしても良い。このスクリーンの種類は、様々なものを用いることができ、例えば投影映像を結像させる通常のスクリーンでも良いし、また例えば、音を透過するスクリーンでも良い。音を透過するスクリーンの場合、マイクアレイ101は、スクリーンの後方に配置しても良い。
(C-3) In the communication devices described in each of the above-described embodiments, the
(C-4)上述した各実施形態で説明したコミュニケーション装置で、1つのマイクアレイ101を用意する場合を例示しているが、2つのマイクアレイを用意するようにしても良い。ここでは、例えば、マイクアレイ101a、101bとする。その場合、例えば、マイクアレイ101aは使用者152aの音声を収音するものとし、マイクアレイ101bは使用者152bの音声を収音するものとする。
(C-4) In the communication device described in each of the embodiments described above, one
100及び200…コミュニケーション装置、101…マイクアレイ、102…マイクアンプ、103…AD変換部、104、104a及び104b…ビデオカメラ、105及び201…呼びかけ処理部、106…NW通信部、107…ネットワーク、108…DA変換器、109…スピーカアンプ、110a及び110b…スピーカ、111…モニター、112、112a及び112b…映像入力端子、113、113a及び113b…映像出力端子、114…人物位置検知部、115…音入力端子、116…信号処理部、117…オーディオバッファ部、118…音声認識部、119…コマンドリスト部、120…コマンド判定部、121及び203…出力切替部、122、122a及び122b…音出力端子、123…接続判定部、124…接続判定結果出力端子。 100 and 200... communication device, 101... microphone array, 102... microphone amplifier, 103... AD converter, 104, 104a and 104b... video camera, 105 and 201... call processing unit, 106... NW communication unit, 107... network, 108...DA converter, 109...Speaker amplifier, 110a and 110b...Speaker, 111...Monitor, 112, 112a and 112b...Video input terminal, 113, 113a and 113b...Video output terminal, 114...Person position detection unit, 115... Sound input terminal, 116...Signal processing section, 117...Audio buffer section, 118...Speech recognition section, 119...Command list section, 120...Command judgment section, 121 and 203...Output switching section, 122, 122a and 122b...Sound output Terminal, 123...Connection determination unit, 124...Connection determination result output terminal.
Claims (5)
上記人物検知部の上記各人物の位置に関する情報に基づいて、1又は複数のマイクロホンの指向性を形成して、上記各人物の音声信号を抽出する信号処理部と、
相手側と接続後に送信する接続コマンド音声を相手側で再生させるためのバッファであり、上記信号処理部による上記接続コマンド音声を含む各人物の音声信号を一定期間保持する保持部と、
上記人物検知部により上記1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、
少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、
上記音声認識部による音声認識結果が上記コマンド記憶部に記憶される上記接続コマンド又は上記切断コマンドを含むか否かを判定するコマンド判定部と、
上記コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、
上記音声認識結果及び上記コマンド判定結果に基づいて、相手側の接続先との接続処理を行う接続判定部と
を備え、
上記音声認識結果が上記接続コマンドを含むとき、
上記接続判定部が、相手側の上記接続先との接続処理を行い、
上記出力切替部は、相手側の上記接続先との接続後、上記保持部に保持されている上記接続コマンドを含む音声信号を出力した後に、上記信号処理部により処理された信号を出力する
ことを特徴とするコミュニケーション装置。 a person detection unit that detects one or more people from an input video signal and acquires information regarding the position of each detected person;
a signal processing unit that forms the directivity of one or more microphones based on the information regarding the position of each person from the person detection unit and extracts the audio signal of each person;
a holding unit that is a buffer for causing the other party to reproduce a connection command voice transmitted after connection with the other party, and retains the voice signal of each person including the connection command voice produced by the signal processing unit for a certain period of time ;
a voice recognition unit that performs voice recognition based on an input voice signal when the one or more people are detected by the person detection unit;
a command storage unit that stores a plurality of commands including at least a connection command for starting a connection with a connection destination and a disconnection command for disconnecting the connection;
a command determination unit that determines whether the voice recognition result by the voice recognition unit includes the connection command or the disconnection command stored in the command storage unit;
an output switching unit that determines an output audio signal according to a command determination result by the command determination unit;
a connection determination unit that performs connection processing with a connection destination on the other side based on the voice recognition result and the command determination result;
When the above voice recognition result includes the above connection command,
The connection determination unit performs connection processing with the connection destination of the other party,
The output switching unit outputs the audio signal containing the connection command held in the holding unit after connecting with the connection destination of the other party, and then outputs the signal processed by the signal processing unit. A communication device featuring:
上記出力切替部が、上記保持部に保持されている上記切断コマンドを含む音声信号を出力した後に、上記接続判定部が上記接続先との接続を切断する
ことを特徴とする請求項1に記載のコミュニケーション装置。 When the above voice recognition result includes the above disconnection command,
2. The connection determining section disconnects the connection to the connection destination after the output switching section outputs the audio signal including the disconnection command held in the holding section. communication device.
上記人物検知部が、上記複数のビデオカメラのそれぞれからの映像信号から人物を検知し、
上記信号処理部が、上記人物検知部により検知された上記映像信号毎の上記各人物の位置に関する情報に基づいて、1又は複数のマイクロホンで収音された上記音声信号の指向性を形成して、上記各人物の音声信号を抽出し、
上記出力切替部が、上記信号処理部により抽出された上記各人物の音声信号を別々に出力する
ことを特徴とする請求項1又は2に記載のコミュニケーション装置。 Video signals are input from each of multiple video cameras,
The person detection unit detects a person from video signals from each of the plurality of video cameras,
The signal processing section forms the directivity of the audio signal picked up by the one or more microphones based on information regarding the position of each person for each of the video signals detected by the person detection section. , extract the audio signals of each person above,
The communication device according to claim 1 or 2, wherein the output switching unit separately outputs the audio signals of each person extracted by the signal processing unit.
入力された映像信号から1又は複数の人物を検知し、検知した各人物の位置に関する情報を獲得する人物検知部と、
上記人物検知部の上記各人物の位置に関する情報に基づいて、1又は複数のマイクロホンの指向性を形成して、上記各人物の音声信号を抽出する信号処理部と、
相手側と接続後に送信する接続コマンド音声を相手側で再生させるためのバッファであり、上記信号処理部による上記接続コマンド音声を含む各人物の音声信号を一定期間保持する保持部と、
上記人物検知部により上記1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をする音声認識部と、
少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶するコマンド記憶部と、
上記音声認識部による音声認識結果が上記コマンド記憶部に記憶される上記接続コマンド又は上記切断コマンドを含むか否かを判定するコマンド判定部と、
上記コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定する出力切替部と、
上記音声認識結果及び上記コマンド判定結果に基づいて、相手側の接続先との接続処理を行う接続判定部と
して機能させ、
上記音声認識結果が上記接続コマンドを含むとき、
上記接続判定部が、相手側の上記接続先との接続処理を行い、
上記出力切替部は、相手側の上記接続先との接続後、上記保持部に保持されている上記接続コマンドを含む音声信号を出力した後に、上記信号処理部により処理された信号を出力する
ことを特徴とするコミュニケーションプログラム。 computer,
a person detection unit that detects one or more people from an input video signal and acquires information regarding the position of each detected person;
a signal processing unit that forms the directivity of one or more microphones based on the information regarding the position of each person from the person detection unit and extracts the audio signal of each person;
a holding unit that is a buffer for causing the other party to reproduce a connection command voice transmitted after connection with the other party, and retains the voice signal of each person including the connection command voice produced by the signal processing unit for a certain period of time ;
a voice recognition unit that performs voice recognition based on an input voice signal when the one or more people are detected by the person detection unit;
a command storage unit that stores a plurality of commands including at least a connection command for starting a connection with a connection destination and a disconnection command for disconnecting the connection;
a command determination unit that determines whether the voice recognition result by the voice recognition unit includes the connection command or the disconnection command stored in the command storage unit;
an output switching unit that determines an output audio signal according to a command determination result by the command determination unit;
Function as a connection determination unit that performs connection processing with the other party's connection destination based on the voice recognition result and the command determination result,
When the above voice recognition result includes the above connection command,
The connection determination unit performs connection processing with the connection destination of the other party,
The output switching unit outputs the audio signal containing the connection command held in the holding unit after connecting with the connection destination of the other party, and then outputs the signal processed by the signal processing unit. A communication program featuring
信号処理部が、上記人物検知部の上記各人物の位置に関する情報に基づいて、1又は複数のマイクロホンの指向性を形成して、上記各人物の音声信号を抽出し、
保持部が、相手側と接続後に送信する接続コマンド音声を相手側で再生させるためのバッファであり、上記信号処理部による上記接続コマンド音声を含む各人物の音声信号を一定期間保持し、
音声認識部が、上記人物検知部により上記1又は複数の人物が検知されたときに、入力された音声信号に基づいて音声認識をし、
コマンド記憶部が、少なくとも、接続先との接続を開始する接続コマンド及び接続を切断する切断コマンドを含む複数のコマンドを記憶し、
コマンド判定部が、上記音声認識部による音声認識結果が上記コマンド記憶部に記憶される上記接続コマンド又は上記切断コマンドを含むか否かを判定し、
出力切替部が、上記コマンド判定部によるコマンド判定結果に応じて、出力音声信号を決定し、
接続判定部が、上記音声認識結果及び上記コマンド判定結果に基づいて、相手側の接続先との接続処理を行い、
上記音声認識結果が上記接続コマンドを含むとき、
上記接続判定部が、相手側の上記接続先との接続処理を行い、
上記出力切替部は、相手側の上記接続先との接続後、上記保持部に保持されている上記接続コマンドを含む音声信号を出力した後に、上記信号処理部により処理された信号を出力する
ことを特徴とするコミュニケーション方法。 The person detection unit detects one or more people from the input video signal and acquires information regarding the position of each detected person,
a signal processing unit forms directivity of one or more microphones based on information regarding the position of each person from the person detection unit, and extracts an audio signal of each person;
The holding unit is a buffer for causing the other party to reproduce the connection command voice transmitted after connection with the other party, and retains the voice signal of each person including the connection command voice by the signal processing unit for a certain period of time ;
a voice recognition unit performs voice recognition based on the input voice signal when the one or more people are detected by the person detection unit;
a command storage unit stores a plurality of commands including at least a connection command for starting a connection with a connection destination and a disconnection command for disconnecting the connection;
a command determination unit determines whether the voice recognition result by the voice recognition unit includes the connection command or the disconnection command stored in the command storage unit;
an output switching unit determines an output audio signal according to a command determination result by the command determination unit;
The connection determination unit performs connection processing with the other party's connection destination based on the voice recognition result and the command determination result,
When the above voice recognition result includes the above connection command,
The connection determination unit performs connection processing with the connection destination of the other party,
The output switching unit outputs the audio signal containing the connection command held in the holding unit after connecting with the connection destination of the other party, and then outputs the signal processed by the signal processing unit. A communication method characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182423A JP7361460B2 (en) | 2018-09-27 | 2018-09-27 | Communication devices, communication programs, and communication methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182423A JP7361460B2 (en) | 2018-09-27 | 2018-09-27 | Communication devices, communication programs, and communication methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020053882A JP2020053882A (en) | 2020-04-02 |
JP7361460B2 true JP7361460B2 (en) | 2023-10-16 |
Family
ID=69997713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182423A Active JP7361460B2 (en) | 2018-09-27 | 2018-09-27 | Communication devices, communication programs, and communication methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7361460B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023276701A1 (en) * | 2021-06-28 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Speaker diarization system, communication analysis system, and utterance amount estimation method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014178860A1 (en) | 2013-05-01 | 2014-11-06 | Thomson Licensing | Call initiation by voice command |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009021923A (en) * | 2007-07-13 | 2009-01-29 | Yamaha Corp | Voice communication apparatus |
JP2014060647A (en) * | 2012-09-19 | 2014-04-03 | Sony Corp | Information processing system and program |
JP6468712B2 (en) * | 2014-03-28 | 2019-02-13 | 大和ハウス工業株式会社 | communication unit |
-
2018
- 2018-09-27 JP JP2018182423A patent/JP7361460B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014178860A1 (en) | 2013-05-01 | 2014-11-06 | Thomson Licensing | Call initiation by voice command |
Also Published As
Publication number | Publication date |
---|---|
JP2020053882A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10771694B1 (en) | Conference terminal and conference system | |
JP2016146547A (en) | Sound collection system and sound collection method | |
US11782674B2 (en) | Centrally controlling communication at a venue | |
JP2014060647A (en) | Information processing system and program | |
CN115118913A (en) | Projection video conference system and projection video method | |
JP7400364B2 (en) | Speech recognition system and information processing method | |
JP7361460B2 (en) | Communication devices, communication programs, and communication methods | |
JP5120020B2 (en) | Audio communication system with image, audio communication method with image, and program | |
JP7095356B2 (en) | Communication terminal and conference system | |
JP2017168903A (en) | Information processing apparatus, conference system, and method for controlling information processing apparatus | |
JP2017103641A (en) | Information processing apparatus, conference system, information processing method and program | |
JP2006254064A (en) | Remote conference system, sound image position allocating method, and sound quality setting method | |
JP7035686B2 (en) | Remote calling devices, remote calling programs, and remote calling methods | |
JP6933163B2 (en) | Communication devices, communication systems, communication methods and programs | |
WO2019003357A1 (en) | Computer system, method for assisting in web conference speech, and program | |
JP2017163466A (en) | Information processor and conference system | |
JP2017158137A (en) | Conference system | |
JP5529617B2 (en) | Remote conference apparatus, remote conference method, and remote conference program | |
JP7599968B2 (en) | Video communication device, and control device and control method used therefor | |
JPH06175942A (en) | Multimedia electronic conference device | |
JPH03252258A (en) | Directivity reproducing device | |
JP7293863B2 (en) | Speech processing device, speech processing method and program | |
JP2006339869A (en) | Apparatus for integrating video signal and voice signal | |
JP6922551B2 (en) | Voice processing device, voice processing program, and voice processing method | |
WO2024004006A1 (en) | Chat terminal, chat system, and method for controlling chat system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221209 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221213 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221228 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230110 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7361460 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |