JP2007124140A - Photographing device and communication conference system - Google Patents
Photographing device and communication conference system Download PDFInfo
- Publication number
- JP2007124140A JP2007124140A JP2005311656A JP2005311656A JP2007124140A JP 2007124140 A JP2007124140 A JP 2007124140A JP 2005311656 A JP2005311656 A JP 2005311656A JP 2005311656 A JP2005311656 A JP 2005311656A JP 2007124140 A JP2007124140 A JP 2007124140A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- image
- sound source
- speaker
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
この発明は、話者等の映像を明瞭に撮影することができる撮影装置、および通信会議システムに関する。 The present invention relates to a photographing apparatus capable of clearly photographing a speaker or the like and a communication conference system.
近年、通信環境の整備が進み、映像と音声を送受信するテレビ会議システムが普及している。テレビ会議システムは、一般的に、カメラ、マイク、スピーカ、およびディスプレイを有し、送信側ではマイクで収音した音声とカメラで撮影した映像を送信する。受信側では受信音声をスピーカから発音し、受信映像をディスプレイに表示する。 In recent years, with the development of communication environments, video conference systems that transmit and receive video and audio have become widespread. A video conference system generally includes a camera, a microphone, a speaker, and a display. On the transmission side, audio collected by the microphone and video captured by the camera are transmitted. On the receiving side, the received sound is pronounced from the speaker and the received video is displayed on the display.
このようなテレビ会議システムにおいては、1対1の会話を行うだけでなく、複数人の会議参加者で会話を行うことが多い。この場合、話者のほうに都度撮影範囲を設定する(カメラを向ける)必要がある。カメラは、主に左右方向(パン)を変更して撮影範囲を変更する。 In such a video conference system, not only a one-on-one conversation but also a conversation between a plurality of conference participants is often performed. In this case, it is necessary to set a shooting range (point the camera) for the speaker each time. The camera mainly changes the shooting range by changing the left-right direction (pan).
このパンの変更をスムーズにするために、会議参加者のそれぞれに専用マイクを配置し、最も入力レベルが大きいマイクの方向に複数の話者をまとめて撮影するようにしたテレビ会議システムが提案されている(例えば特許文献1参照)。 In order to make this panning smooth, a videoconferencing system has been proposed in which a dedicated microphone is placed for each conference participant, and multiple speakers are shot together in the direction of the microphone with the highest input level. (For example, refer to Patent Document 1).
また、会議机上に設置した複数のカメラでパノラマ画像を生成し、所定領域の画像を切り出すことで、電子的にパンを変更する方法が提案されている(例えば特許文献2参照)。
特許文献1のテレビ会議システムは、カメラを機械的に回動させることでパンを変更するため、カメラを回動させる機構が必要となり、ハードウェアが煩雑となりコストがかかる。また、機械的に回動させるため、故障発生の可能性が高くなり、メンテナンスの必要も生じる。また、カメラを機械的に回動させることでパンを変更するため、話者を検出してから撮影範囲を設定するまでタイムラグが大きくなるという問題が有った。さらに、特許文献1のテレビ会議システムは、話者を検出するために、専用のマイクをそれぞれの会議参加者毎に配置する必要があり、煩雑な構成となる。
Since the video conference system of
特許文献2のバーチャル・カメラの制御方法においては、機械的にカメラを回動させることなく高速にパンを変更することができる。しかし、特許文献2においても話者を検出するために、専用のマイクをそれぞれの会議参加者毎に設置、または、会議机中心に複数のマイク(円形に配置したマイクアレイ)を設置する必要があり、煩雑な構成となる。また、会議机中心に複数のカメラ(カメラアレイ)を設置する例が示されているが、このような構成では机上にマイクやカメラ等、多数の機器が設置されるために会議参加者にとって邪魔になる。また、機器設置の手間もかかる。一方でディスプレイ付近にマイク、カメラを設置することが考えられるが、会議参加者とマイクの位置が離れると、音源位置を検出できる程度に発話音声を収音することができなかった。また、一般に通信会議においては、ディスプレイ前方中心位置に会議机が存在し、これを囲むように会議参加者が着座するため、ディスプレイ付近にカメラを設置しては、会議参加者の顔正面を撮影できない(横顔の画像になってしまう)という問題があった。
In the virtual camera control method disclosed in
この発明は、簡略な構成でありながら高速にパンを変更でき、発話者の映像(特に顔正面)を明瞭に撮影する撮影装置、および通信会議システムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a photographing apparatus and a communication conference system that can change a pan at high speed with a simple configuration and can clearly photograph a video of a speaker (particularly the front face).
この発明の撮影装置は、音源位置を検出する音源位置検出手段と、撮影視野が少なくとも連続し、互いに撮影視野が交差するようにそれぞれ異なる向きに設置した複数のカメラと、前記複数のカメラで撮影した連続画像から前記音源位置検出手段で検出した音源位置を含む範囲の画像を切り出す画像切り出し手段と、を備えたことを特徴とする。 The image capturing apparatus of the present invention includes a sound source position detecting means for detecting a sound source position, a plurality of cameras installed in different directions so that the field of view is at least continuous and the field of view intersects each other, and the plurality of cameras are used for shooting. Image cutout means for cutting out an image of a range including the sound source position detected by the sound source position detection means from the continuous images.
この発明において、音源位置検出手段(例えば赤外線センサ)で音源(例えば発話者)の位置を検出する。複数のカメラは継続的に画像を取得し、画像合成手段においてこれらの画像を合成する。各カメラの撮影視野範囲はその端部において連続となり、これを合成することでパノラマ画像を生成する。このパノラマ画像のうち、話者の位置に対応する部分を切り出して出力する。話者を検出した領域の画像を切り出して(電子的にパンを変更して)出力することで、機械的機構のない簡略な構成でありながら高速にパンを変更することができる。また、複数のカメラは、互いに撮影視野が交差する。例えば撮影装置の両端部に配置されたカメラが互いに内側方向を撮影する。一般に通信会議においては、通信会議システム(ディスプレイ)前方中心位置に会議机が存在し、これを囲むように会議参加者が存在するため、撮影装置の両端部に配置されたカメラが互いに内側方向を撮影することで会議参加者の顔正面を撮影し易くなる。 In this invention, the position of a sound source (for example, a speaker) is detected by sound source position detecting means (for example, an infrared sensor). The plurality of cameras continuously acquire images, and these images are combined by the image combining means. The photographing field of view of each camera is continuous at the end thereof, and a panoramic image is generated by combining these. Of this panoramic image, a portion corresponding to the position of the speaker is cut out and output. By extracting and outputting the image of the region where the speaker is detected (electronically changing the pan), it is possible to change the pan at high speed while having a simple configuration without a mechanical mechanism. In addition, the plurality of cameras have photographing fields intersecting each other. For example, cameras arranged at both ends of the photographing apparatus photograph the inner direction of each other. In general, in a teleconference, there is a conference desk in the center of the front of the teleconference system (display), and there are conference participants surrounding the conference desk. By taking a picture, it becomes easier to take a picture of the front face of the conference participant.
また、この発明は、さらに、前記音源位置検出手段は、複数のマイクを配列して構成されるマイクアレイと、前記複数のマイクが収音した音声信号をそれぞれ所定時間遅延して合成することにより、特定領域の音声を高レベルで収音する収音ビームを複数形成する収音信号処理手段と、前記収音信号処理手段が形成した複数の収音ビームのうち最もレベルが高い収音ビームの方向に音源が存在すると判断する音声信号選択手段と、からなることを特徴とする。 Further, according to the present invention, the sound source position detecting means further synthesizes a microphone array configured by arranging a plurality of microphones and an audio signal collected by the plurality of microphones with a predetermined time delay. A sound collecting signal processing means for forming a plurality of sound collecting beams for picking up sound of a specific area at a high level, and a sound collecting beam having the highest level among the plurality of sound collecting beams formed by the sound collecting signal processing means. Voice signal selection means for judging that a sound source is present in the direction.
この発明において、マイクアレイにより複数方向に収音ビームを形成する。複数の収音ビームのうち最もレベルが高い方向に音源が存在するとして、音源位置を検出する。 In the present invention, sound collecting beams are formed in a plurality of directions by the microphone array. The sound source position is detected on the assumption that the sound source exists in the direction of the highest level among the plurality of sound collecting beams.
この発明の通信会議システムは、請求項2に記載の撮影装置と、前記収音信号選択手段が選択した収音ビームの音声信号、および前記画像切り出し手段が切り出した画像信号を出力し、外部からの音声信号および画像信号を入力する送受信手段と、前記送受信手段が入力した音声信号に基づく音声を発する音声出力手段と、前記送受信手段が入力した画像信号に基づく画像を表示する表示手段と、を備えたことを特徴とする。 The communication conference system according to the present invention outputs the sound signal of the sound collecting beam selected by the sound collecting signal selecting means and the image signal cut out by the image cutting means from the outside. Transmitting / receiving means for inputting the audio signal and the image signal, sound output means for emitting sound based on the audio signal input by the transmitting / receiving means, and display means for displaying an image based on the image signal input by the transmitting / receiving means, It is characterized by having.
この発明において、他の通信会議システムから音声信号を入力し、スピーカから音声を発するとともに、複数のマイクで音声を収音し、他の通信会議システムに出力する。また、複数のカメラで撮影した映像データを他の通信会議システムに出力する。 In the present invention, an audio signal is input from another communication conference system, a sound is emitted from a speaker, and the sound is collected by a plurality of microphones and output to another communication conference system. Also, video data captured by a plurality of cameras is output to another communication conference system.
また、この発明は、さらに、前記音声出力手段は、複数のスピーカを配列して構成されるスピーカアレイと、前記送受信手段が入力した音声信号を、前記複数のスピーカにそれぞれ所定時間遅延して出力することにより、特定領域に音声を高レベルで放音する音声ビームを形成する放音信号処理手段と、からなり、前記放音信号処理手段は、収音側における音源位置に仮想的な音源が形成されるように音声ビームを形成し、前記表示手段に表示される画像中の音源の位置と、前記仮想的な音源の位置が同じ、または、同方向となるように前記音声ビームを制御することを特徴とする。 Further, according to the present invention, the sound output means outputs a speaker array configured by arranging a plurality of speakers, and a sound signal input by the transmitting / receiving means to each of the plurality of speakers with a predetermined delay. And a sound emission signal processing means for forming a sound beam that emits sound at a high level in a specific area, wherein the sound emission signal processing means has a virtual sound source at a sound source position on the sound collection side. An audio beam is formed so as to be formed, and the audio beam is controlled so that the position of the sound source in the image displayed on the display means is the same as or in the same direction as the position of the virtual sound source. It is characterized by that.
この発明において、スピーカアレイにより音声ビームを形成する。このとき、収音側における通信会議システムと音源の位置関係で仮想音源が形成されるように、音声ビームを形成する。これにより、映像に一致した音像定位ができ、よりリアルな会議環境を得ることができる。 In the present invention, a sound beam is formed by a speaker array. At this time, an audio beam is formed so that a virtual sound source is formed by the positional relationship between the communication conference system and the sound source on the sound collection side. Thereby, sound image localization that matches the video can be performed, and a more realistic conference environment can be obtained.
この発明によれば、複数のカメラでパノラマ画像を取得し、音源を検出した領域の画像を切り出して(電子的にパンを変更して)出力することで、機械的機構のない簡略な構成でありながら高速にパンを変更することができるとともに、撮影装置の両端部に配置されたカメラが互いに内側方向を撮影することで、音源(発話者)の映像を正面から明瞭に撮影することができる。 According to the present invention, a panoramic image is acquired by a plurality of cameras, and an image of a region where a sound source is detected is cut out (electronically panned) and output, thereby having a simple configuration without a mechanical mechanism. While being able to change the pan at high speed, the cameras arranged at both ends of the photographing device can photograph the sound source (speaker) clearly from the front by photographing the inside direction of each other. .
図面を参照して、本発明の実施形態に係る通信会議システムについて説明する。図1は、通信会議システムの構成を示すブロック図である。同図に示すように、この通信会議システムは、複数のスピーカ1A〜1M、複数のマイク2A〜2M、複数の(同図においては3つの)カメラ3A〜3C、音声信号処理部4、画像処理部5、コントローラ6、入出力インターフェース7、およびディスプレイ8を備えている。
A communication conference system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a communication conference system. As shown in the figure, this communication conference system includes a plurality of speakers 1A to 1M, a plurality of
複数のスピーカ1A〜1M、および複数のマイク2A〜2Mは、音声信号処理部4に接続されている。3つのカメラ3A、3B、および3Cは、画像処理部5に接続されている。音声信号処理部4、および画像処理部5は入出力インターフェース7に接続されるとともに、コントローラ6に接続されている。コントローラ6は、入出力インターフェース7に接続されている。入出力インターフェース7は、他の通信会議システムにネットワーク等を介して接続される。ディスプレイ8は、入出力インターフェース7および画像処理部5に接続されている。
The plurality of
この通信会議システムは、ネットワーク等を介して接続される他の通信会議システムから音声信号を入力し、複数のスピーカ1から音声を発するとともに、複数のマイク2で音声を収音し、他の通信会議システムに音声信号を出力する。また、他の通信会議システムから映像データを入力し、ディスプレイ8に表示するとともに、複数のカメラ3で撮影した映像データを他の通信会議システムに出力する。これにより所謂テレビ電話(テレビ会議)を実現するものである。また、この通信会議システムは、発話者の位置(領域)を上記複数のマイクにより検出するものであり、検出した発話者の領域の画像を他の通信会議システムに出力する。
This communication conference system inputs audio signals from other communication conference systems connected via a network or the like, emits audio from a plurality of
複数のスピーカ1A〜1Mは、直線状に配列され、スピーカアレイ(図6参照)を構成する。また、複数のマイク2A〜2Mも直線上に配列され、マイクアレイ(図6参照)を構成する。3つのカメラ3A、3B、および3Cは、それぞれ所定間隔離れた位置(図6参照)に設置され、撮影視野が少なくとも連続となるように設置される。詳細は後述する。
The plurality of
スピーカ1は、一般的にはコーン型スピーカを用いるが、ホーン型スピーカ等、その他の形式を用いてもよい。また、スピーカアレイのスピーカ配列個数、配列間隔は、この通信会議システムを設置する環境や必要とする周波数帯域等により適宜設定する。
As the
各スピーカ1に入力される音声信号は、音声信号処理部4により決定される。入出力インターフェース7を介して他の会議システムから入力された音声信号は音声信号処理部4に入力される。この音声信号は、他の会議システムから入出力インターフェース7を介してコントローラ6に入力された、音源位置を示す情報に基づいて、音声信号処理部4によって所定の遅延量を付与されて各スピーカ1に入力される。各スピーカ1では、入力された音声信号を音声として放音する。なお、図1においては、ディジタル音声信号をアナログ音声信号に変換するD/A変換器や信号を増幅するアンプ等は省略している。
The audio signal input to each
例えば全てのスピーカ1に同じ遅延量の音声信号が同時に入力されると、各スピーカ1からは同時に音声(音波)が出力される。スピーカ1から出力された音波は放射状に伝搬していくが、これらの合成波面は、平行で前方のみに伝搬するもの、すなわち音声ビームとなる。これ以外の方向へ伝搬する成分は、各スピーカ1から出力された成分が合成されることによって(干渉しあうことによって)打ち消され、前方に向かう成分のみが合成によって強められて音声ビームとして残る。
For example, when audio signals having the same delay amount are simultaneously input to all the
また、一端のスピーカ1から最初に音声を出力し、続いて、所定時間が経過する毎に順次隣のスピーカ1から音声を出力すると、合成波面はその遅延時間に応じて傾斜し、音声ビームを斜め方向に向けることができる。このように、各スピーカ1を水平方向にライン状に配列することで、水平方向の任意の方向への指向性制御が可能となる。
Further, when sound is first output from the
なお、以上の説明は、平面波を出力する場合のディレイ処理であるが、各スピーカ1に出力する信号のディレイを適当に制御することで、スピーカアレイの前方(または後方)にビームの焦点を持たせることもできる(図8参照)。
The above description is the delay processing when a plane wave is output. By appropriately controlling the delay of the signal output to each
各マイク2の前方領域のある位置で音声が発せられると、各マイク2がこれを収音する。マイク2は、収音した音声から音声信号を音声信号処理部4に出力する。マイク2は、一般的にはダイナミックマイクを用いるが、コンデンサマイク等、その他の形式を用いてもよい。また、マイクアレイのマイク配列個数、配列間隔は、この通信会議システムを設置する環境や必要とする周波数帯域等により適宜設定する。なお、図1においてはフロントエンドのアンプやアナログ音声信号をディジタル音声信号に変換するA/D変換器等は省略している。各マイク2から出力される音声信号は、音声信号処理部4にて合成され、入出力インターフェース7に出力される。入出力インターフェース7は他の会議システム等にこの音声信号を出力する。各マイク2で音声を収音した際、音声は各マイク2と音源との距離に応じた伝搬時間で伝搬されるので、各マイク2では収音タイミングに差が生じる。
When sound is emitted at a position in the front area of each
ここで、例えば全てのマイク2に前方から同タイミングで音波が到来したとすると、各マイク2から出力された音声信号は、合成によって強められる。一方で、これ以外の方向から音波が到来すると、各マイク2から出力される音声信号はそれぞれ位相が異なるために合成されることによって弱められる。したがって、アレイマイクの感度はビーム状に絞り込まれて前方にのみ主感度(収音ビーム)を形成する。
Here, for example, if sound waves arrive at all the
音声信号処理部4は、各マイク2が出力した音声信号にそれぞれ所定の遅延時間を付与することで収音ビームを斜めに向けることができる。収音ビームを斜めにする場合、一方の端部マイク2から所定時間が経過する毎に順次隣のマイク2から音声信号を出力するように設定する。例えば音源がマイクアレイの一方の端部前方に存在する場合、音源に最も近い一方の端部から音波が到来し、反対の端部に最後に音波が到来するが、音声信号処理部4は、この伝搬時間差を補正するように各マイク2の音声信号に遅延時間を付与した後合成する。これによりこの方向の音声信号を合成によって強められる。したがって、一列に並んでいるマイク2から出力する音声信号を一端から他端に向けて順次遅延することにより、収音ビームは、その遅延時間に応じて傾斜する。
The audio signal processing unit 4 can direct the sound collection beam obliquely by giving a predetermined delay time to the audio signal output from each
なお、以上の説明は、平面波を収音する場合のディレイ処理であるが、各マイク2が出力する信号のディレイを適当に制御することで、マイクアレイの前方(または後方)に収音ビームの焦点を持たせることもできる(図8参照)。
Although the above description is the delay processing in the case of picking up plane waves, by appropriately controlling the delay of the signal output from each
また、この収音ビームは複数を同時に形成することも可能である。図2は、音声信号処理部4のうち、マイク2に接続される主要部の構成を示すブロック図である。マイク2A〜2Mは、それぞれ音声信号処理部4のディジタルフィルタ41A〜41Mに接続される。マイク2A〜2Mで収音した音声は、ディジタル音声信号としてディジタルフィルタ41A〜41Mに入力される。なお、図2においては、ディジタルフィルタ41A〜41Mの内、ディジタルフィルタ41Aについてのみ詳細なブロック図を図示するが、他のディジタルフィルタ41B〜41Mについても同様の構造であり、同様の動作を行うものである。
Also, a plurality of sound collecting beams can be formed simultaneously. FIG. 2 is a block diagram illustrating a configuration of a main part connected to the
ディジタルフィルタ41Aは、複数段の出力を有するディレイバッファ42Aを備えている。ディレイバッファ42Aの各段の遅延量は、マイクアレイのマイク2の配置、およびマイクアレイ前方の領域(発話者を検出する領域)に応じて設定される。この例においてディレイバッファ42Aは4段の出力を有しており、これらの出力信号がFIRフィルタ431A〜434Aに入力される。
The digital filter 41A includes a
ディレイバッファ42Aは、マイク2Aが出力した音声信号に対してそれぞれ異なる遅延時間を付与した音声信号を各段にバッファし、FIRフィルタ431A〜434Aに各遅延音声信号を出力する。ここでFIRフィルタ431A〜434Aに出力する遅延音声信号は、マイクアレイ前方の各領域に対応するものである。図3は音源方向検出方法の概念図である。同図(A)は音源とマイクとの位置関係と、音源から発生した音が各マイクで収音される際のディレイとの関係を示した図であり、同図(B)、(C)は収音された音声信号のディレイに基づくディレイ補正量の形成概念を示す図である。
The
同図に示すように、この通信会議システムにおいてはマイクアレイ前方に4つの部分領域101〜104を設定している。部分領域101で発生した音は最も近いマイク2Aで最初に収音される。そして、部分領域101とマイク2との距離に応じて順に、各マイクで収音され、最も遠いマイク(同図においてマイク2L)で最後に収音される。一方、部分領域104で発生した音は最も近いマイク2Lで最初に収音され、部分領域104とマイク2との距離に応じて順に、各マイクで収音され、最も遠いマイク2Aで最後に収音される。このように、各領域で発生する音はマイクとの距離に応じた遅延時間(ディレイ)で収音される。
As shown in the figure, in this communication conference system, four
ここで、部分領域101に対しては、図3(B)に示すように、各マイク2A〜2Lで収音される音声信号を遅延処理する。すなわち、図3(A)に示すディレイを補正するように対応するディレイ補正量を設定する。一方で部分領域104に対しては、図3(C)に示すように各マイク2A〜2Lで収音される音声信号を遅延処理する。
Here, for the
部分領域101に対応する収音ビームを構成するための遅延音声信号がディレイバッファ42Aにおいて生成され、FIRフィルタ431Aに出力される。また、部分領域102に対応する収音ビームを構成するための遅延音声信号がFIRフィルタ432Aに出力される。同様に、部分領域103に対応する収音ビームを構成するための遅延音声信号がFIRフィルタ433Aに出力され、部分領域104に対応する収音ビームを構成するための遅延音声信号がFIRフィルタ434Aに出力される。これらの遅延音声信号の遅延量は、図3に示すようにマイク2と各領域との距離に応じて設定される。例えば部分領域101に対応する遅延音声信号は、マイク2Aと部分領域101との距離が近いため遅延量が大きく、部分領域104に対応する遅延音声信号は、マイク2Aと部分領域104との距離が最も遠いために遅延量が小さい。
A delayed sound signal for forming a sound collecting beam corresponding to the
図2において、FIRフィルタ431A〜434Aは全て同じ構成からなり、それぞれに入力された遅延音声信号をフィルタリングして出力する。FIRフィルタ431A〜434Aは、ディレイバッファ42Aでは実現できない詳細な遅延時間を設定することができる。すなわち、FIRフィルタのサンプリング周期とタップ数とを所望の値に設定することにより、例えばディレイバッファ42Aでのサンプリング周期を遅延時間の整数部分とする場合にこの遅延時間の小数点部分を実現することができる。
In FIG. 2, the FIR filters 431A to 434A all have the same configuration, and filter and output the delayed audio signals input thereto. The FIR filters 431A to 434A can set a detailed delay time that cannot be realized by the
FIRフィルタ431A〜434Aから出力された遅延音声信号は、それぞれのアンプ441A〜444Aで増幅されて、加算器45A〜45Dに入力される。他のディジタルフィルタ41B〜41Mにおいてもディジタルフィルタ41Aと同じ構成からなり、それぞれに予め設定された遅延条件にしたがって遅延音声信号を加算器45A〜45Dに出力する。
The delayed audio signals output from the FIR filters 431A to 434A are amplified by the
加算器45Aは、各ディジタルフィルタ41A〜41Mから入力される遅延音声信号を合成して、図3における部分領域101に対応する収音ビームを生成する。同様に、加算器45Bは、各ディジタルフィルタ41A〜41Mから入力される遅延音声信号を合成して、図3における収音領域102に対応する収音ビームを生成し、加算器45Cは、各ディジタルフィルタ41A〜41Mから入力される遅延音声信号を合成して、図3における部分領域103に対応する収音ビームを生成する。また、加算器45Dは、各ディジタルフィルタ41A〜41Mから入力される遅延音声信号を合成して、図3における部分領域104に対応する収音ビームを生成する。
The
各加算器45A〜45Dから出力される収音ビームは、バンドパスフィルタ(BPF)46に出力される。BPF46は、各収音ビームをフィルタリングして所定の周波数帯域の収音ビームをレベル判定部47に出力する。ここで、BPF46は、マイクアレイの幅やマイク2の設置間隔に応じてビーム化される周波数帯域が異なることを利用し、各収音ビームで収音したい音声に対応する周波数帯域を通過帯域に設定する。例えば収音したい音声が話者の発話音声であれば、人の音声帯域に相当する周波数帯域を通過帯域に設定すればよい。
The collected sound beams output from the adders 45 </ b> A to 45 </ b> D are output to a band pass filter (BPF) 46. The BPF 46 filters each sound collection beam and outputs a sound collection beam in a predetermined frequency band to the level determination unit 47. Here, the BPF 46 uses the fact that the frequency band to be beamed differs depending on the width of the microphone array and the installation interval of the
レベル判定部47は、各収音ビームのレベルを比較し、最もレベルが高い収音ビームを選択する。収音ビームのレベルが高いということは、この収音ビームに対応する領域に音源(発話者)が存在することとなり、図3において示した4つの領域に区分した場合における音源の存在領域を検出することができる。レベル判定部47は、音源の存在領域を示す情報をコントローラ6に出力する。なお、レベル判定部47は、単に最もレベルが高い収音ビームの情報をコントローラ6に出力するようにし、コントローラ6がこれに対応する領域を判断するようにしてもよい。 The level determination unit 47 compares the levels of the sound collecting beams and selects the sound collecting beam having the highest level. A high sound collecting beam level means that a sound source (speaker) exists in the region corresponding to the sound collecting beam, and the sound source existing region is detected when the sound collecting beam is divided into the four regions shown in FIG. can do. The level determination unit 47 outputs information indicating the sound source existing area to the controller 6. Note that the level determination unit 47 may simply output the information of the collected sound beam having the highest level to the controller 6 so that the controller 6 determines the corresponding region.
コントローラ6は、セレクタ48に、音源の存在領域に対応する収音ビームを選択して出力するように設定する。セレクタ48には、各加算器45A〜45Dから出力された収音ビームが入力され、コントローラ6によって設定された収音ビームのみを出力する。このセレクタ48の出力が入出力インターフェース7に入力され、他の通信会議システム等に出力される。したがって、この通信会議システムは発話者の音声のみを明瞭に他の会議システム等に送信することが可能となる。さらに、コントローラ6は、他の通信会議システムにおいて音源の存在領域が再現されるように(送信先において仮想的な音源が形成されるように)、音源の位置情報を入出力インタフェース7に出力する。音源の位置情報は、レベル判定部47で判定した音源の存在領域を示す情報を基にする。位置情報は、音源の存在領域を示す情報(音源の位置座標等)であってもよいし、各スピーカ1に設定する遅延時間を示す情報であってもよい。
The controller 6 sets the
カメラ3は、CCDやCMOS等のイメージセンサにより構成され、この通信会議システムの前方を継続的に撮影し、通信会議システム前方の画像を取得する。なお、このカメラ3は高精細のイメージセンサである必要はなく、テレビ会議に必要とされる精細度(0.3Mピクセル/フレーム)程度の性能を有していればよい。各カメラ3は、互いに所定距離離れた位置に直線状に配置される。 The camera 3 is configured by an image sensor such as a CCD or a CMOS, and continuously captures the front of the communication conference system and acquires an image in front of the communication conference system. Note that the camera 3 does not have to be a high-definition image sensor, and only needs to have a performance of a degree of definition (0.3 M pixel / frame) required for a video conference. Each camera 3 is linearly arranged at a position separated from each other by a predetermined distance.
図4は、カメラ撮影範囲を示す概念図である。3つのカメラ3A、3B、および3Cは直線状に配置される。また、カメラ3Bが中心位置に配置され、カメラ3Aとカメラ3Cが端部に配置される。端部に配置されるカメラ3A、およびカメラ3Cは、内側方向(正面中心方向)に向くように、つまり撮影視野範囲が交差するように配置されている。ここで、それぞれのカメラ撮影範囲はその範囲端部においてオーバーラップする(重複となる)ように配置される。同図においては、カメラ3Aの撮影範囲右端部とカメラ3Bの撮影範囲左端部が重複し、カメラ3Cの撮影範囲左端部とカメラ3Bの撮影範囲右端部が重複している。したがってカメラ3A〜3Cにおいては、その撮影範囲中心軸が交錯する位置30でカメラを回動させて(パンを変更して)撮影する場合と略同じ画像が得られる。つまり仮想的に位置30にカメラを設置し、パンを変更した場合と同様の効果が得られる。
FIG. 4 is a conceptual diagram showing a camera shooting range. The three
各カメラ3で取得された画像は、画像処理部5に出力される。画像処理部5は、各カメラ3で取得されたそれぞれの画像を合成し、パノラマ画像を生成する。すなわち、各カメラ3の視野は、それぞれの端部において重複となるため、この端部を合成する(つなぎ合わせる)ことでパノラマ画像を生成することができる。一般に通信会議においては、通信会議システム前方中心位置に会議机が存在し、これを囲むように会議参加者が存在するため、端部に配置されたカメラ3A、およびカメラ3Cが互いに内側方向を撮影することで会議参加者の顔正面を撮影し易くなる。
An image acquired by each camera 3 is output to the image processing unit 5. The image processing unit 5 combines the images acquired by the cameras 3 to generate a panoramic image. That is, since the field of view of each camera 3 overlaps at each end portion, a panoramic image can be generated by combining (connecting) the end portions. In general, in a teleconference, there is a conference desk at the front center position of the teleconference system, and there are conference participants surrounding the conference desk. Therefore, the
図4においては、通信会議システム前方中心付近の紙面左側(通信会議システムから見て右側)に会議参加者200A、および200Bが存在する。また、通信会議システム前方中心に会議参加者200Cが存在し、通信会議システム前方中心付近の紙面右側(通信会議システムから見て左側)に会議参加者200D、および200Eが存在する。各会議参加者200A〜200Eは、それぞれ通信会議システム前方中心付近の会議机210を囲むように存在する。したがって、紙面左側の会議参加者200A、および200Bは、ほぼカメラ3Cの方向を向き、紙面右側の会議参加者200D、および200Eは、ほぼカメラ3Aの方向を向くこととなる。
In FIG. 4, conference participants 200 </ b> A and 200 </ b> B exist on the left side of the paper near the front center of the teleconference system (right side when viewed from the teleconference system). In addition, the conference participant 200C exists at the front center of the communication conference system, and the
これにより、通信会議システム付近に設置した単一のカメラでパンを変更して各会議参加者を撮影する場合に比べ、会議参加者の顔正面を撮影し易くなる。 This makes it easier to capture the front faces of the conference participants than when shooting each conference participant by changing the pan with a single camera installed near the communication conference system.
図5は、画像処理部5の詳細な構成を示すブロック図である。画像処理部5の合成処理部51にカメラ3A、3B、および3Cの画像が入力される。合成処理部51は、上記のように各画像を合成し、パノラマ画像を生成する。このパノラマ画像は画像バッファ52に出力される。画像バッファ52は、このパノラマ画像をバッファする。抽出部53は、画像バッファ52でバッファされるパノラマ画像を読み出し、一部の領域を切り出して入出力インターフェース7に出力する。この切り出す領域はコントローラ6により決定される。
FIG. 5 is a block diagram illustrating a detailed configuration of the image processing unit 5. The images of the
コントローラ6は、上述したように音源の存在領域を示す情報を取得している。したがって、コントローラ6は、この音源が存在する領域の画像を切り出すように抽出部53に設定する。抽出部53は、音源が存在する領域の画像を切り出して入出力インターフェース7に出力する。これにより、音源が存在する領域の画像のみ他の通信会議システムに送信されることとなる。したがって、音源となる発話者以外の音声(ノイズ)や画像が出力されることなく、発話者の映像と音声が鮮明に出力されることとなる。 As described above, the controller 6 acquires information indicating the sound source existing area. Therefore, the controller 6 sets the extraction unit 53 to cut out an image of an area where the sound source exists. The extraction unit 53 cuts out an image of an area where the sound source exists and outputs it to the input / output interface 7. As a result, only the image of the area where the sound source exists is transmitted to another communication conference system. Therefore, the sound and video of the speaker are clearly output without outputting sound (noise) and images other than the speaker as the sound source.
なお、ディスプレイ8には、他の通信会議システムから入力された通信先の画像を表示するが、画像処理部5(抽出部53)から発話者自身の画像を表示することも可能である。ディスプレイ8において通信先に表示される画像を確認することができる。
In addition, although the image of the communication destination input from other communication conference systems is displayed on the
図6は通信会議システムの外観の一例を示す図であり、図7はカメラ撮影範囲と音源検出領域範囲を示す図である。図6に示すように、本通信会議システムは、ディスプレイ8の上部に設置された複数(例えば15個)のマイク2からなるマイクアレイと、複数(例えば12個)のスピーカ1からなるスピーカアレイと、複数(例えば3個)のカメラ3とを備えている。ディスプレイ8には他の通信会議システムから受信した画像を表示する。3つのカメラ3は、複数のスピーカ1と同一直線上に配置され、外観上スピーカアレイのスピーカ1と同様に等間隔に配置される。つまり、本来であれば15個配置されるべきスピーカ1のうち、中心位置および左右端部から一つ内側の位置におけるスピーカ1の代わりにカメラ3を配置した構成となる。カメラをスピーカに置き換えた配置とすることで、外観上カメラが目立たず、すっきりとした構成となる。なお、カメラ3の位置はこの例に限るものではないが、スピーカアレイの音声ビーム幅を確保するためにスピーカアレイの直線上、左右端部にはスピーカ1を設置する。
FIG. 6 is a diagram illustrating an example of the appearance of the communication conference system, and FIG. 7 is a diagram illustrating a camera photographing range and a sound source detection region range. As shown in FIG. 6, the communication conference system includes a microphone array including a plurality of (for example, 15)
上述のように、本通信会議システムは、マイクアレイによって4つの音源検出部分領域101〜104に収音ビームを設定している。図7(A)においては、部分領域103内に音源250が存在する。したがって、部分領域103に対応する収音ビームのレベルが最も高くなり、コントローラ6は、部分領域103に音源が存在すると判断する。
As described above, in the communication conference system, sound collection beams are set in the four sound source detection
コントローラ6は、音源が存在すると判断すると、画像バッファ52に対し、抽出部53にパノラマ画像を出力するよう指示する。また、抽出部53に対し、部分領域103に対応する部分の画像を切り出して出力するよう指示する。したがって、同図(B)に示す破線のパノラマ画像のうち、実線で示す部分領域103に対応する画像領域が抽出部53から入出力インターフェース7に出力されることとなり、通信先においては発話者(音源250)の画像を鮮明に取得することができる。
When the controller 6 determines that there is a sound source, it instructs the image buffer 52 to output a panoramic image to the extraction unit 53. In addition, the extraction unit 53 is instructed to cut out and output an image of a portion corresponding to the
ここで、例えば異なる領域(例えば部分領域101)で発話がなされると、部分領域101に対応する収音ビームのレベルが最も高くなり、コントローラ6は、この部分領域101に音源が存在すると判断する。したがって、コントローラ6は抽出部53に対し、部分領域101に対応する部分の画像を切り出して出力するよう指示する。この際、機械的にカメラを移動してパンを変更するのではなく、バッファしているパノラマ画像の所望の領域の画像を切り出す(電子的にパンを変更する)ため、従来よりも簡略な構造でありながら高速に出力画像を変更することが可能となる。
Here, for example, when an utterance is made in a different area (for example, the partial area 101), the level of the sound collecting beam corresponding to the
また、本実施形態の通信会議システムを送信側、受信側の両方に用いることで以下のような効果を得ることができる。図8は、指向特性を説明する図である。同図(A)は、送信側のマイクアレイの指向特性(収音ビーム)を示した図である。同図において、音源250が発した音声は、最も近いマイク2から順に到達するが、それぞれのマイク2に遅延を与え、音源から発せられた音声が各マイク2で同位相で出力されるようにし、収音ビームに焦点を持たせる。
Moreover, the following effects can be acquired by using the communication conference system of this embodiment for both the transmission side and the reception side. FIG. 8 is a diagram for explaining directivity characteristics. FIG. 6A is a diagram showing the directivity characteristics (sound collecting beam) of the microphone array on the transmission side. In the figure, the sound emitted from the
一方で、同図(B)は、受信側のスピーカアレイの指向特性を示した図である。同図において、受信した音声信号をそれぞれのスピーカ1から出力する。このとき、入出力インタフェース7を介してコントローラ6に入力された送信側の音源位置情報に基づいて、同図(A)に示したような通信会議システムと音源250の位置関係で、仮想音源を形成する。この仮想音源に最も近い位置のスピーカ1から最初に音声を出力し、隣のスピーカ1から順に遅延して出力する。このように、順次遅延させることにより、音声ビームに焦点を持たせることができ、音声が発話者の位置から発せられたかのような音像定位をさせることができる。したがって、従来の通信会議システムに比べ、映像に一致した音像定位ができ、よりリアルな会議環境を得ることができる。
On the other hand, FIG. 5B is a diagram showing the directivity characteristics of the speaker array on the receiving side. In the figure, the received audio signal is output from each
次に、この通信会議システムの動作についてフローチャートを用いて説明する。図9は、通信会議システムの動作を示すフローチャートである。まず、各マイク2で収音した音声信号が音声信号処理部4に入力される(s11)。その後、各ディジタルフィルタ41A〜41Mのディレイバッファで複数段の遅延音声信号が形成される(s12)。ディレイバッファから出力された複数の遅延音声信号は、それぞれ音源検出領域に対応する複数の加算器において合成され、複数の収音ビームが形成される(s13)。各音源検出領域に対応する複数の収音ビームはレベル判定部47でレベル比較される(s14)。
Next, the operation of this communication conference system will be described using a flowchart. FIG. 9 is a flowchart showing the operation of the communication conference system. First, the audio signal collected by each
コントローラ6は、最もレベルが高い収音ビームに対応する音源検出領域に発話者が存在すると判断する(s15)。その後、コントローラ6は、発話者が存在すると判断した音源検出領域の画像を切り出すように画像処理部5に設定し、音声信号処理部4のセレクタ48にこの領域に対応する収音ビームを出力するよう設定する(s16)。その後、音声信号処理部4から発話者の音声信号が、また画像処理部5から発話者の画像が入出力インターフェース7に出力される(s17)。
The controller 6 determines that a speaker is present in the sound source detection area corresponding to the sound collecting beam having the highest level (s15). After that, the controller 6 sets the image processing unit 5 so as to cut out the image of the sound source detection area determined that the speaker is present, and outputs the sound collection beam corresponding to this area to the
なお、本実施形態では、前面4つの領域において音源を検出する例について説明したが、さらに多数の領域に分けて音源を検出してもよい。図2におけるディレイバッファ42Aの段数を変更することで音源検出領域を多数設定することが可能である。なお、本実施形態では、マイクアレイにより発話者の位置を検出する例を示したが、赤外線センサ等、他のセンサで検出するようにしてもよい。また、カメラで撮影した画像を解析し、画像認識により発話者の位置を検出するようにしてもよい。
In the present embodiment, an example in which sound sources are detected in the four front areas has been described. However, the sound sources may be detected in more areas. Many sound source detection areas can be set by changing the number of stages of the
さらに、マイクアレイの配置は上記のものに限るものではなく、複数のマイクが所定のパターンで配置されたマイクアレイ(例えばマトリクス状に配列されたマイクアレイ)であればどのような配置であってもよい。また、図9に示すように、複数次元の円状にマイクをパターン配置することで、どの方向からも音源を検出することができ、これを本発明の構成に適用することで、電子的にパンを変更する例に限らず、発話者の位置にあわせてチルトを変更することも可能となる。 Furthermore, the arrangement of the microphone array is not limited to the above, and any arrangement may be used as long as the microphone array includes a plurality of microphones arranged in a predetermined pattern (for example, a microphone array arranged in a matrix). Also good. Further, as shown in FIG. 9, by arranging microphones in a multi-dimensional circular pattern, a sound source can be detected from any direction, and by applying this to the configuration of the present invention, electronically Not only an example of changing the pan, it is also possible to change the tilt according to the position of the speaker.
1−スピーカ
2−マイク
3−カメラ
4−音声信号処理部
5−画像処理部
6−コントローラ
7−入出力インターフェース
8−ディスプレイ
1-speaker 2-microphone 3-camera 4-audio signal processing unit 5-image processing unit 6-controller 7-input / output interface 8-display
Claims (4)
撮影視野が少なくとも連続し、互いに撮影視野が交差するようにそれぞれ異なる向きに設置した複数のカメラと、
前記複数のカメラで撮影した連続画像から前記音源位置検出手段で検出した音源位置を含む範囲の画像を切り出す画像切り出し手段と、
を備えた撮影装置。 Sound source position detecting means for detecting a sound source position;
A plurality of cameras installed in different directions so that the field of view is at least continuous and the field of view intersects each other;
Image cutout means for cutting out an image of a range including a sound source position detected by the sound source position detection means from continuous images taken by the plurality of cameras;
An imaging device with
前記複数のマイクが収音した音声信号をそれぞれ所定時間遅延して合成することにより、特定領域の音声を高レベルで収音する収音ビームを複数形成する収音信号処理手段と、
前記収音信号処理手段が形成した複数の収音ビームのうち最もレベルが高い収音ビームの方向に音源が存在すると判断する音声信号選択手段と、
からなることを特徴とする請求項1に記載の撮影装置。 The sound source position detecting means includes a microphone array configured by arranging a plurality of microphones;
Collected sound signal processing means for forming a plurality of sound collecting beams that pick up sound of a specific region at a high level by synthesizing the sound signals picked up by the plurality of microphones by delaying each by a predetermined time, and
A sound signal selecting means for determining that a sound source is present in the direction of the sound collecting beam having the highest level among the plurality of sound collecting beams formed by the sound collecting signal processing means;
The imaging apparatus according to claim 1, comprising:
前記収音信号選択手段が選択した収音ビームの音声信号、および前記画像切り出し手段が切り出した画像信号を出力し、外部からの音声信号および画像信号を入力する送受信手段と、
前記送受信手段が入力した音声信号に基づく音声を発する音声出力手段と、
前記送受信手段が入力した画像信号に基づく画像を表示する表示手段と、
を備えた通信会議システム。 An imaging device according to claim 2;
An audio signal of a sound collection beam selected by the sound collection signal selection unit, and an image signal output by the image cutout unit, and a transmission / reception unit that inputs an audio signal and an image signal from the outside;
Voice output means for emitting voice based on the voice signal input by the transceiver means;
Display means for displaying an image based on the image signal input by the transmission / reception means;
Teleconferencing system with
前記送受信手段が入力した音声信号を、前記複数のスピーカにそれぞれ所定時間遅延して出力することにより、特定領域に音声を高レベルで放音する音声ビームを形成する放音信号処理手段と、
からなり、
前記放音信号処理手段は、収音側における音源位置に仮想的な音源が形成されるように音声ビームを形成し、前記表示手段に表示される画像中の音源の位置と、前記仮想的な音源の位置が同じ、または、同方向となるように前記音声ビームを制御することを特徴とする請求項3に記載の通信会議システム。 The audio output means includes a speaker array configured by arranging a plurality of speakers,
A sound emission signal processing means for forming a sound beam that emits sound at a high level in a specific area by outputting the sound signals input by the transmission / reception means to each of the plurality of speakers with a predetermined time delay.
Consists of
The sound emission signal processing means forms an audio beam so that a virtual sound source is formed at the sound source position on the sound collection side, and the position of the sound source in the image displayed on the display means, and the virtual sound source The communication conference system according to claim 3, wherein the sound beams are controlled so that the positions of the sound sources are the same or in the same direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005311656A JP4892927B2 (en) | 2005-10-26 | 2005-10-26 | Imaging apparatus and communication conference system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005311656A JP4892927B2 (en) | 2005-10-26 | 2005-10-26 | Imaging apparatus and communication conference system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007124140A true JP2007124140A (en) | 2007-05-17 |
JP4892927B2 JP4892927B2 (en) | 2012-03-07 |
Family
ID=38147514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005311656A Expired - Fee Related JP4892927B2 (en) | 2005-10-26 | 2005-10-26 | Imaging apparatus and communication conference system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4892927B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294690A (en) * | 2007-05-24 | 2008-12-04 | Yamaha Corp | Voice conference device and voice conference system |
JP2008312002A (en) * | 2007-06-15 | 2008-12-25 | Yamaha Corp | Television conference apparatus |
KR100996312B1 (en) | 2010-09-02 | 2010-11-23 | 한창수 | Conference system |
JP2011130180A (en) * | 2009-12-17 | 2011-06-30 | Olympus Imaging Corp | Imaging apparatus |
US9113064B2 (en) | 2009-11-05 | 2015-08-18 | Olympus Corporation | Image pickup apparatus and image acquisition method |
KR101630614B1 (en) * | 2015-03-25 | 2016-06-24 | (주)에어사운드 | System and method for producing lecture contents |
JP5951875B2 (en) * | 2013-02-15 | 2016-07-13 | シャープ株式会社 | AV equipment, voice direction display method, program, and recording medium |
JP2017034502A (en) * | 2015-08-03 | 2017-02-09 | 株式会社リコー | Communication equipment, communication method, program, and communication system |
WO2025028041A1 (en) * | 2023-07-28 | 2025-02-06 | ヤマハ株式会社 | Speaker position detection method, speaker position detection device, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11331827A (en) * | 1998-05-12 | 1999-11-30 | Fujitsu Ltd | Television camera |
JP2005064746A (en) * | 2003-08-08 | 2005-03-10 | Yamaha Corp | Audio reproduction apparatus, line array speaker unit, and audio reproduction method |
JP2005274707A (en) * | 2004-03-23 | 2005-10-06 | Sony Corp | Information processing apparatus and method, program, and recording medium |
-
2005
- 2005-10-26 JP JP2005311656A patent/JP4892927B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11331827A (en) * | 1998-05-12 | 1999-11-30 | Fujitsu Ltd | Television camera |
JP2005064746A (en) * | 2003-08-08 | 2005-03-10 | Yamaha Corp | Audio reproduction apparatus, line array speaker unit, and audio reproduction method |
JP2005274707A (en) * | 2004-03-23 | 2005-10-06 | Sony Corp | Information processing apparatus and method, program, and recording medium |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008294690A (en) * | 2007-05-24 | 2008-12-04 | Yamaha Corp | Voice conference device and voice conference system |
JP2008312002A (en) * | 2007-06-15 | 2008-12-25 | Yamaha Corp | Television conference apparatus |
US9113064B2 (en) | 2009-11-05 | 2015-08-18 | Olympus Corporation | Image pickup apparatus and image acquisition method |
JP2011130180A (en) * | 2009-12-17 | 2011-06-30 | Olympus Imaging Corp | Imaging apparatus |
KR100996312B1 (en) | 2010-09-02 | 2010-11-23 | 한창수 | Conference system |
JP5951875B2 (en) * | 2013-02-15 | 2016-07-13 | シャープ株式会社 | AV equipment, voice direction display method, program, and recording medium |
KR101630614B1 (en) * | 2015-03-25 | 2016-06-24 | (주)에어사운드 | System and method for producing lecture contents |
JP2017034502A (en) * | 2015-08-03 | 2017-02-09 | 株式会社リコー | Communication equipment, communication method, program, and communication system |
WO2025028041A1 (en) * | 2023-07-28 | 2025-02-06 | ヤマハ株式会社 | Speaker position detection method, speaker position detection device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4892927B2 (en) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5028944B2 (en) | Audio conference device and audio conference system | |
JP5857674B2 (en) | Image processing apparatus and image processing system | |
US5940118A (en) | System and method for steering directional microphones | |
US8390665B2 (en) | Apparatus, system and method for video call | |
JP4945675B2 (en) | Acoustic signal processing apparatus, television apparatus, and program | |
US20100254543A1 (en) | Conference microphone system | |
KR101761312B1 (en) | Directonal sound source filtering apparatus using microphone array and controlling method thereof | |
EP1946606B1 (en) | Directional audio capturing | |
JP2008288785A (en) | Video conference apparatus | |
KR100986228B1 (en) | Camera unit and image record playback method | |
US20040257432A1 (en) | Video conferencing system having focus control | |
US20090128617A1 (en) | Method and apparatus for obtaining acoustic source location information and a multimedia communication system | |
JP2016146547A (en) | Sound collection system and sound collection method | |
JP2007274463A (en) | Remote conference apparatus | |
JP4892927B2 (en) | Imaging apparatus and communication conference system | |
JP2007274462A (en) | Video conference apparatus and video conference system | |
JP2012186551A (en) | Control device, control system, and control method | |
NO323434B1 (en) | System and method for producing a selective audio output signal | |
JPH09275533A (en) | Signal processor | |
JP2009049734A (en) | Camera-mounted microphone and control program thereof, and video conference system | |
JP2016010010A (en) | Imaging apparatus with voice input and output function and video conference system | |
EP2394444B1 (en) | Conference microphone system | |
JP2015106860A (en) | Monitoring imaging system and program | |
JP2014072835A (en) | Conference device | |
JP6835205B2 (en) | Shooting sound pickup device, sound pick-up control system, shooting sound pick-up device control method, and shooting sound pick-up control system control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110704 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111122 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4892927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |