JP2009021922A - Video conference apparatus - Google Patents
Video conference apparatus Download PDFInfo
- Publication number
- JP2009021922A JP2009021922A JP2007184237A JP2007184237A JP2009021922A JP 2009021922 A JP2009021922 A JP 2009021922A JP 2007184237 A JP2007184237 A JP 2007184237A JP 2007184237 A JP2007184237 A JP 2007184237A JP 2009021922 A JP2009021922 A JP 2009021922A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- sound
- video
- data
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 239000002131 composite material Substances 0.000 claims abstract description 29
- 238000003384 imaging method Methods 0.000 claims description 41
- 238000004891 communication Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
この発明は、互いに離れた位置の会議室間で映像と音声とを通信することにより会議を行うテレビ会議装置に関するものである。 The present invention relates to a video conference apparatus that conducts a conference by communicating video and audio between conference rooms at positions separated from each other.
従来、遠隔地間で会議を行うシステムとして、音声を通信する音声会議システムが各種存在するが、音声とともに映像も通信するテレビ会議システムが普及しつつある。このようなテレビ会議システムでは、各会議室にテレビ会議装置およびディスプレイを設置し、他の会議室で撮造された映像を表示する。そして、自装置が複数のテレビ会議装置と接続している場合には、他の複数のテレビ会議装置でそれぞれ撮像された映像がディスプレイ上に表示される。例えば、特許文献1の複数映像合成方法では、複数のテレビ会議室で撮像された各映像を映像信号マトリクス化して、当該映像信号マトリクスに基づく合成映像を生成する。これにより、例えば、画面を四分割することで設定される各部分領域にそれぞれ異なるテレビ会議装置で撮像された映像を割り当てて表示させる。
しかしながら、特許文献1に示すような従来の方法では、音声と映像とにより話者を識別することができるが、さらなる追加情報、例えば話者の名前等を一見して識別することができなかった。 However, in the conventional method as shown in Patent Document 1, a speaker can be identified by sound and video, but additional information such as the name of the speaker cannot be identified at a glance. .
したがって、本発明の目的は、音声や映像のみでなく、話者に対する他の付帯情報をも、同時に識別することができるテレビ会議装置を提供することにある。 Therefore, an object of the present invention is to provide a video conference apparatus that can simultaneously identify not only audio and video but also other incidental information for a speaker.
この発明のテレビ会議装置は、収音機能として、それぞれに収音を行って収音音声データを生成する複数のマイクと、複数のマイクの収音音声データに基づいて、それぞれに異なる方向を中心とする収音指向性からなる複数の収音ビーム音声データを生成する収音ビーム音声データ生成手段と、を備える。また、テレビ会議装置は、撮像機能として、それぞれに異なる撮像領域からなる複数の映像データを生成する撮像手段と、該撮像手段からの複数の映像データを合成して合成映像データを生成する合成映像データ生成手段と、を備える。さらに、テレビ会議装置は、通信機能として、収音ビーム音声データと合成映像データとを出力する通信制御手段と、を備える。 The video conference apparatus according to the present invention has a plurality of microphones for collecting sound and generating collected sound data as sound collecting functions, and focusing on different directions based on the collected sound data of the plurality of microphones. Sound collecting beam sound data generating means for generating a plurality of sound collecting beam sound data having the sound collecting directivity. In addition, the video conference apparatus, as an imaging function, an imaging unit that generates a plurality of video data each having a different imaging area, and a composite video that generates a composite video data by combining the plurality of video data from the imaging unit Data generating means. Furthermore, the video conference apparatus includes communication control means for outputting the collected sound beam audio data and the synthesized video data as a communication function.
さらに、このテレビ会議装置は、複数の収音ビーム音声データのレベルに基づいて話者方位を検出する話者方位検出手段を備える。
そして、このテレビ会議装置の合成映像データ生成手段は、次の処理を実行して合成映像データを生成することを特徴としている。
合成映像データ生成手段は、合成映像データを画面分割した各領域に複数の映像データをそれぞれ割り当てる。合成映像データ生成手段は、撮像手段から出力される複数の映像データ(例えば、一台もしくは複数台のカメラで取得した複数の映像データ)毎に撮像される話者を示す情報を予め設定した話者表示用データを、合成映像データの複数の映像データが割り当てられていない領域に割り当てる。合成映像データ生成手段は、各映像データに個別に対応する撮像領域特定マーク(例えば、カメラ毎のカメラ特定マーク)を、各映像データの画面分割領域内に当てはめる。そして、合成映像データ生成手段は、話者方位検出手段で検出された話者方位に対応する話者表示用データおよび撮像領域特定マークを、話者方位以外の話者表示用データおよび撮像領域特定マークと異なる表示態様に設定する。
Further, the video conference apparatus includes a speaker orientation detection unit that detects the speaker orientation based on the levels of a plurality of collected beam sound data.
The composite video data generation means of the video conference apparatus generates the composite video data by executing the following processing.
The composite video data generation means assigns a plurality of video data to each area obtained by dividing the composite video data into screens. The composite video data generation means is a story in which information indicating a speaker to be imaged is set in advance for each of a plurality of video data output from the imaging means (for example, a plurality of video data acquired by one or a plurality of cameras). The person display data is allocated to an area where a plurality of video data of the composite video data is not allocated. The composite video data generating means applies imaging region specifying marks (for example, camera specifying marks for each camera) individually corresponding to each video data in the screen division region of each video data. Then, the synthesized video data generating means displays the speaker display data and the imaging area specifying mark corresponding to the speaker orientation detected by the speaker orientation detecting means, the speaker display data and the imaging area specifying other than the speaker orientation. Set the display mode different from the mark.
この構成では、一台もしくは複数台のカメラによりそれぞれ異なる撮像領域内の会議者が撮像される。会議者が発言すると、当該発言した会議者の方向、すなわち話者方位が検出される。例えば、カメラが複数台の場合、この話者方位を撮像領域に含むカメラが選択され、選択されたカメラに関する情報(例えば、センタカメラ(C)、右カメラ(R)、左カメラ(L)等)や、当該カメラで撮像される話者に関する話者関連情報が、他のカメラに関する情報や話者関連情報とは異なる表示態様で表示されるように、合成映像データが生成される。この処理は、予め設定された所定のフレームレートで繰り返されて、順次合成映像データが出力される。 In this configuration, a conference person in a different imaging area is imaged by one or a plurality of cameras. When the conference speaker speaks, the direction of the conference speaker who speaks, that is, the speaker orientation is detected. For example, when there are a plurality of cameras, a camera including this speaker orientation in the imaging region is selected, and information about the selected cameras (for example, the center camera (C), the right camera (R), the left camera (L), etc.) ) Or the speaker-related information related to the speaker imaged by the camera is displayed in a display manner different from the information related to the other camera and the speaker-related information. This process is repeated at a predetermined frame rate set in advance, and the synthesized video data is sequentially output.
また、この発明のテレビ会議装置は、話者表示用データに、複数の個別話者表示用データを含む。テレビ会議装置の合成映像データ生成手段は、話者方位に基づいて話者表示用データ内で話者方位に対応する個別話者表示用データを、さらに異なる表示態様に設定する。 In the video conference apparatus of the present invention, the speaker display data includes a plurality of individual speaker display data. The synthesized video data generation means of the video conference apparatus sets the individual speaker display data corresponding to the speaker orientation in the speaker display data based on the speaker orientation in a further different display mode.
この構成では、一つの撮像領域内に複数の会議者が撮像されるような場合、当該撮像領域内の会議者の1人が話者となると、撮像領域のみでなく当該撮像領域内の特定の話者をさらに識別可能な合成映像データが生成される。 In this configuration, when a plurality of conference persons are imaged in one imaging area, if one of the conference persons in the imaging area becomes a speaker, not only the imaging area but also a specific area in the imaging area is selected. Composite video data that can further identify the speaker is generated.
また、この発明のテレビ会議装置は、収音ビーム音声データ生成手段で、話者方位に対応する収音ビーム音声データを選択して出力する。 In the video conference apparatus of the present invention, the sound collecting beam sound data generating means selects and outputs sound collecting beam sound data corresponding to the speaker direction.
この構成では、前記話者が識別可能な映像とともに、当該話者の音声が高いS/N比で出力される。 In this configuration, the voice of the speaker is output at a high S / N ratio together with the video that can be identified by the speaker.
また、この発明のテレビ会議装置は、さらに、放音用音声データの受信機能と放音機能を備える。放音機能は、複数のスピーカと放音制御手段とを備える。通信制御手段は、相手先装置で生成された収音ビーム音声データに対応する放音用音声データと、該放音用音声データに関連付けられた話者方位とを受信する。放音制御手段は、通信制御手段で受信した放音用音声データと放音用音声データに関連付けられた話者方位とに基づいて放音指向性を設定する。放音制御手段は、該放音指向性に準じて複数のスピーカのそれぞれに対するスピーカ駆動信号を生成する。複数のスピーカは、入力されたスピーカ駆動信号に基づいて放音する。 The video conference apparatus of the present invention further includes a function for receiving sound emission sound data and a sound emission function. The sound emission function includes a plurality of speakers and sound emission control means. The communication control means receives the sound emission sound data corresponding to the sound collection beam sound data generated by the counterpart device and the speaker orientation associated with the sound emission sound data. The sound emission control means sets the sound emission directivity based on the sound emission sound data received by the communication control means and the speaker orientation associated with the sound emission sound data. The sound emission control means generates a speaker drive signal for each of the plurality of speakers according to the sound emission directivity. The plurality of speakers emit sound based on the input speaker driving signal.
この構成では、上述のような収音ビーム音声データが相手先装置から送信された場合に、受信側のテレビ会議装置は、話者方位に応じた音像定位が行える。これにより、話者を容易に識別できるとともに、より臨場感のある話者音声を再現できる。 In this configuration, when the collected sound beam sound data as described above is transmitted from the counterpart device, the video conference device on the receiving side can perform sound image localization according to the speaker orientation. As a result, the speaker can be easily identified and more realistic speaker speech can be reproduced.
この発明によれば、話者音声や話者を含む複数の会議者の映像のみでなく、発言中の話者を識別する情報も会議者映像とともに出力されるので、これらの情報を取得して、放音・表示した他のテレビ会議装置の会議者は、話者の音声を聞きながら、当該話者を容易に識別することができる。 According to this invention, not only the voice of a plurality of conference persons including a speaker voice and a speaker, but also information for identifying a speaker who is speaking is output together with the conference person video. The conference person of the other video conference apparatus that has emitted and displayed can easily identify the speaker while listening to the voice of the speaker.
本発明の実施形態に係るテレビ会議装置について、図を参照して説明する。
図1は、本実施形態のテレビ会議装置の外観斜視図である。なお、本実施形態のテレビ会議装置は、正面壁に設置されたマイクアレイ、スピーカアレイの前方にパンチングメッシュ等からなるカバーが設置されているが本図では図示を省略する。
図1に示すように、テレビ会議装置1は略長尺形状からなる放収音素子設置筐体と制御系回路設置筐体とからなる。放収音素子設置筐体は長尺方向に沿った二側面をそれぞれ正面壁および背面壁とし、正面壁にマイクMC1〜MC16、スピーカSP1〜SP14、カメラCA1〜CA3が設置され、背面壁側に制御系回路設置筐体が設置されている。
A video conference apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is an external perspective view of the video conference apparatus according to the present embodiment. In the video conference apparatus according to the present embodiment, a microphone array installed on the front wall and a cover made of a punching mesh or the like are installed in front of the speaker array.
As shown in FIG. 1, the video conference apparatus 1 includes a sound emitting and collecting element installation housing and a control system circuit installation housing having a substantially long shape. The sound emitting and collecting element installation housing has two side surfaces along the longitudinal direction as a front wall and a back wall, respectively, microphones MC1 to MC16, speakers SP1 to SP14, and cameras CA1 to CA3 are installed on the front wall, and on the back wall side. A control circuit installation housing is installed.
マイクMC1〜MC16は、同じ機構及び同じ収音特性を有するものであり、前記長尺方向に沿う一直線に所定間隔で、正面壁の天面側に設置されている。マイクMC1〜MC16は、配列方向の中心付近(すなわち正面方向からみた中心付近)では狭いピッチに配置され、配列方向の両端付近では広いピッチで配置される。マイクMC1〜MC16は、正面壁から外方側を収音範囲とするように設置される。このようなマイクMC1〜MC16により、正面方向を収音範囲とするマイクアレイが形成される。 The microphones MC <b> 1 to MC <b> 16 have the same mechanism and the same sound collection characteristics, and are installed on the top surface side of the front wall at a predetermined interval along a straight line along the longitudinal direction. The microphones MC1 to MC16 are arranged at a narrow pitch near the center in the arrangement direction (that is, near the center when viewed from the front direction), and are arranged at a wide pitch near both ends in the arrangement direction. The microphones MC <b> 1 to MC <b> 16 are installed so that the sound collecting range is on the outer side from the front wall. Such microphones MC1 to MC16 form a microphone array whose front direction is the sound collection range.
スピーカSP1〜SP14は、同じ機構および同じ放音特性を有するものであり、前記長尺方向に沿う一直線に所定間隔で、正面壁の垂直方向中心位置に設置されている。スピーカSP1〜SP14は、正面壁から外方側を放音方向とするように設置される。このようなスピーカSP1〜SP14により、正面方向を放音範囲とするスピーカアレイが形成される。 The speakers SP <b> 1 to SP <b> 14 have the same mechanism and the same sound emission characteristics, and are installed at a central position in the vertical direction of the front wall at a predetermined interval along a straight line along the longitudinal direction. The speakers SP1 to SP14 are installed so that the outer side from the front wall is the sound emission direction. Such speakers SP1 to SP14 form a speaker array having a sound emission range in the front direction.
カメラCA1〜CA3は、同じ機構および同じ撮像特性を有するものである。
カメラCA1は、正面壁の底面側で、長尺方向の中心位置(すなわち正面方向からみた中心位置)に設置されている。カメラCA1は、撮像範囲の中心方向が正面壁に垂直な方向となるように設置されている。
カメラCA2は、正面壁の底面側で、長尺方向の一方端(図1であれば、テレビ会議装置1を正面視した状態での右端)に設置されている。カメラCA2は、撮像範囲の中心方向が正面壁に対して所定の角度、例えば、図1であれば、テレビ会議装置1を正面視した状態で、正面壁の右端から左端前方の所定位置を向く角度に設定されている。
カメラCA3は、正面壁の底面側で、長尺方向の一方端(図1であれば、テレビ会議装置1を正面視した状態での左端)に設置されている。カメラCA3は、撮像範囲の中心方向が正面壁に対して所定の角度、例えば、図1であれば、テレビ会議装置1を正面視した状態で、正面壁の左端から右端前方の所定位置を向く角度に設定されている。カメラCA2の撮像範囲とカメラCA3の撮像範囲とは、カメラCA1の撮像範囲の中心方向を基準軸として対象に設定されている。そして、これらカメラCA1〜CA3の撮像範囲は、それぞれの撮像範囲を連続させることで、テレビ会議装置1の正面側で長尺方向に沿う全周囲が撮像されるように設定されている。
テレビ会議装置1の制御系回路設置筐体には、上述のマイクMC1〜MC16によるマイクアレイ、スピーカSP1〜SP14によるスピーカアレイ、およびカメラCA1〜CA3を除く機能部が設置されている。
The cameras CA1 to CA3 have the same mechanism and the same imaging characteristics.
The camera CA1 is installed at the center position in the longitudinal direction (that is, the center position viewed from the front direction) on the bottom side of the front wall. The camera CA1 is installed so that the center direction of the imaging range is perpendicular to the front wall.
The camera CA2 is installed at one end in the longitudinal direction on the bottom side of the front wall (in FIG. 1, the right end when the video conference device 1 is viewed from the front). When the center direction of the imaging range is a predetermined angle with respect to the front wall, for example, FIG. 1, the camera CA2 faces a predetermined position from the right end of the front wall to the front of the left end when the video conference device 1 is viewed from the front. It is set to an angle.
The camera CA3 is installed at one end in the longitudinal direction on the bottom side of the front wall (in FIG. 1, the left end when the video conference device 1 is viewed from the front). When the center direction of the imaging range is a predetermined angle with respect to the front wall, for example, FIG. 1, the camera CA3 faces a predetermined position from the left end of the front wall to the right front in a state where the video conference device 1 is viewed from the front. It is set to an angle. The imaging range of the camera CA2 and the imaging range of the camera CA3 are set as targets with the central direction of the imaging range of the camera CA1 as a reference axis. The imaging ranges of these cameras CA1 to CA3 are set so that the entire circumference along the longitudinal direction is imaged on the front side of the video conference device 1 by making each imaging range continuous.
In the control system circuit installation housing of the video conference apparatus 1, the above-described microphone array by the microphones MC1 to MC16, the speaker array by the speakers SP1 to SP14, and the functional units other than the cameras CA1 to CA3 are installed.
図2は、本実施形態のテレビ会議装置1の機能ブロックの構成および外部との接続関係を示した図である。
図2に示すように、テレビ会議装置1は、上述のマイクMC1〜MC16、スピーカSP1〜SP14、およびカメラCA1〜CA3とともに、メイン制御部10、収音制御部11、エコーキャンセラ12、映像制御部13、放音制御部14、通信制御部15、操作部16、を備える。
FIG. 2 is a diagram illustrating a functional block configuration and a connection relationship with the outside of the video conference apparatus 1 according to the present embodiment.
As shown in FIG. 2, the video conference device 1 includes a
メイン制御部10は、テレビ会議装置1の全体制御を行うとともに、操作部16により入力された操作内容に準じた制御を行う。メイン制御部10は、収音制御部11で選択された収音ビーム音声データの選択情報を取得して、話者方位を検出する。メイン制御部10は、検出した話者方位を撮像範囲とするカメラを選択して、話者方位カメラ情報として映像制御部13へ出力する。
The
また、メイン制御部10は、検出した話者方位を示す話者方位データを通信制御部15に与え、当該話者方位データに対応する収音ビーム音声データからなる出力音声データに関連付けして送信させる制御を、通信制御部15へ与える。また、メイン制御部10は、通信制御部15で受信した相手先のテレビ会議装置の出力音声データに関連付けされた話者方位データを取得し、当該話者方位データに応じた音源定位を行う制御を、放音制御部14へ与える。
Further, the
マイクMC1〜MC16は、自装置(テレビ会議装置1)の正面側の音声を収音して収音信号を生成し、収音制御部11へ出力する。
The microphones MC <b> 1 to MC <b> 16 collect sound from the front side of the own device (the video conference device 1), generate a sound collecting signal, and output it to the sound collecting
収音制御部11は、各マイクMC1〜MC16の収音信号に対して、それぞれに異なる遅延処理および振幅処理パターンで信号処理を行うことで、それぞれに異なる方位を収音指向性の中心方向とする複数の収音ビーム音声データを生成する。より具体的には、収音制御部11は、各マイクMC1〜MC16の収音信号を所定増幅率で増幅し、A/D(アナログ−デジタル)変換することで、個別収音音声データを生成する。収音制御部11は、それぞれに異なる収音指向性を実現させる個別収音音声データ毎の遅延係数および振幅係数を予め記憶している。収音制御部11は、設定された収音指向性毎に、これら遅延係数、振幅係数に基づくフィルタ処理を各個別収音音声データに実行することで、それぞれに異なる収音指向性からなる収音ビーム音声データを生成する。
The sound
収音制御部11は、生成した複数の収音ビーム音声データのレベル(音声レベル)を比較し、予め設定した有音検出閾値レベルを超える収音ビーム音声データを選択し、エコーキャンセラ12へ出力する。
収音制御部11は、選択した収音ビーム音声データを特定する選択情報をメイン制御部10へ与える。
The sound
The sound
エコーキャンセラ12は、適応型フィルタとポストプロセッサとを備える。適応型フィルタは、通信制御部15から出力される相手先テレビ会議装置からの出力音声データに基づく疑似回帰音データを生成して、ポストプロセッサへ与える。ポストプロセッサは加算器を備え、加算器は、収音制御部11から出力された収音ビーム音声データから疑似回帰音データを減算してエコーキャンセルを行うことで出力音声データを生成して通信制御部15へ出力する。この際、ポストプロセッサはエコーキャンセル結果を適応型フィルタへフィードバックする。
The
カメラCA1〜CA3は、上述のようにそれぞれ異なる撮像範囲を撮像することで映像データを生成して、映像制御部13へ出力する。
The cameras CA <b> 1 to CA <b> 3 generate video data by imaging different imaging ranges as described above, and output the video data to the
映像制御部13は、各カメラCA1〜CA3からの映像データと、予め設定されている話者識別用画像データとを用いて合成映像データを生成する。この際、映像制御部13は、合成映像データの全画面を、当該全画面の中心を基準にした均等な部分画像領域に四分割する(図5(詳細は後述)を参照)。映像制御部13は、三つの部分画像領域に各カメラCA1〜CA3の映像を割り当て、残りの一つの部分画像領域を話者識別用画像データに割り当てる。話者識別用画像データは、予め設定された話者名等の話者個別情報からなる。そして、話者個別情報のそれぞれは、対応する話者を撮像するカメラと関連付けされて記憶されている。
The
映像制御部13は、各カメラCA1〜CA3に割り当てた部分画像領域内に、各カメラCA1〜CA3に対応するカメラ識別マークを表示させるカメラ識別情報表示欄を形成する。
映像制御部13は、メイン制御部10から与えられた話者方位カメラ情報に基づいて、話者方位に対応するカメラ識別マークと、当該カメラに対応する話者個別情報とを選択する。映像制御部13は、選択したカメラ識別マークおよび話者個別情報を、他のカメラ識別マークおよび話者個別情報と異なる態様で表示する設定を行う。例えば、選択した話者方位のカメラ識別マークおよび話者個別情報を、他のカメラ識別マークおよび話者個別情報よりも高輝度で表示させる。この処理は、予め設定された所定のフレームレートで継続して行われる。これにより、発言者が交代することで話者方位が変化し、発言する話者が撮像された映像データが変化する際には、カメラ識別マークおよび話者個別情報の表示態様も切り替わるように設定される。このように形成された合成映像データは、順次、通信制御部15へ出力される。
The
The
通信制御部15は、エコーキャンセラ12からの出力音声データを話者方位データに関連付けして送信するとともに、映像制御部13からの合成映像データを送信する。
The
これにより、相手側(受信側)のテレビ会議装置で、出力音声データに基づく放音を行うとともに、合成画像データを再生することで、相手側(受信側)の会議室に在席する会議者は、送信側の会議室全体の映像を見ながら、話者の発言を聞き取り、且つ、容易に話者を視認して識別することができる。この際、収音ビーム化された音声が放音されることで、話者の発言を高いS/N比で放音することができ、且つエコーキャンセル処理することで、さらに高いS/N比の放音が可能となる。これにより、会議者に分かりやすく、使い勝手の良いテレビ会議を実現することができる。 Thus, the other party (reception side) video conference device emits sound based on the output audio data and reproduces the composite image data, so that the conference person in the other party (reception side) conference room is present. Can listen to the speaker's remarks while watching the video of the entire conference room on the transmission side, and can easily identify the speaker by visually recognizing it. At this time, the voice of the collected sound beam is emitted, so that the speaker's speech can be emitted with a high S / N ratio, and the echo cancellation process further increases the S / N ratio. Sound can be emitted. As a result, it is possible to realize a video conference that is easy to understand and easy to use for the conference participants.
通信制御部15は、ネットワーク900を介して送信側からの出力音声データと話者方位データと、合成映像データを受信すると、出力音声データを、エコーキャンセラ12を介して放音制御部14へ出力する。通信制御部15は、話者方位データをメイン制御部10へ出力する。通信制御部15は、合成映像データを、テレビ会議装置1とは別体の表示器20へ出力する。表示器20は、液晶ディスプレイ等からなり、通信制御部15から入力された合成映像データを再生して表示する。
When the
放音制御部14は、通信制御部15からの相手先で生成された出力音声データと、相手先で生成された話者方位データに基づくメイン制御部10からの音源定位情報とに基づいて、各スピーカSP1〜SP14に与える個別駆動信号を生成する。より具体的には、放音制御部14は、出力音声データを各スピーカSP1〜SP14用に分配し、分配した音声データ毎に、前記音源定位情報に基づく遅延処理および振幅処理を行うことで個別駆動音声データを生成する。放音制御部14は、生成した各個別駆動音声データをD/A(デジタル−アナログ)変換することで個別駆動信号を生成し、操作部16で設定されたボリューム等に基づく所定の増幅率で増幅した後に、各スピーカSP1〜SP14へ出力する。
The sound
スピーカSP1〜SP14は、入力された個別駆動信号に基づいて放音する。これにより、話者方位データに基づく音源定位が実現され、仮想の話者位置から発音されたように放音される。 The speakers SP1 to SP14 emit sound based on the input individual drive signal. As a result, sound source localization based on the speaker orientation data is realized, and sound is emitted as if it was pronounced from the virtual speaker position.
このような放音指向性制御を行うことで、上述のような映像の表示効果とともに、会議者は、話者方位に対応した話者音声を聞くことができ、より臨場感に溢れるテレビ会議を実現することができる。 By performing such sound emission directivity control, together with the video display effect as described above, the conference can hear the speaker voice corresponding to the speaker orientation, and can make a video conference more realistic. Can be realized.
次に、より具体的な使用例について図を参照して説明する。
図3はテレビ会議装置1の配置例および撮像範囲を表す平面図である。図4はテレビ会議装置1及び表示器20の配置例を示す平面図である。
図3に示すように、会議室内には会議テーブル400が設置され、当該会議テーブル400の三方を囲むように、会議者301〜306が着席する。そして、会議テーブル400の残りに一方にテレビ会議装置1が設置される。テレビ会議装置1は正面方向が会議テーブル400側となるように設置される。テレビ会議装置1は、例えば図4に示すように、表示器20の天面上に設置される。
Next, a more specific usage example will be described with reference to the drawings.
FIG. 3 is a plan view showing an arrangement example of the video conference device 1 and an imaging range. FIG. 4 is a plan view showing an arrangement example of the video conference device 1 and the
As shown in FIG. 3, a conference table 400 is installed in the conference room, and
会議者301,302は、会議テーブル400に対してテレビ会議装置1と対向する側に着席している。会議者303,304は、テレビ会議装置1の左端側(カメラCA3側)のテーブル400の端辺に沿って着席しており、会議者305,306は、右端側(カメラCA2側)の会議テーブル400の端辺に沿って着席している。
The
図5は、図3の状況における各カメラCA1〜CA3の映像データ例を示す図であり、(A)はカメラCA1の映像データ例、(B)はカメラCA2の映像データ例、(C)はカメラCA3の映像データ例を示す。 FIG. 5 is a diagram illustrating an example of video data of each camera CA1 to CA3 in the situation of FIG. 3, (A) is an example of video data of camera CA1, (B) is an example of video data of camera CA2, and (C) is an example. An example of video data of the camera CA3 is shown.
図3に示すように会議者301〜306が着席してテレビ会議装置1を起動させると、カメラCA1は、図5(A)に示すように、会議者301,302を含む領域を撮像して、会議者301の映像311(以下、会議者映像311と称する)、会議者302の映像312(以下、会議者映像312と称する)、テーブル400の映像410(以下、テーブル映像410と称する)を含む映像データ501を生成する。カメラCA2は、図5(B)に示すように、会議者303,304を含む領域を撮像して、会議者303の映像313(以下、会議者映像313と称する)、会議者304の映像314(以下、会議者映像314と称する)、およびテーブル映像データ410を含む映像データ502を生成する。カメラCA3は、図5(C)に示すように、会議者305,306を含む領域を撮像して、会議者305の映像315(以下、会議者映像315と称する)、会議者306の映像316(以下、会議者映像316と称する)、およびテーブル映像データ410を含む映像データ503を生成する。
When the
映像制御部13は、これら映像データ501〜503に基づいて合成映像データ500を形成する。
図6は合成映像データの例を示す図であり、(A)は会議者301が発言した状態を示し、(B)は会議者303が発言した状態を示す。
映像制御部13は、合成映像データ500の表示領域を、当該表示領域の中心を基準にして、四つの部分映像領域511〜514に分割して、映像データ501〜503、および話者識別用画像データを割り当てる。
より具体的には、映像制御部13は、前記基準点をX−Y座標系の中心として第2象限に当たる部分映像領域511に映像データ501を割り当て、第1象限に当たる部分映像領域512に映像データ502を割り当て、第3象限に当たる部分映像領域513に映像データ503を割り当てる。映像制御部13は、第4象限に当たる部分映像領域514に、予め記憶した話者個別情報541〜546からなる話者識別用画像データを割り当てる。
The
6A and 6B are diagrams showing examples of composite video data. FIG. 6A shows a state where the
The
More specifically, the
映像制御部13は、映像データ501〜503が割り当てられる部分映像領域511〜513のそれぞれに、カメラ識別マーク521〜523をさらに割り当てる。カメラ識別マークは、各カメラCA1〜CA3に関連付けされており、カメラCA1に対しては「C」マークが設定され、カメラCA2に対しては「R」マークが設定され、カメラCA3に対しては「L」マークが設定される。これらのカメラ識別マーク521〜523は、前記基準点を中心に互いに接するように配置される。
The
このような基本表示態様において、映像制御部13は、話者方位カメラ情報に基づいて、話者を撮像するカメラに対するカメラ識別マークと、当該カメラに関連付けされた話者個別情報とを、高輝度表示設定する。例えば、会議者301が話者であることを検出すると、図6(A)に示すように、会議者映像311を含む映像データ501の部分映像領域511内のカメラ識別マーク521を高輝度黄色点灯状態となるように表示させ、他のカメラ識別マーク522,523を低輝度グレー点灯状態となるように表示させる設定を行う。さらに、部分映像領域514内のカメラCA1に対応する話者個別情報541,542を高輝度黄色点灯状態となるように表示させ、他の話者個別情報543〜546を低輝度グレー点灯状態となるように表示させる設定を行う。そして、話者が会議者313に切り替わったことを検出すると、図6(B)に示すように、会議者映像313を含む映像データ502の部分映像領域512内のカメラ識別マーク522を高輝度黄色点灯状態となるように表示させ、他のカメラ識別マーク521,523を低輝度グレー点灯状態となるように表示させる設定を行う。さらに、部分映像領域514内のカメラCA2に対応する話者個別情報543,544を高輝度黄色点灯状態となるように表示させ、他の話者個別情報541,542,545,546を低輝度グレー点灯状態となるように表示させる設定を行う。
In such a basic display mode, the
このような表示設定が行われた合成映像データを再生することで、再生側の会議者は、話者を含む映像を容易に識別することができ、話者の個別情報を容易に確認することができる。なお、図6の場合、一つの映像に二人の会議者が撮像されているので、話者個別情報は二つが、他の話者個別情報と異なる態様で表示されるが、一つの映像に一人の会議者が撮像される場合であれば、より確実に話者の個別情報を確認することができる。 By playing the composite video data with such display settings, the playback-side conference can easily identify the video including the speaker and easily check the individual information of the speaker. Can do. In the case of FIG. 6, since two conference persons are captured in one video, two pieces of speaker individual information are displayed in a different manner from the other speaker individual information. If one conference person is imaged, the individual information of the speaker can be confirmed more reliably.
なお、前述の説明では、話者方位カメラ情報に基づいて、当該話者方位を含む領域を撮像したカメラに関連付けられた全ての話者個別情報を、他の話者個別情報と異なる表示態様に設定した。しかしながら、本実施形態のテレビ会議装置では、カメラCA1〜CA3の撮像領域単位でなく、会議者単位での方位検出が可能である。したがって、メイン制御部10で、話者方位カメラ情報とともに、さらに詳しい話者方位情報を生成し、映像制御部13へ与えるようにしてもよい。
In the above description, on the basis of the speaker orientation camera information, all the speaker individual information associated with the camera that captured the area including the speaker orientation is displayed in a display mode different from the other speaker individual information. Set. However, in the video conference apparatus according to the present embodiment, it is possible to detect the azimuth in units of conferences, not in units of imaging areas of the cameras CA1 to CA3. Therefore, the
この場合、映像制御部13には、話者方位情報と話者個別情報とが予め関連付けして記憶されている。映像制御部13は、メイン制御部10から話者方位カメラ情報と話者方位情報とを受け付けると、上述のカメラ識別マークに関する処理および話者方位カメラ情報に基づく話者個別情報に関する処理を実行するとともに、これら選択された複数の話者個別情報のうちで、真の話者方位に関連する話者個別情報を取得する。そして、映像制御部13は、真の話者方位に関連する話者個別情報を、さらに別の表示態様とするように設定する。
In this case, the
図7は、話者単位での表示態様設定を行った場合の表示映像の例を示す図である。図7では、上述の図3や図6(A)の状況と同じように、会議者301が発言した場合を示す。
図7に示すように、映像データ501からなる部分映像領域511、映像データ502からなる部分映像領域512、映像データ503からなる部分映像領域513の表示態様は図6(A)と同じである。しかしながら、部分映像領域514では、カメラCA1に対応する話者個別情報541,542を点灯状態となるように表示させ、他の話者個別情報543〜546を消灯状態となるように表示させる設定を行う。さらに、話者である会議者301に対応する話者個別情報541を、話者ではない会議者302に対応する話者個別情報542よりも、さらに高輝度で点灯させたり、点滅させたりする等の設定を行う。
FIG. 7 is a diagram illustrating an example of a display image when the display mode is set for each speaker. FIG. 7 shows a case where the
As shown in FIG. 7, the display modes of the
このような表示態様とすることで、上述の効果とともに、さらに一見して確実に話者を識別することができる。 By setting it as such a display mode, a speaker can be identified reliably at a glance with the above-mentioned effect.
また、前述の説明では、部分映像領域514の表示例を一例だけ示したが、図8に示すようなWeb画面で設定を行うことで、表示内容を設定することができる。
In the above description, only a display example of the
図8はカメラと会議情報の設定入力画面を示す図である。
Web画面設定を行う場合、ユーザは、パソコン等の機器をネットワーク900に接続し、テレビ会議装置1に対してアクセスする。その後、ユーザは、リモート操作入力を行い、図8に示すようなWeb設定画面600をパソコンの表示画面に表示させる。Web表示画面600には、設定方法を選択させる「デフォルト」選択欄601と「参加者情報」選択欄602とが設定される。ユーザは、マウス等の操作子によりいずれかを選択することで、設定方法が選択される。「参加者情報」選択欄602は、その内容を示す内容表示欄621を有し、内容表示欄621は、表示内容入力欄6211、カメラ割り当て設定欄6212を有する。
FIG. 8 is a diagram showing a camera and conference information setting input screen.
When setting the Web screen, the user connects a device such as a personal computer to the
表示内容入力欄6211には、図8に示すような会議者の名前等の個人識別情報が入力される。なお、図8では名前を入力する例を示したが、入力内容は個人が識別できる情報であれば特に指定されるものでない。カメラ割り当て設定欄6212は、表示内容入力欄6211の各個人識別情報の入力単位毎にカメラCA1(C),CA2(R),CA3(L)の割り当てを選択させる欄であり、個人識別情報が入力された場合には、いずれかが選択される。この選択内容と上述の話者方位カメラ情報とにより部分映像領域514の表示態様が設定される。すなわち、話者方位カメラ情報と同じカメラが選択されている個人識別情報が、他の個人識別情報と異なる表示態様で表示される。さらに、個人識別情報が入力されていない場合には、対応するカメラ割り当て設定欄6212は、「使用しない」が選択される。これにより、入力された個人識別情報のみが表示される。
In the display
このような設定が行われた後、設定ボタン欄631を選択することで、入力内容が決定して映像制御部13へ反映される。さらに、リセットボタン欄632が選択されれば、入力内容がリセットされる。
After such a setting is made, by selecting the
このような設定操作入力を行うことで、上述の図6に示すような表示画面を得ることができる。 By performing such setting operation input, a display screen as shown in FIG. 6 can be obtained.
なお、「デフォルト」選択欄601が選択された場合には、予め工場出荷時に設定された画像が部分映像領域514に表示される。例えば、当該テレビ会議装置の名称や時刻、会議経過時間等が表示される。また、「使用しない」が選択された場合、部分映像領域514内の「使用しない」に対応する映像領域が空きになるので、当該映像領域を外部入力によるテキスト情報の表示領域に割り当ててもよい。すなわち、上述のようなパソコン等で、Web画面にテキスト入力欄を設け、当該テキスト入力欄に入力された内容を表示させるように制御しても良い。これにより、会議参加者が会議中に決定した事項等の簡単なテキスト情報を入力し、各会議室の会議者がこの情報を共有することができる。
When the “default”
また、前述の説明では、テレビ会議装置1本体に全ての機能を設置した例を示したが、通信制御部15や、これに伴うメイン制御部10の機能の一部を、放収音機能、撮像機能と別体にしてもよい。また、前述の説明のスピーカ数、マイク数、カメラ数は一例であり、装置の仕様に応じて適宜設定すればよい。すなわち、スピーカ数は所望とする放音特性に準じ、マイク数は所望とする収音特性に準じて設定される。そして、カメラ数も所望とする撮像領域や撮像領域分割機能の有無等により三台より多くても少なくてもよい。ただし、カメラ数については、三台であることがより望ましい。これは、本発明の特徴である分割画面が、ユーザの視やすさも考慮して、画面中心基準の四分割画面であり、且つ四つの分割領域の一つを文字情報の表示用に用いるので、会議映像の表示用には最大で三つの画面の設定となる。従ってカメラ数が四台以上であれば、三つの画面に同時に表示することができず、例えば話者を含む映像が表示されていない場合などに、自動切り替え等で四台以上のカメラの映像を三つの分割領域に割り当てなければならない。このため、より複雑な処理が必要となってしまう。さらに、カメラ数が分割領域数よりも多い場合、会議室全体を継続的に撮像することができなくなる。したがって、本発明では、カメラ数が三台であることが望ましい。
Moreover, although the example which installed all the functions in the video conference apparatus 1 main body was shown in the above-mentioned description, the
また、前述の説明では、収音機能、撮像機能、放音機能が一筐体に設置される例を示したが、収音機能と撮像機能とが一体化され、放音機能が無いようなものや、放音機能を別体で設置するようにしてもよい。 In the above description, an example in which the sound collection function, the imaging function, and the sound emission function are installed in one housing is shown. However, the sound collection function and the imaging function are integrated, and there is no sound emission function. You may make it install a thing and a sound emission function separately.
また、上述の説明では、話者を識別させる表示として高輝度黄色点灯と低輝度グレー点灯とを用いた例を示したが、これらの点灯態様は一例であり、話者の有無が明確に識別できる点灯態様であれば、消灯も含み適宜設定が可能である。 Further, in the above description, an example in which high-intensity yellow lighting and low-intensity gray lighting are used as a display for identifying a speaker has been shown. However, these lighting modes are merely examples, and the presence or absence of a speaker is clearly identified. If it is a lighting mode that can be set, it can be set as appropriate including lighting.
1−テレビ会議装置、10−メイン制御部、11−収音制御部、12−エコーキャンセラ、13−映像制御部、14−放音制御部、15−通信制御部、16−操作部、20−表示器、MC1〜MC16−マイク、SP1〜SP14−スピーカ、CA1〜CA3−カメラ、301〜306−会議者、311〜316−会議者映像、400−会議テーブル、410−テーブル映像、500−合成映像データ、501〜503−映像データ、511〜514−部分映像領域、521〜523−カメラ識別マーク、541〜546−話者個別情報 1-video conference device, 10-main control unit, 11-sound collection control unit, 12-echo canceller, 13-video control unit, 14-sound emission control unit, 15-communication control unit, 16-operation unit, 20- Display, MC1 to MC16-Microphone, SP1 to SP14-Speaker, CA1 to CA3-Camera, 301 to 306-Conference, 311 to 316-Conference video, 400-Conference table, 410-Table video, 500-Composite video Data, 501-503 video data, 511-514 partial video area, 521-523 camera identification mark, 541-546 individual speaker information
Claims (4)
前記複数のマイクの収音音声データに基づいて、それぞれに異なる方向を中心とする収音指向性からなる複数の収音ビーム音声データを生成する収音ビーム音声データ生成手段と、
それぞれに異なる撮像領域からなる複数の映像データを生成する撮像手段と、
該撮像手段からの複数の映像データを合成して合成映像データを生成する合成映像データ生成手段と、
前記収音ビーム音声データと前記合成映像データとを出力する通信制御手段と、
を備えたテレビ会議装置であって、
前記複数の収音ビーム音声データのレベルに基づいて話者方位を検出する話者方位検出手段を備え、
前記合成映像データ生成手段は、
前記合成映像データを画面分割した各領域に前記複数の映像データをそれぞれ割り当て、
前記撮像手段から出力される複数の映像データ毎に撮像される話者を示す情報を予め設定した話者表示用データを、前記合成映像データの前記複数の映像データが割り当てられていない領域に割り当て、
各映像データに個別に対応する撮像領域特定マークを、前記各映像データの画面分割領域内に当てはめ、
前記話者方位検出手段で検出された話者方位に対応する話者表示用データおよび撮像領域特定マークを、前記話者方位以外の話者表示用データおよび撮像領域特定マークと異なる表示態様にさせる、
テレビ会議装置。 A plurality of microphones each collecting sound and generating collected sound data;
Based on the collected sound data of the plurality of microphones, sound collection beam sound data generating means for generating a plurality of sound collection beam sound data having sound collection directivities centering on different directions, respectively,
Imaging means for generating a plurality of video data each consisting of different imaging areas;
A composite video data generating unit that generates a composite video data by combining a plurality of video data from the imaging unit;
Communication control means for outputting the collected sound beam audio data and the synthesized video data;
A video conferencing apparatus comprising:
A speaker orientation detecting means for detecting a speaker orientation based on a level of the plurality of collected beam sound data;
The synthesized video data generating means includes
Assigning each of the plurality of video data to each area obtained by dividing the composite video data into a screen;
Allocate speaker display data in which information indicating a speaker to be imaged for each of a plurality of video data output from the imaging means is allocated to an area of the composite video data to which the plurality of video data is not allocated. ,
Apply the imaging area specific mark corresponding to each video data individually in the screen division area of each video data,
The speaker display data and the imaging region specifying mark corresponding to the speaker orientation detected by the speaker orientation detecting means are displayed in a display mode different from the speaker display data and the imaging region specifying mark other than the speaker orientation. ,
Video conferencing equipment.
前記合成映像データ生成手段は、
前記話者方位に基づいて、前記話者表示用データ内で、前記話者方位に対応する個別話者表示用データを、さらに異なる表示態様にさせる、
請求項1に記載のテレビ会議装置。 The speaker display data comprises a plurality of individual speaker display data,
The synthesized video data generating means includes
Based on the speaker orientation, in the speaker display data, the individual speaker display data corresponding to the speaker orientation is further displayed in a different manner.
The video conference apparatus according to claim 1.
請求項1または請求項2に記載のテレビ会議装置。 The sound collecting beam sound data generating means selects and outputs sound collecting beam sound data corresponding to the speaker orientation.
The video conference apparatus according to claim 1 or 2.
入力されたスピーカ駆動信号に基づいて放音する複数のスピーカと、
前記通信制御手段で受信した前記放音用音声データと該放音用音声データに関連付けられた話者方位とに基づいて放音指向性を設定し、該放音指向性に準じて前記複数のスピーカのそれぞれに対する前記スピーカ駆動信号を生成する放音制御手段と、
を備えた、請求項1〜請求項3のいずれかに記載のテレビ会議装置。 The communication control means has a function of receiving sound emission sound data corresponding to the sound collection beam sound data generated by the destination device and a speaker orientation associated with the sound emission sound data. ,
A plurality of speakers emitting sound based on the input speaker driving signal;
A sound emission directivity is set based on the sound emission sound data received by the communication control means and a speaker orientation associated with the sound emission sound data, and the plurality of sound emission directivities are set according to the sound emission directivity. Sound emission control means for generating the speaker drive signal for each of the speakers;
The video conference apparatus according to claim 1, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007184237A JP2009021922A (en) | 2007-07-13 | 2007-07-13 | Video conference apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007184237A JP2009021922A (en) | 2007-07-13 | 2007-07-13 | Video conference apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009021922A true JP2009021922A (en) | 2009-01-29 |
Family
ID=40361130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007184237A Withdrawn JP2009021922A (en) | 2007-07-13 | 2007-07-13 | Video conference apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009021922A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012055335A1 (en) * | 2010-10-29 | 2012-05-03 | 华为终端有限公司 | Conference control method, apparatus and system thereof |
US20140168375A1 (en) * | 2011-07-25 | 2014-06-19 | Panasonic Corporation | Image conversion device, camera, video system, image conversion method and recording medium recording a program |
JP2014161029A (en) * | 2011-02-09 | 2014-09-04 | Polycom Inc | Automatic video layout for multi-stream multi-site telepresence conference system |
-
2007
- 2007-07-13 JP JP2007184237A patent/JP2009021922A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012055335A1 (en) * | 2010-10-29 | 2012-05-03 | 华为终端有限公司 | Conference control method, apparatus and system thereof |
US8564637B2 (en) | 2010-10-29 | 2013-10-22 | Huawei Device Co., Ltd. | Conference control method, and relevant apparatus and system |
JP2014161029A (en) * | 2011-02-09 | 2014-09-04 | Polycom Inc | Automatic video layout for multi-stream multi-site telepresence conference system |
US20140168375A1 (en) * | 2011-07-25 | 2014-06-19 | Panasonic Corporation | Image conversion device, camera, video system, image conversion method and recording medium recording a program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10440322B2 (en) | Automated configuration of behavior of a telepresence system based on spatial detection of telepresence components | |
US7119829B2 (en) | Virtual conference room | |
JP4867516B2 (en) | Audio conference system | |
JP4862645B2 (en) | Video conferencing equipment | |
US9083822B1 (en) | Speaker position identification and user interface for its representation | |
JP2008103824A (en) | Audio conference apparatus and audio conference system | |
US20050213747A1 (en) | Hybrid monaural and multichannel audio for conferencing | |
US20080266394A1 (en) | Audio Module for a Video Surveillance System, Video Surveillance System and Method for Keeping a Plurality of Locations Under Surveillance | |
EP2779638B1 (en) | Loudspeaker arrangement with on-screen voice positioning for telepresence system | |
TW200718195A (en) | Television conference system | |
JP5228407B2 (en) | Sound emission and collection device | |
US10587979B2 (en) | Localization of sound in a speaker system | |
US20040218745A1 (en) | Head postion based telephone conference system and associated method | |
JP4882757B2 (en) | Audio conference system | |
JP2007274462A (en) | Video conference apparatus and video conference system | |
JP2009021922A (en) | Video conference apparatus | |
CN103390410A (en) | Telephone conference system and method | |
US20230231970A1 (en) | Device for displaying images, and use of a device of this type | |
JP2006279588A (en) | Terminal for multispot teleconference | |
CN115967877A (en) | Beamforming microphone system, its setting method and storage medium | |
JP2009027246A (en) | Television conference apparatus | |
WO2018198790A1 (en) | Communication device, communication method, program, and telepresence system | |
JP2011155500A (en) | Monitor control apparatus and acoustic system | |
JP2008147910A (en) | Television conference apparatus | |
JP4708960B2 (en) | Information transmission system and voice visualization device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100520 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120321 |