[go: up one dir, main page]

JPH06233186A - 映像合成装置 - Google Patents

映像合成装置

Info

Publication number
JPH06233186A
JPH06233186A JP5014329A JP1432993A JPH06233186A JP H06233186 A JPH06233186 A JP H06233186A JP 5014329 A JP5014329 A JP 5014329A JP 1432993 A JP1432993 A JP 1432993A JP H06233186 A JPH06233186 A JP H06233186A
Authority
JP
Japan
Prior art keywords
image
light receiving
video data
data
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5014329A
Other languages
English (en)
Other versions
JP3058774B2 (ja
Inventor
Tsutomu Saito
勉 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP5014329A priority Critical patent/JP3058774B2/ja
Priority to US08/187,548 priority patent/US5424773A/en
Publication of JPH06233186A publication Critical patent/JPH06233186A/ja
Application granted granted Critical
Publication of JP3058774B2 publication Critical patent/JP3058774B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

(57)【要約】 【目的】本発明は複数の受光位置に置かれた撮像手段に
よって撮像された映像を擬似的な受光位置に関する係数
に基づき合成することにより、擬似的な受光位置におけ
る映像を得ることができる。 【構成】被写体の取手付き板17に対して左右15度の
方向に2台のカメラ62、64を配置し、カメラ62、
64でとらえた被写体の映像信号A、Bから背景の信号
を除去する。映像合成装置10では、取手付き板17の
正面に置かれたカメラ66の教師信号Cを使ってバック
プロパゲーション法によるニューラルネットワークのシ
ナプス荷重値Wijを学習し、学習されたシナプス荷重値
Wijを使って背景除去された映像信号A、Bを基に取手
付き板17の正面の擬似的な映像を得る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は映像合成装置に関し、特
に映像データから擬似的な受光位置での映像データを合
成する装置に関する。
【0002】
【従来技術】テレビニュースなどでアナウンサがカメラ
に向かって話をする際に、アナウンサは表示装置に写し
出された文章を読んでいるところを撮影されるので、な
るべくカメラに目を向けながら表示画面上の文字に視点
を合わせようと努力する。カメラは表示装置の上に置か
れることが多いので、視聴者からは遠目で見ればアナウ
ンサの目がこちらを向いて話をしているように見える。
【0003】
【発明が解決しようとする課題】しかしながら、視聴者
が凝視すればアナウンサの目はやはりカメラの下の文字
を読んでいることがわかり、こちらを見て話をしていな
いことに気づいてしまう。また、テレビ電話でも同様の
ことがあり、相手が自分の目を見てしゃべっていないこ
とに不自然さを感じることがある。あるいはまた、単に
物を撮影するだけの場合においても、撮影場所によって
は撮影できないカメラアングルがあるために被写体を特
定の方向から撮影できないといったことが起こる。
【0004】本発明は、上述した課題を解決するために
なされたものであり、表示装置とカメラとを同時に使用
したテレビニュースなどにおいてカメラがCRTやLC
Dなどの表示装置の中に組み込めないために起こる視線
の違いをなくし、自然な向きの映像を得ること目的と
し、さらに撮影場所によらず自由なカメラアングルから
の映像を得ることができるようにすることを目的とす
る。
【0005】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、被写体に対して複数の受光位置に配置さ
れた撮像手段によって撮像された映像データから擬似的
な受光位置での映像データを合成することを要旨とす
る。
【0006】
【作用】これにより、複数の受光位置に置かれた撮像手
段を用いて撮像された映像データは映像データ記憶手段
に記憶され、それらの映像データを係数記憶手段に記憶
された係数によって対応付けすることによって擬似的な
受光位置での映像データを得る。
【0007】
【実施例】1.全体構成 図1は映像合成装置10の構成を示す。映像合成装置1
0はテレビ電話などに搭載され、被写体の撮像や表示を
行うものである。本実施例の映像合成装置10は映像信
号を入力とするニューラルネットワークで構成され、中
央処理装置(以下、CPUという)25のバス32に接
続されたROM34、RAM37、CRT表示装置4
5、モデム48およびI/Oインターフェース49a、
49b、49c、49dを有する。さらに、これらのI
/Oインターフェース49a、49b、49c、49d
を介して複数のニューロボード52、53、54や3台
のカメラ62、64、66あるいはカメラ66の角度を
検出する角度スイッチ76などが接続される。
【0008】ROM34には映像信号処理プログラムが
格納されておりその処理内容については後述するが、そ
の処理において使用されるシナプス荷重値テーブル、シ
グモイド関数テーブルはそれぞれバス32に接続された
RAM73、ROM74に記憶される。また、RAM3
7には映像信号記憶領域37a、背景信号記憶領域37
bおよび合成信号記憶領域37cが割り当てられてお
り、各領域に対応する映像信号が記憶される。
【0009】2.撮像セット 図2は3台のカメラ62、64、66のセッティングの
様子を示す。被写体である取手付き板17に対し左右1
5度方向の受光位置にそれぞれカメラ62、64がセッ
トされる。被写体である取手付き板17の中心は各カメ
ラ62、64、66の光学系の各中心線の交差地点に位
置する。カメラ62、64は電荷結合素子(CCD)を
内蔵する。CCDは受光した映像信号を画素単位に直列
に出力するインターライン転送型のもので、その出力は
内蔵された増幅器により次段に合わせて調節される。C
CDの画素数nは水平画素64×垂直画素64の合計4
096画素で構成された比較的粗い解像度のものであ
る。
【0010】カメラ62、64の上には映像と同時に音
声を集録するためのマイク13a、13bが設けられて
いる。また、カメラ62、64の中間にはCRT表示装
置45が設けられているが、これは合成処理された映像
信号を表示したり他の映像合成装置10からモデム48
を介して転送された映像信号を表示するのに使用され
る。さらに、CRT表示装置45の前方には後述する学
習処理の際に一時的に使用されるカメラ66がセットさ
れる。
【0011】これらのカメラ62、64、66によって
撮像された1フレーム分の映像信号A、B、Cは映像信
号記憶領域37aに区分けされて記憶される。また、背
景信号記憶領域37bには被写体が置かれていないとき
に撮像された映像信号A0、B0が記憶される。合成信
号記憶領域には合成処理された映像信号が記憶される。
合成処理される映像の擬似的な受光位置は角度スイッチ
76によって特定され、その高さはカメラ62、64で
撮影される映像と同じで、被写体に対する角度が正面か
ら0度、左右の5度のいずれかに選択される。
【0012】3.ニューラルネットワーク 図3は本実施例で用いられるニューラルネットワークの
モデルを示す。図3(A)に示すように、入力層のニュ
ーロン数はカメラ62、64のCCDの画素数4096
の和に等しい。中間層は一段のニューロン層から構成さ
れており、そのニューロン数mは入力層に比べて多く設
定される。出力層のニューロン数はCCDの画素数と同
じ4096である。各ニューロンは図3(B)に示すモ
デルからなる。このモデルから本実施例のニューラルネ
ットワークを説明する。ここで、各ニューロンの出力信
号をvで示し、ニューロン内で積和演算、しきい値処理
された信号をuで示すとそれらの関係は次式で表され
る。
【0013】 ui(k)=Σ Wij(k) ・vj(k-1)−θi(k) …(5A) vi(k)=f(ui(k)) …(5B) ここで、Σはj=1からj=nまでの累算を行うことを
示す記号である。Wijは前段のk−1層のj番目のニュ
ーロンから出力信号vj(k-1)を受けるこのk層のi番目
のニューロンのシナプス荷重値を示す。nは前段のk−
1層のニューロン数である。θi はこのk層のi番目の
ニューロンのしきい値である。関数fはニューロンの入
出力関数で一般的につぎのシグモイド関数で与えられ
る。
【0014】 f=1/{1+exp(−ui(k)/λ)} …(5C) ニューラルネットワークはニューロボード52、53、
54を主体にしたCPU25の演算処理によって構成さ
れる。入力層のニューロンは1入力タイプのニューロボ
ード52を中心に構成され、中間層および出力層のニュ
ーロンは多入力タイプのニューロボード53、54用い
て構成される。
【0015】4.ニューロボード52、53、54 図4および図5はそれぞれ入力層および中間層のニュー
ロボード52、53の構成を示す。出力層のニューロボ
ード54は中間層のニューロボード53と同様の構成で
あるので省略する。始めに中間層のニューロボード53
について説明する。ニューロボード53はラッチ91、
シフトレジスタ92、乗算器93および加算器94から
積和演算回路を構成する。この回路はデジタルシグナル
プロセッサで代用してもよい。4096×2個並列に設
けられた各ラッチ91には画素単位の映像信号がバス3
2を経由してそれぞれ入力される。
【0016】また、各シフトレジスタ92にはシナプス
荷重値テーブル73に格納されているシナプス荷重値W
ijがバス32を経由して入力されるが、入力されるシナ
プス荷重値Wijは図6に示すように例えばW1,1 〜W1,
4096というように4096個のデータがまとまって1個
のシフトレジスタ92aに格納されることになる。格納
されたシフトレジスタ92のデータはアドレスカウンタ
95からのシフト指令にしたがって順次出力側にシフト
される。各ラッチ91に入力層からの出力信号v1(1)、
v2(1)、…、vm(1)のデータが順番にセットされると、
それぞれの乗算器93で、v1(1)×W1,1 、v2(1)×W
1,2…vm(1)×W1,mと乗算処理が行われ、加算器94で
乗算処理された値が累積的に加算される。
【0017】加算処理されたΣ W1,j×vj(1)(Σはj
=1からj=mまでを累算することを示す記号である)
の値は次段のラッチ97aに格納される。同様にして、
ΣW2,j×vj(1) (Σはj=1からj=mまでを累算す
ることを示す記号である)の値はラッチ97bに格納さ
れる。また、しきい値θはニューロン毎に固有の値でR
OM34に格納されており、前述のシナプス荷重値Wij
のデータ転送に引き続いて各ラッチ96に転送される。
これにより、例えばラッチ96a、96bにはそれぞれ
θ1、θ2が格納される。減算器98により、Σ W1,j×
vj(1)−θ1(Σはj=1からj=mまでを累算するこ
とを示す記号である)の減算処理が実行されると、その
結果データu1(2)は出力ラッチ99aに格納される。
【0018】出力ラッチ99にそれぞれに格納されたデ
ータui(2)はCPU25のタイミングに応じてI/Oイ
ンターフェース49bおよびバス32を介して一旦RA
M37に取り込まれる。この後、シグモイド関数テーブ
ル74を参照して前述の式(5C)に示したシグモイド
変換が実行される。このようにしてニューロンの演算を
終了する。図3(B)に示した1個のニューロンは図5
の一点鎖線で囲まれた積和演算およびしきい値処理の部
分110とシグモイド関数テーブル74とから構成され
ることがわかる。
【0019】つぎに入力層のニューロボード52を説明
する。入力層のニューロンは1入力なので、入力層のニ
ューロボード52は中間層のニューロボード53から加
算器94を除いた構成となる。すなわち、乗算器123
の出力は他の乗算器の出力と加算されることなくラッチ
127にそのまま格納されることになる。また、シナプ
ス荷重値テーブル73から転送されるシナプス荷重値W
ijのデータはシフトレジスタでなくラッチ122に記憶
することができ、そのデータもW1、W2、…、W4096と
それぞれ1つである。以上示したニューラルネットワー
クを用いて、映像の合成を行うのであるが、始めに比較
的簡単なパーセプトロンモデルによる映像合成の概略を
示し、つぎにより一般的なバックプロパゲーションモデ
ルによる映像の合成を示すこととする。
【0020】5.像合成処理 図7は被写体として板材15を用いた場合を示す。簡単
のために左右8個分のCCD画素だけを対象とし、学習
なしのパーセプトロンモデルで合成映像を出力すること
とする。すなわち、入力層の左右のニューロンをそれぞ
れL1〜L8、R1〜R8と、中間層のニューロンをM
1〜M8と、および出力層のニューロンをO1〜O8と
記号付けして示す。また、中間層のニューロンMi のシ
ナプス荷重値Wijは入力層のニューロンLi-1、Ri-1、
Li、Ri、Li+1、Ri+1の合計6個のニューロンに対し
ては論理的に値「1」を有し、その他の入力層のニュー
ロンに対しては値「0」を有する。
【0021】図7において、板材15を撮像できた画素
に対応する入力層のニューロンは「●」で示し、そうで
ないニューロンは「○」で示している。また、中間層の
しきい値θiはどれも値「3」に設定し、出力層のしき
い値θiはどれも値「1」である。また、式(5C)の
シグモイド関数はλ→0に近い値とした論理関数であ
り、ΣWij・vj−θiが値「1」を越えるとき値
「1」、値「1」以下のとき値「0」を出力する。
【0022】このように設定されたパーセプトロンモデ
ルでは、板材15を撮像した画素に対応する入力層のニ
ューロンR2、R3、R4、R5、R6、R7、L4お
よびL5は値「1」を出力する。この入力層のニューロ
ンの出力信号vi を受けて、例えば中間層のニューロン
M6はL5+L6+L7+R5+R6+R7=4の積和
演算値を有し、しきい値θの値「3」を越えるので値
「1」を出力する。出力層のニューロンOiは中間層の
ニューロンMiと1対1のニューロンからのシナプス荷
重値Wiiだけを値「1」とするがそれ以外は値「0」な
ので、中間層のニューロンMi の値がそのまま出力層の
ニューロンOi 値となる。この結果、図7の表に示すよ
うにほぼ板材15を正面から撮像したとされる映像信号
が出力層のニューロンO3〜O6から得られる。
【0023】また、上下方向においても同様の処理を行
うことができる。この場合、図7のM1〜M8の中間層
と同じ構成、同じしきい値θi のもう1つの中間層を入
力層L1〜L8、R1〜R8に対して設け、この2つの
中間層M1〜M8から出力層O1〜O8へデータが出力
される。そして、出力層のしきい値は「1」または
「0」とされる。さらに、図7の中間層の1つのニュー
ロンMi は、入力層のニューロンLi-1,j、Li,j、Li+
1,j、Li,j-1、Li,j+1、Ri-1,j、Ri,j、Ri+1,j、R
i,j-1、Ri,j+1の入力データ、これに加えてLi-1,j-
1、Li+1,j-1、Li-1,j+1、Li+1,j+1、Ri-1,j-1、Ri
+1,j-1、Ri-1,j+1、Ri+1,j+1の入力データ、さらにこ
れに加えてLi-2,j-2〜Li+2,j+2、Ri-2,j-2〜Ri+2,j
+2…加算してもよい。iは水平方向の座標を示し、jは
垂直方向の座標を示す。この場合、しきい値θi は
「5」、「9」、「25」…となる。
【0024】尚、j−1、j、j−2…の各列ごとに式
(5C)のシグモイド関数のλの値を変えて各列に重み
付けを行ってもよい。このほか、j列3つの画素の入力
データについての処理データがしきい値θi に等しけれ
ば、さらにこの3つの画素のまわりの一部または全部の
画素の入力データについて処理を行い、この処理データ
もしきい値θi に依然等しければ、さらにこのまわりの
画素の入力データについて処理を行ってもよい。
【0025】また、カラーの例では、1つのニューロン
に記憶される画像データはブラック以外に、シアン、マ
ゼンダ、イエローについても記憶され、各色について上
記処理が行われる。さらに、色の諧調は「0」、「1」
の1ビット2段階以上の場合、例えば、「00」〜「1
1」の2ビット4段階、「000」〜「111」の3ビ
ット8段階…の場合には以下のようになる。すなわち、
上記図7のニューロボードは階調の各ビットごとに構成
され、ニューロ処理された各ビットが各ニューロボード
ごとに出力され、1つのデータとして合成される。これ
により、入力データの各諧調の各値のうち、最大多数を
占めるモード値が選び出されて出力される。つぎに、ニ
ューラルネットワークにおいて一般的に用いられるバッ
クプロパゲーションモデルの場合を示す。
【0026】6.映像信号処理 図8は映像信号処理のフローチャートを示す。図10に
示すように、本実施例では被写体として取手付き板17
を用い、これを左15度、正面、右15度に置いて撮像
した場合を示す。フローチャートにしたがってこれらの
合成処理を説明すると、始めにCPU25は合成される
映像の擬似的な受光位置を角度スイッチ76から検出す
る(ステップS200)。つぎに、学習時のカメラ66
を用いて取手付き板17を撮像しその映像信号Cをバス
32を介してRAM37の映像信号記憶領域37aに記
憶する(ステップS210、S220、S230)。
【0027】本実施例ではバス32を介してデータ転送
を行っているが、応答性を高めるためにバスを解放する
DMA転送やチャネル制御によるデータ転送にしてもよ
い。つぎに、取手付き板17の正面に対し左右15度の
方向を受光位置として配置された2台のカメラ62、6
4を交互に起動して取手付き板17を撮像し、それらの
映像17a、17bの映像信号A、BをRAM37の映
像信号記憶領域37aに記憶する(ステップS240〜
S270)。尚、前述したように背景信号記憶領域37
bには取手付き板17が置かれていない状態の背景映像
信号A0 、B0があらかじめ記憶されているので、これ
らの背景映像信号A0 、B0 を映像信号A、Bから除去
して取手付き板17だけの映像信号A、Bを抽出する
(ステップS280)。抽出された映像信号A、BはR
AM37の映像信号記憶領域37aに上書きされる。
【0028】つぎに、抽出された映像信号A、Bを用い
て信号合成処理のサブルーチン(ステップS290)が
実行される。このサブルーチンでは、CPU25は図6
に示すシナプス荷重値Wijをシナプス荷重値テーブル7
3からバス32および各I/Oインターフェースを49
a、49b、49cを介してそれぞれのニューロボード
52、53、54の各シフトレジスタ92、122にデ
ータ転送する(ステップS300)。さらに、RAM3
7の映像信号記憶領域37aに記憶された左右の映像信
号A、Bをバス32およびI/Oインターフェース49
bを介して入力層のニューロボード52のラッチ121
に画素単位にデータ転送する(ステップS310)。
【0029】ニューロボード52では、前述したように
各ラッチ121に入力された画素単位のデータvi が乗
算処理、しきい値処理されると、そのデータui(1)がラ
ッチ129に一時記憶される。CPU25はラッチ12
9のデータui(1)をRAM37に転送し、さらにシグモ
イド関数テーブル74を参照して前述の式(5C)に示
したシグモイド変換を実行する(ステップS320)。
シグモイド関数の変換は演算式をCPU25がそのまま
実行することで求めてもよいが、本実施例のように限ら
れた範囲の値であればテーブルにして参照する方が高速
処理できる。
【0030】つぎに、CPU25はシグモイド変換され
たデータvi(2)を中間層のニューロボード53の各ラッ
チ91に順次転送する(ステップS330)。転送され
たデータvi(2)は積和演算およびしきい値処理されて同
様に各ラッチ99に一時記憶される。同じように、シグ
モイド変換されたデータvi(3)は出力層のニューロボー
ド54の各ラッチに転送されて同様の処理をくりかえす
(ステップS340、S350、S360)。このよう
にして出力層の各ニューロンから出力期待値としてのデ
ータvi(3)がRAM37の合成信号記憶領域37cに記
憶される(ステップS370)。
【0031】つづいて、CPU25は学習時における評
価演算を行う。バックプロパゲーションモデルに基づく
評価演算では、カメラ66を用いて撮像される被写体の
映像信号Cを教師信号のデータv′i(3) として各ニュ
ーロンのシナプス荷重値Wijを学習する。評価演算は出
力期待値としてのデータvi(3)と教師信号としてのデー
タv′i(3) との一致の程度を評価し、その結果に応じ
てシナプス荷重値Wijを修正することでなされる。すな
わち、教師信号Cのデータv′i(3) に対するデータvi
(3)の2乗誤差として定義される次の評価関数Eが最小
値に収束するように各シナプス荷重値Wijの演算が実行
される。
【0032】 E=1/2Σ(v′i(k) − vi(k))2 …(10A) この演算の実行に際して、出力層のニューロンのシナプ
ス荷重値Wij(3) に続いて中間層のニューロンのシナプ
ス荷重値Wij(2) を修正するわけであるが、その学習則
における式を示せば次の通りである。
【0033】 △Wij(k)=ηγi(k)vj(k) γi(3)=(v′i(3)−vi(3))f′(ui) …(10B) γi(k)=(ΣWij(k+1)・γj(k+1))f′(ui(k)) …(10C) ここで、ηは収束の速さを決める学習パラメータであ
る。γi(k)はk層が出力層(3) の場合には式(10
B)、k層が出力層以外の中間層の場合には式(10
C)である。バックプロパゲーションモデルにおける修
正信号△Wij(k) は信号の流れと反対に後の層の修正信
号△Wij(k+1) から再帰的に計算されることが分かる。
【0034】f′(ui(k)) はシグモイド関数の導関数
である。評価演算によって学習された出力層および中間
層の修正信号△Wij(3)、△Wij(2)に従ってシナプス荷
重値テーブル73に格納されているシナプス荷重値Wij
を修正する。前述した式(10A)の評価関数を最小に
するようにシナプス荷重値Wijの評価が行われる。シナ
プス荷重値の修正量△Wijは前述の式(10B)、(1
0C)に則って演算される。演算されたシナプス荷重値
の変化分△WijはCPU25によってシナプス荷重値テ
ーブル73のWijに加算処理して上書きされる。
【0035】このようにシナプス荷重値テーブル73の
修正を一巡したところでひとまず学習を終えてメインル
ーチンに戻る(ステップS380、S390、S40
0)。一方、学習なしのときには、出力層の各ニューロ
ンからの出力期待値としてのデータvi(3)をRAM37
の合成信号記憶領域37cに記憶してメインルーチンに
戻る。メインルーチンでは学習時であったかどうかを問
わず、RAM37に記憶された合成映像信号vi(3)をC
RT45に表示する(ステップS410)。
【0036】このとき合成映像信号vi(3)をモデム48
を介して電話回線により他の映像処理装置に転送するよ
うにしてもよい。また、1回目の映像信号処理ルーチン
を終えたらくりかえすことにより学習の効果は高まる。
この学習のくりかえしはCRT表示装置45に表示され
た取手付き板17cの映像から判断してもよいし、ある
いはあらかじめ所定回数設定しておくことでもよい。こ
のように学習を終えたらカメラ66を取り除いても2台
のカメラ62、64からの映像信号A、Bだけで擬似的
な受光位置における合成映像を表示できるようになる。
【0037】図10の(A)、(B)、(C)は取手付
き板17を左15度、正面、右15度に置いた場合の合
成映像を示す。また、被写体が取手付き板材17でな
く、人の顔の輪郭である場合には、図11に示すように
左方向のカメラ62から撮像した顔の輪郭の映像16
a、および右方向のカメラ64から撮像した顔の輪郭の
映像16bを実線で示すと、合成される顔の輪郭の映像
16cが点線で示すように得られる。
【0038】7.変形例 図13は変形例の映像合成装置125を示す。映像合成
装置125はカメラ66を合成予定の擬似的な受光位置
に配置して撮像した映像を多数格納する学習データベー
ス115を新たに設ける。学習データベース115はこ
の他に、左右の15度方向からカメラ62、64によっ
て撮像された映像、カメラ66によって撮像されたさま
ざまな角度の映像信号を教師信号として学習されたとき
のシナプス荷重値Wijも格納されている。したがって、
この学習データベース115からシナプス荷重値Wijを
各ニューロボード52、53、54にデータ転送するだ
けで学習作業は終了する。
【0039】本発明は上記実施例に限定されず、本発明
の趣旨を逸脱しない範囲で種々変更可能である。例え
ば、図12に示すようにシグモイド変換まで含めた専用
のディジタルニューロチップ70を用いて構成してもよ
い。このニューロチップ70はインターフェース75を
介して他のニューロンから出力値72を受け付け、シナ
プス荷重値テーブル73に格納されているシナプス荷重
値Wijを用いて乗算器76および加算器77を用いて積
和演算を施してからシグモイド関数78の変換までを行
う。このようにチップの中でシグモイド変換まで行うこ
とでCPU25の負担を軽減することができる。
【0040】また、本実施例では左右の角度のみ違う1
次元の擬似的な受光位置に映像を合成するようにした
が、高さ方向も含めた2次元の擬似的な受光位置に映像
を合成するようにしてもよい。さらに、本実施例におけ
る中間層は1段のニューロン層から構成されているが、
2〜3段のニューロン層で構成してもよい。また、各ニ
ューロンは本実施例のように一部にニューロボードを使
用する構成でもよいが、全く専用のボードあるいはチッ
プを使用せずにノイマン型のコンピュータにC言語など
のプログラミング言語を用いて記述した仮想的なニュー
ロンであっても応答が遅くなるだけで一向に構わない。
さらに、学習の方法は本実施例の教師つき学習に限定さ
れるものではなく、成績評価つき学習、自己組織化とい
った手法でもよい。
【0041】
【発明の効果】以上詳述したように、本発明は複数台の
撮像手段を使って撮像された映像を合成することにより
違った方向からの擬似的な映像を得ることができるとい
った優れた効果を奏する。したがって、CRT表示装置
とカメラとを同時に使用したテレビニュースなどにおい
てカメラがCRTあるいはLCD表示装置の中に組み込
めないために起こる視線の違いをなくし、自然な向きの
映像を得ることができ、あたかもCRTあるいはLCD
表示装置の中にカメラがあるような映像信号を合成でき
る。さらに、場所に応じて撮影することができないカメ
ラアングルからの映像を得ることができる。
【図面の簡単な説明】
【図1】映像合成装置10の構成を示すブロック図であ
る。
【図2】カメラの撮像セットを示す図である。
【図3】(A)は多層型ニューラルネットワークを示
し、(B)はニューロンを示す図である。
【図4】入力層のニューロボ−ド52のブロック図であ
る。
【図5】中間層のニューロボード53のブロック図であ
る。
【図6】シナプス荷重値テーブルを示す図である。
【図7】板材15の合成映像を示す図である。
【図8】映像信号処理のフローチャートを示す。
【図9】信号合成処理のフローチャートを示す。
【図10】取手付き板17の映像を示し、(A)は左1
5度の方向に取手付き板17を置いたときの合成映像を
示し、(B)は右15度の方向に取手付き板17を置い
たときの合成映像を示し、(C)は正面に取手付き板1
7を置いたときの合成映像を示す図である。
【図11】顔の合成映像を示す図である。
【図12】ディジタルニューロチップ70の構成を示す
ブロック図である。
【図13】変形例の映像合成装置125の構成を示すブ
ロック図である。
【符号の説明】 10…映像合成装置、17…取手付き板、25…CP
U、52、53、54…ニューロボード、70…ニュー
ロチップ、62、64、66…カメラ、73…シナプス
荷重値テーブル、74…シグモイド関数テーブル、11
5…学習データベース。

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】被写体に対して複数の受光位置に配置され
    た複数の撮像手段と、 前記各受光位置にて前記各撮像手段が撮像した映像デー
    タを記憶する映像データ記憶手段と、 前記複数の受光位置における各映像データから、各受光
    位置に挟まれる擬似的な受光位置での映像データに対応
    付けするための係数を記憶する係数記憶手段と、 該係数に基づき、前記擬似的な受光位置での映像データ
    を前記複数の受光位置における各映像データから合成す
    る映像データ合成手段とを有することを特徴とする映像
    合成装置。
  2. 【請求項2】前記映像データ合成手段は、前記映像デー
    タ記憶手段に記憶されたある画素とこの画素付近の画素
    の映像データ群の各値の中で、最大多数を占める値の映
    像データを選び出して出力する手段であることを特徴と
    する請求項1に記載の映像合成装置。
  3. 【請求項3】前記映像データ合成手段はニューラルネッ
    トワークを有し、各シナプス荷重値はあらかじめ前記受
    光位置の映像データを入力とし、前記擬似的な受光位置
    の映像データを出力期待値とした学習により得られたも
    のであることを特徴とする請求項1に記載の映像合成装
    置。
  4. 【請求項4】前記被写体は前記各撮像手段の光学系の各
    中心線の交差地点に位置していることを特徴とする請求
    項1に記載の映像合成装置。
  5. 【請求項5】前記映像合成手段は、前記複数の受光位置
    における各映像データを複数の色に分解し、各色につい
    て前記擬似的な受光位置での映像データを合成すること
    を特徴とする請求項1または2に記載の映像合成装置。
  6. 【請求項6】前記映像合成手段は、前記複数の受光位置
    における各映像データの階調を示すデータの各ビットご
    とに映像データを合成することを特徴とする請求項1ま
    たは2に記載の映像合成装置。
JP5014329A 1993-01-29 1993-01-29 映像合成装置及び映像合成方法 Expired - Lifetime JP3058774B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5014329A JP3058774B2 (ja) 1993-01-29 1993-01-29 映像合成装置及び映像合成方法
US08/187,548 US5424773A (en) 1993-01-29 1994-01-28 Apparatus and method for generating a pseudo camera position image from a plurality of video images from different camera positions using a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5014329A JP3058774B2 (ja) 1993-01-29 1993-01-29 映像合成装置及び映像合成方法

Publications (2)

Publication Number Publication Date
JPH06233186A true JPH06233186A (ja) 1994-08-19
JP3058774B2 JP3058774B2 (ja) 2000-07-04

Family

ID=11858034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5014329A Expired - Lifetime JP3058774B2 (ja) 1993-01-29 1993-01-29 映像合成装置及び映像合成方法

Country Status (2)

Country Link
US (1) US5424773A (ja)
JP (1) JP3058774B2 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07222202A (ja) * 1994-02-02 1995-08-18 Rohm Co Ltd 立体ビジョンカメラ
JPH07287761A (ja) * 1994-04-19 1995-10-31 Canon Inc 画像処理装置及び画像処理方法
EP0684585B1 (en) * 1994-04-22 2003-02-05 Canon Kabushiki Kaisha Image forming method and apparatus
JP3192875B2 (ja) * 1994-06-30 2001-07-30 キヤノン株式会社 画像合成方法および画像合成装置
EP1494476A1 (en) * 1994-09-09 2005-01-05 Canon Kabushiki Kaisha Image processing method and apparatus
WO1997003416A1 (en) * 1995-07-10 1997-01-30 Sarnoff Corporation Method and system for rendering and combining images
EP0866606B1 (en) * 1996-10-04 2004-12-29 Nippon Telegraph And Telephone Corporation Method for temporally and spatially integrating and managing a plurality of videos, device used for the same, and recording medium storing program of the method
US6552744B2 (en) 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US7015951B1 (en) * 1998-05-08 2006-03-21 Sony Corporation Picture generating apparatus and picture generating method
US6671421B1 (en) * 1999-04-13 2003-12-30 Matsushita Electric Industrial Co., Ltd. Method of adjusting image reading position, method of reading image and image reading apparatus
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US7292261B1 (en) * 1999-08-20 2007-11-06 Patrick Teo Virtual reality camera
US6968081B1 (en) * 1999-11-15 2005-11-22 Luminus Systems, Inc. System, method, and apparatus for orienting images
EP1287684A4 (en) * 2000-04-27 2006-07-12 Litton Systems Inc METHOD AND SYSTEM FOR MERRYING IMAGES
US20020188772A1 (en) * 2001-04-02 2002-12-12 Mark Radcliffe Media production methods and systems
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
US6740118B2 (en) * 2002-01-09 2004-05-25 Sdgi Holdings, Inc. Intervertebral prosthetic joint
US6793678B2 (en) 2002-06-27 2004-09-21 Depuy Acromed, Inc. Prosthetic intervertebral motion disc having dampening
US7310442B2 (en) * 2003-07-02 2007-12-18 Lockheed Martin Corporation Scene analysis surveillance system
US20100013917A1 (en) * 2003-08-12 2010-01-21 Keith Hanna Method and system for performing surveillance
US20050149192A1 (en) * 2003-11-20 2005-07-07 St. Francis Medical Technologies, Inc. Intervertebral body fusion cage with keels and implantation method
US7837732B2 (en) * 2003-11-20 2010-11-23 Warsaw Orthopedic, Inc. Intervertebral body fusion cage with keels and implantation methods
KR100579135B1 (ko) * 2004-11-11 2006-05-12 한국전자통신연구원 수렴형 3차원 다시점 영상 획득 방법
US20060276902A1 (en) * 2005-06-03 2006-12-07 Zipnick Richard I Minimally invasive apparatus to manipulate and revitalize spinal column disc
US8736672B2 (en) * 2006-08-24 2014-05-27 Reald Inc. Algorithmic interaxial reduction
US11395626B2 (en) 2006-12-07 2022-07-26 DePuy Synthes Products, Inc. Sensor for intervertebral fusion indicia
WO2008070863A2 (en) 2006-12-07 2008-06-12 Interventional Spine, Inc. Intervertebral implant
US8900307B2 (en) 2007-06-26 2014-12-02 DePuy Synthes Products, LLC Highly lordosed fusion cage
CN101909548B (zh) 2008-01-17 2014-07-30 斯恩蒂斯有限公司 可膨胀椎间植入件以及制造它的相关方法
CN102036623A (zh) 2008-04-05 2011-04-27 斯恩蒂斯有限公司 可膨胀的椎间植入体
ES2361099B1 (es) * 2008-05-26 2012-05-08 Rudolf Morgenstern Lopez "prótesis intervertebral"
US9526620B2 (en) 2009-03-30 2016-12-27 DePuy Synthes Products, Inc. Zero profile spinal fusion cage
US9393129B2 (en) 2009-12-10 2016-07-19 DePuy Synthes Products, Inc. Bellows-like expandable interbody fusion cage
US8979860B2 (en) 2010-06-24 2015-03-17 DePuy Synthes Products. LLC Enhanced cage insertion device
US8845733B2 (en) 2010-06-24 2014-09-30 DePuy Synthes Products, LLC Lateral spondylolisthesis reduction cage
US8623091B2 (en) 2010-06-29 2014-01-07 DePuy Synthes Products, LLC Distractible intervertebral implant
US9402732B2 (en) 2010-10-11 2016-08-02 DePuy Synthes Products, Inc. Expandable interspinous process spacer implant
WO2014018098A1 (en) 2012-07-26 2014-01-30 DePuy Synthes Products, LLC Expandable implant
US20140067069A1 (en) 2012-08-30 2014-03-06 Interventional Spine, Inc. Artificial disc
US9717601B2 (en) 2013-02-28 2017-08-01 DePuy Synthes Products, Inc. Expandable intervertebral implant, system, kit and method
US9522070B2 (en) 2013-03-07 2016-12-20 Interventional Spine, Inc. Intervertebral implant
US11426290B2 (en) 2015-03-06 2022-08-30 DePuy Synthes Products, Inc. Expandable intervertebral implant, system, kit and method
US9913727B2 (en) 2015-07-02 2018-03-13 Medos International Sarl Expandable implant
EP3474783B1 (en) 2016-06-28 2023-05-03 Eit Emerging Implant Technologies GmbH Expandable, angularly adjustable intervertebral cages
US11596523B2 (en) 2016-06-28 2023-03-07 Eit Emerging Implant Technologies Gmbh Expandable and angularly adjustable articulating intervertebral cages
US10537436B2 (en) 2016-11-01 2020-01-21 DePuy Synthes Products, Inc. Curved expandable cage
US10888433B2 (en) 2016-12-14 2021-01-12 DePuy Synthes Products, Inc. Intervertebral implant inserter and related methods
EP3564864A4 (en) * 2016-12-30 2020-04-15 Shanghai Cambricon Information Technology Co., Ltd DEVICES FOR COMPRESSION / DECOMPRESSION, SYSTEM, CHIP AND ELECTRONIC DEVICE
US10398563B2 (en) 2017-05-08 2019-09-03 Medos International Sarl Expandable cage
US11344424B2 (en) 2017-06-14 2022-05-31 Medos International Sarl Expandable intervertebral implant and related methods
US10940016B2 (en) 2017-07-05 2021-03-09 Medos International Sarl Expandable intervertebral fusion cage
US11446156B2 (en) 2018-10-25 2022-09-20 Medos International Sarl Expandable intervertebral implant, inserter instrument, and related methods
US11426286B2 (en) 2020-03-06 2022-08-30 Eit Emerging Implant Technologies Gmbh Expandable intervertebral implant
US11850160B2 (en) 2021-03-26 2023-12-26 Medos International Sarl Expandable lordotic intervertebral fusion cage
US11752009B2 (en) 2021-04-06 2023-09-12 Medos International Sarl Expandable intervertebral fusion cage
US12090064B2 (en) 2022-03-01 2024-09-17 Medos International Sarl Stabilization members for expandable intervertebral implants, and related systems and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01320584A (ja) * 1988-06-22 1989-12-26 Nippon Telegr & Teleph Corp <Ntt> 連続視域画像再生法
JPH03214369A (ja) * 1990-01-19 1991-09-19 Fujitsu Ltd ニューロコンピュータを用いた形状記憶方式
JPH0472986A (ja) * 1990-07-13 1992-03-06 Fujitsu Ltd テレビ電話機撮像方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4897811A (en) * 1988-01-19 1990-01-30 Nestor, Inc. N-dimensional coulomb neural network which provides for cumulative learning of internal representations
US5086479A (en) * 1989-06-30 1992-02-04 Hitachi, Ltd. Information processing system using neural network learning function
US5235440A (en) * 1989-11-06 1993-08-10 Teledyne Industries, Inc. Optical interconnector and highly interconnected, learning neural network incorporating optical interconnector therein

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01320584A (ja) * 1988-06-22 1989-12-26 Nippon Telegr & Teleph Corp <Ntt> 連続視域画像再生法
JPH03214369A (ja) * 1990-01-19 1991-09-19 Fujitsu Ltd ニューロコンピュータを用いた形状記憶方式
JPH0472986A (ja) * 1990-07-13 1992-03-06 Fujitsu Ltd テレビ電話機撮像方法

Also Published As

Publication number Publication date
JP3058774B2 (ja) 2000-07-04
US5424773A (en) 1995-06-13

Similar Documents

Publication Publication Date Title
JP3058774B2 (ja) 映像合成装置及び映像合成方法
CN111741211B (zh) 图像显示方法和设备
JPH03131965A (ja) ニューラルネットワーク用二次元収縮アレイ及びその方法
US10929955B2 (en) Scene-based nonuniformity correction using a convolutional recurrent neural network
CN113076685B (zh) 图像重建模型的训练方法、图像重建方法及其装置
CN111767866B (zh) 一种人体模型创建方法、装置、电子设备及存储介质
CN111402130A (zh) 数据处理方法和数据处理装置
CN111835983B (zh) 一种基于生成对抗网络的多曝光图高动态范围成像方法及系统
JP4458678B2 (ja) 高速視覚センサ装置
WO2023151511A1 (zh) 模型训练方法、图像去摩尔纹方法、装置及电子设备
CN114885144B (zh) 基于数据融合的高帧率3d视频生成方法及装置
JPH1040392A (ja) 局所領域画像追跡装置
US20220215617A1 (en) Viewpoint image processing method and related device
JPH07222202A (ja) 立体ビジョンカメラ
CN114885112B (zh) 基于数据融合的高帧率视频生成方法及装置
CN113658091A (zh) 一种图像评价方法、存储介质及终端设备
CN115049783A (zh) 模型的确定方法、场景重建模型、介质、设备及产品
JP4302212B2 (ja) 高速視覚センサ装置
CN115908850A (zh) 机器学习模型训练方法和装置、场景图生成方法和装置
JPH04297189A (ja) 周期的ノイズを生じるセンサからの像を補正する方法及び該方法を実施する装置
CN113674383B (zh) 生成文本图像的方法及装置
CN117274392A (zh) 相机内参标定方法及相关设备
Blasinski et al. Real-time, color image barrel distortion removal
JPH04200081A (ja) 撮像装置
CN111464755B (zh) 星载相机短曝光图像序列信噪比实时处理方法及系统