[go: up one dir, main page]

JP2017194935A - 三次元再構成方法 - Google Patents

三次元再構成方法 Download PDF

Info

Publication number
JP2017194935A
JP2017194935A JP2016086595A JP2016086595A JP2017194935A JP 2017194935 A JP2017194935 A JP 2017194935A JP 2016086595 A JP2016086595 A JP 2016086595A JP 2016086595 A JP2016086595 A JP 2016086595A JP 2017194935 A JP2017194935 A JP 2017194935A
Authority
JP
Japan
Prior art keywords
frames
unit
frame
camera
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016086595A
Other languages
English (en)
Other versions
JP6754992B2 (ja
Inventor
徹 松延
Toru Matsunobu
徹 松延
敏康 杉尾
Toshiyasu Sugio
敏康 杉尾
哲史 吉川
Tetsushi Yoshikawa
哲史 吉川
達也 小山
Tatsuya Koyama
達也 小山
ラサン ポンサック
Lasang Pongsak
ラサン ポンサック
ジエン ガオ
Jian Gao
ジエン ガオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016086595A priority Critical patent/JP6754992B2/ja
Priority to CN201780023944.2A priority patent/CN109074624B/zh
Priority to ES17785812T priority patent/ES2908230T3/es
Priority to EP17785812.3A priority patent/EP3447730B9/en
Priority to PCT/JP2017/014330 priority patent/WO2017183470A1/ja
Publication of JP2017194935A publication Critical patent/JP2017194935A/ja
Priority to US16/163,010 priority patent/US10789765B2/en
Application granted granted Critical
Publication of JP6754992B2 publication Critical patent/JP6754992B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20088Trinocular vision calculations; trifocal tensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】被写体の動きに関わらず撮影した動画像から時系列の三次元モデルを適切に再構成することができる三次元再構成方法を提供する。
【解決手段】多視点画像から三次元モデルを再構成する三次元再構成方法であって、多視点画像から2枚のフレームを選択する選択ステップと、2枚のフレームそれぞれの画像情報を算出する画像情報算出ステップと、画像情報に応じて2枚のフレーム間の特徴点対応方法を切り替える切替ステップと、切替ステップで切り替えられた特徴点対応方法により対応する特徴点を算出する対応ステップを含む。
【選択図】図7

Description

本発明は、三次元再構成方法に関し、特に、複数の撮像装置により撮像された複数の動画像を用いて被写体の三次元モデルを再構成する三次元再構成方法に関する。
コンピュータビジョンの分野における三次元再構成技術は、複数の二次元画像間で対応付けを行い、カメラの位置、向き、および被写体の三次元位置を推定する。
例えば、特許文献1では、単眼カメラからの入力動画像の初期数フレームにおいて、特徴点を抽出し、フレームマッチング処理により特徴点位置の対応付けを行う。後続のフレームでは、拡張カルマンフィルタを用いた時系列特徴点追跡により特徴点位置情報を取得する。対応付けられた特徴点を用いてSfM(Structure from Motion)により三次元モデルを再構成している。
また、特許文献2では、ステレオカメラで同期撮影した2つの動画像から所定周期で取得したキーフレームで特徴点マッチングを行い、三次元モデルを再構成する。また、特徴点の時間方向の変化を用いて、キーフレームの間にあるフレームについても三次元モデルの再構成が可能となる。
さらに、特許文献3では、3台以上の複数カメラ間でキャリブレーションを行い、取得したカメラパラメータにより各カメラ座標系を任意視点の仮想カメラ座標系へ変換する。その仮想カメラ座標系において、座標変換後の画像間のブロックマッチングによる対応付けを行い、距離情報を推定する。推定した距離情報を基に仮想カメラ視点の画像を合成する。
特開2009−237845号公報 特開2012−160937号公報 特開2010−250452号公報
しかしながら、上記従来技術では、複数台の固定あるいは非固定あるいは両方のカメラを用いて、被写体の動きに関わらず撮影した動画像から時系列の三次元モデルを適切に再構成することが困難である。
すなわち、撮影環境において被写体が動いている場合、特許文献1のような単眼カメラからの時系列画像では、二次元画像間での対応付けが困難となる。また、特許文献3では、キャリブレーション時のみ同期撮影を行うため、特許文献1と同様に、動いている被写体を対象とした高精度の三次元位置推定は困難である。さらに、特許文献2では、2台のカメラ位置関係が固定であるステレオカメラを使用するため、カメラ位置に制約が生じる。
上記課題を解決するために、本発明の一態様に係る三次元再構成方法は、多視点画像から三次元モデルを再構成する三次元再構成方法であって、多視点画像から2枚のフレームを選択する選択ステップと、前記2枚のフレームそれぞれの画像情報を算出する画像情報算出ステップと、前記画像情報に応じて前記2枚のフレーム間の特徴点対応方法を切り替える切替ステップと、前記切替ステップで切り替えられた特徴点対応方法により対応する特徴点を算出する対応ステップを含む。
本開示における三次元再構成方法は、複数台の固定あるいは非固定あるいは両方のカメラを用いて、被写体の動きに関わらず撮影した動画像から時系列の三次元モデルを適切に再構成することができる。
図1は、本発明に係る三次元再構成システムの全体構成を示す図である。 図2は、同期撮影映像と非同期撮影映像の一例を示す図である。 図3は、本発明に係る三次元再構成装置の処理フローを示す図である。 図4は、本発明に係る三次元再構成部の入力となる多視点フレームセットの一例を示す図である。 図5は、実施の形態1における三次元再構成部の構成図である。 図6は、実施の形態1における3枚の多視点フレームを用いた三次元再構成の一例を示す図である。 図7は、実施の形態1における三次元再構成部の処理フローを示す図である。 図8は、実施の形態1における対応部315の構成の一例を示す図である。 図9は、実施の形態1における特徴点対応の処理フローを示す図である。
まず、本発明における三次元再構成を定義する。実空間上に存在する被写体を複数のカメラにより異なる視点で撮影した映像を多視点映像といい、この多視点の二次元画像を用いて被写体を三次元空間に再構成することを三次元再構成という。また、三次元空間に再構成された被写体を三次元モデルという。この時、各カメラのパラメータは、あらかじめ取得したものを使用してもよいし、三次元モデルの作成と同時に推定してもよい。本実施の形態では、カメラパラメータは、三次元モデルの作成と同時に推定することを前提とする。
なお、カメラパラメータは、カメラの焦点距離、レンズの歪み係数、画像中心などからなる内部パラメータ、あるいはカメラの三次元位置、向きを示す外部パラメータのうち少なくとも1つを含む。
なお、被写体の三次元モデルは、多視点の二次元画像に映る被写体上の複数の点それぞれの三次元位置である。三次元位置は、例えば、XYZ軸からなる三次元座標空間のX成分、Y成分、X成分からなる三値情報で表される。なお、三次元位置のみだけでなく、各点の色や各点およびその周辺の表面形状を表す情報を含んでもよい。
次に、本発明における同期撮影を定義する。カメラの撮影周期と露光時間の一例を図2に示す。図2は、横方向は時間を示し、矩形信号が立っている時間はカメラが露光していることを示す。カメラにより画像を取得する際、シャッタが開放されている時間を露光時間という。露光時間中、レンズを通して撮像素子にさらされたシーンが画像として得られる。図2(a)では、視点の異なる2台のカメラで撮影されたフレームでは、露光時間が重複している。これにより2台のカメラにより取得したフレームは、同一時刻のシーンを含んでいる同期フレームとなる。一方、図2(b)では、2台のカメラで露光時間の重複が無いため、2台のカメラにより取得したフレームに、同一時刻のシーンは含まれない非同期フレームとなる。図2(a)のように、同期フレームを複数のカメラで撮影することを同期撮影という。
次に、本実施の形態に係る三次元再構成システムの全体構成を説明する。図1は、本実施の形態に係る三次元再構成システムの構成を示す図である。
本実施の形態に係る三次元再構成システムは、被写体、カメラ、および多視点映像が入力され映像処理を行う三次元再構成装置200を備える。被写体は、たとえば、バスケットボールの試合シーンである。n台の複数カメラ100−1〜100−nは被写体をそれぞれ異なる視点で撮影し、撮影した多視点映像を三次元再構成装置200へ送信する。
なお、複数カメラ100−1〜100−nで撮影した多視点映像の三次元再構成処理装置200への送信は、インターネットなどの公衆通信網、あるいは専用通信網のいずれを介してもよい。あるいは、一度ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などの外部記憶装置にカメラから直接記憶して、必要な時に三次元再構成装置200へ直接入力してもよい。あるいは、クラウドサーバ等の外部記憶装置に一旦ネットワークを介して送信、記憶し、必要な時に三次元再構成装置200へ送信してもよい。
なお、多視点映像には、映像あるいはフレームのヘッダ情報として、撮影したカメラを特定するカメラIDなどのカメラ特定情報を付加してもよい。
なお、複数カメラを用いて、毎フレームで同じ時刻の被写体を撮影する同期撮影を行ってもよい。あるいは、複数カメラの内蔵時計のみ時刻を合わせ、同期撮影せずに、映像またはフレーム毎に撮影時刻情報を付加してもよし、撮影順序を示すインデックス番号を付加してもよい。
なお、多視点映像の映像セット、映像毎、あるいはフレーム毎に、同期撮影されたか、非同期撮影されたかを示す情報をヘッダ情報として付加してもよい。
三次元再構成装置200は、受信部210、記憶部220、取得部230、三次元再構成部240、送信部250を備える。
受信部210は、ネットワークを介して、あるいは外部記憶装置より直接、複数カメラで撮影した多視点映像を受信し、記憶部220に入力する。
記憶部220は、受信部210が受信した多視点映像を記憶する。
取得部230は、記憶部220より多視点映像を取得し、映像をフレームに分割し、複数フレームからなる多視点フレームセットを三次元再構成部240へ入力する。
なお、多視点フレームセットは、全ての映像から1フレームずつ選択した複数フレームにより構成されてもよいし、全ての映像から少なくとも1フレーム選択した複数フレームにより構成されてもよいし、多視点映像のうち2つ以上の映像を選択し、選択された各映像から1フレームずつ選択した複数フレームにより構成されてもよいし、多視点映像のうち2つ以上の映像を選択し、選択された各映像から少なくとも1フレーム選択した複数フレームにより構成されてもよい。
なお、多視点フレームセットの各フレームにカメラ特定情報が付加されていない場合は、ここで、各フレームのヘッダ情報に個別に付加してもよいし、多視点フレームセットのヘッダ情報に一括して付加してもよい。
なお、多視点フレームセットの各フレームに撮影時刻あるいは撮影順を示すインデックス番号が付加されていない場合は、ここで、各フレームのヘッダ情報に個別に付加してもよいし、フレームセットのヘッダ情報に一括して付加してもよい。
三次元再構成部240は、取得部230より入力された多視点フレームセットを用いて、多視点フレームセットに含まれるフレームを撮影したカメラのカメラパラメータを推定し、各フレームに映る被写体の三次元モデルを再構成する。
送信部250は、三次元再構成部240で算出されたカメラパラメータあるいは三次元モデルあるいは両方を三次元再構成装置200の外部にある記憶装置あるいは処理装置などへ送信する。
図3は、本実施の形態に係る三次元再構成システムの三次元再構成装置200の処理フローである。
まず、受信部210は、複数カメラで撮影した多視点映像を受信し、記憶部220に入力する(S2100)。
次に、記憶部220は、多視点映像を記憶する(S2200)。
次に、取得部230は、記憶部220より多視点映像を取得し、映像をフレームに分割し、複数フレームからなる多視点フレームセット作成し、三次元再構成部240へ入力する(S2300)。
なお、取得部230は、記憶部220ではなく、受信部210より受信した多視点映像を即座に取得してもよい。
次に、三次元再構成部240は、多視点フレームセットを用いて、各フレームを撮影したカメラのカメラパラメータを推定し、各フレームに映る被写体の三次元モデルを再構成する(S2400)。
S2300〜S2400は、取得部230が作成する多視点フレームセットが無くなる、あるいはユーザから停止命令が与えられるまで繰り返される。
次に、送信部250は、カメラパラメータ、被写体の三次元モデル、あるいはその両方を外部へ送信する(S2500)。
以下、実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示す。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
まず、本実施の形態において、三次元再構成部240の入力となる多視点フレームセットについて説明する。図4は、5台の多視点カメラから1フレームずつを選択し、フレームセットを構成する一例を示す図である。
ここでは、多視点カメラは同期撮影されていることを仮定しており、各フレームのヘッダ情報には、撮影されたカメラを特定するカメラIDがそれぞれ100−1〜100−5として付与されている。また、各カメラ内で撮影順序を示すフレーム番号001〜Nが付与されており、カメラ間で同じフレーム番号を持つフレームは同時刻の被写体が撮影されていることを示す。
取得部230は、フレームセット200−1〜200−nを三次元再構成部240へ順次入力し、三次元再構成部240は、繰り返し処理によりフレームセット200−1〜200−nを用いて、順次三次元再構成を行う。
フレームセット200−1は、カメラ100−1のフレーム番号001、カメラ100−2のフレーム番号001、カメラ100−3のフレーム番号001、カメラ100−4のフレーム番号001、カメラ100−5のフレーム番号001の5枚のフレームから構成される。多視点映像の最初のフレームの集合として三次元再構成部240の繰り返し処理1で使用することにより、撮影環境の初期状態の三次元再構成が可能である。フレームセット200−2は、フレームセット200−1に対し、カメラ100−1のフレームのみ次の時刻のフレーム番号002に更新される。これを繰り返し処理2で使用することにより、フレーム番号001を撮影した時刻とフレーム番号002を撮影した時刻が混在する三次元モデルが再構成される。以下、繰り返し処理3〜5も同様に1つのカメラのフレームを順次更新する。そして、フレームセット200−6でフレームセット200−1に対して全てのカメラでフレームが次の時刻に更新される。つまり、1時刻進んだ三次元モデルを再構成するためには、三次元再構成部240で5回の繰り返し処理を行う。このように、逐次的にフレームセット内のフレーム番号を更新することで、時刻が異なるが座標軸は一致した時系列の三次元モデルを再構成できる。
なお、取得部230は、同期撮影を前提とせず、取得した多視点映像を用いてフレームセットを作成することもできる。その場合、各フレームには撮影時刻が付与されており、その撮影時刻を基に取得部230は、同期フレームと非同期フレームを組み合わせたフレームセットを作成する。2台のカメラ間での撮影時刻を用いた同期フレームと非同期フレームの判定方法を説明する。
カメラ100−1から選択したフレームの撮影時刻をT、カメラ100−2から選択したフレームの撮影時刻をTとし、カメラ100−1の露光時間をTE1、カメラ100−2の露光時間をTE2とする。ここで、撮影時刻T、Tは、図2の例で露光が開始された時刻、つまり矩形信号の立ち上がりの時刻を指しているとする。するとカメラ100−1の露光終了時刻は、T+TE1である。この時、(式1)または(式2)が成立していれば、2台のカメラは、同じ時刻の被写体を撮影していることになり、2枚のフレームは同期フレームと言える。
Figure 2017194935
Figure 2017194935
図5は、本発明の三次元再構成部240の構造を示すブロック図である。
三次元再構成部240は、図1の三次元再構成装置200の取得部230から入力された多視点フレームセットを用いて、カメラパラメータの推定し、三次元モデルを再構成する。図5に示すように、三次元再構成部240は、検出部310、抽出部311、制御部312、切替器313、対応部314、対応部315、選択部316、推定部317、復元部318、最適化部319を備える。
検出部310は、入力された多視点フレームセットの各フレームにおいて、特徴点を検出する。特徴点は、フレームに含まれる物体の輪郭、物体又は空間の角、フレーム平面において物体同士の交差点のような、点、エッジ、又は一定領域とその周囲との輝度又は色合いの差が大きい点、辺、又は一定領域のことを示す。
抽出部311は、検出部310で検出された特徴点の特徴ベクトルを抽出する。特徴ベクトルは、特徴点を含む特定領域に含まれる画素の輝度や色の勾配方向の分布をベクトルで表現したものである。なお、特徴点及び特徴ベクトルは、他の画像情報であって、例えばテクスチャ情報や周波数変換後の情報を用いて検出されるものでも構わない。
制御部312は、多視点フレームセットから2枚のフレームをフレームペアとして選択する。さらに、2枚のフレームそれぞれの画像情報をもちいて、2フレーム間で画像情報が一致するか判定し、一致する場合は切替器313を対応部314へ、一致しない場合は切替器313を対応部315へ切替え、フレームペア、特徴点、および特徴ベクトルを対応部314あるいは対応部315へ入力する。
ここで、画像情報とは、多視点フレームセット、あるいはフレーム毎のヘッダ情報に付加されたフレームの撮影時刻あるいはフレーム番号でもよいし、時間方向の変化量でもよい。時間方向の変化量は、フレームを分割した複数の微小領域の時間方向の変化量の平均値でもよいし、中央値でもよい。以下では、画像情報をフレームの撮影時刻として説明する。
対応部314は、2枚のフレームのフレーム間の全領域において、特徴ベクトルを用いて対応する特徴点を対応点として算出する。
対応部315は、2枚のフレームのそれぞれを1つ以上の特徴量を持つ画像領域に分割し、フレーム間で特徴量が似ている画像領域に存在する特徴点のみについて、特徴ベクトルを用いて対応する特徴点を対応点として算出する。
なお、対応点の算出は、例えば、フレームペアの一方のフレームの1つの特徴点ともう一方のフレームの全ての特徴点について特徴ベクトルの差分値を算出する。特徴ベクトルの差分値が最も小さい特徴点対を対応点の候補として選択し、さらに特徴ベクトルが任意のしきい値より小さい場合に対応点として決定する。特徴ベクトルの差分値は2つのベクトルの二乗誤差や絶対誤差を算出することにより取得する。
なお、画像領域の分割方法は、例えば、フレームを微小領域に分割し、微小領域毎に特徴量を算出し、特徴量が一致または類似する微小領域を統合する。微小領域は互いに重複してもよいし、隣接してもよいし、隙間が空いていてもよい。
選択部316は、未再構成のフレームの中から三次元再構成の対象となるフレームあるいはフレームペアを選択する。
推定部317は、選択部316により選択されたフレームペアあるいはフレームと再構成済みの三次元モデルの対応点を用いて、対象フレームを撮影したカメラのカメラパラメータを推定する。
復元部318は、推定部317で推定されたカメラパラメータを用いて、推定済みカメラで撮影された各フレームの特徴点を三次元座標上に逆投影することにより、被写体の三次元モデルを再構成する。
対応点を用いたカメラパラメータの推定方法および三次元モデルの再構成方法の一例として、エピポーラ幾何を拘束条件等して、世界座標系におけるカメラの座標および姿勢を算出し、さらに、カメラにより撮影した画像上の点の世界座標系における三次元位置を算出する。図6は、3枚の多視点フレームを用いて、カメラの内部パラメータを既知として、カメラの外部パラメータの推定し、被写体の三次元モデルを再構成する例を示した図である。
各カメラのカメラパラメータを取得するには、Oを原点とする世界座標系におけるカメラの回転行列R、R、Rおよび並進ベクトルT、T、Tを算出する必要がある。まず、画像1と画像2を撮影したカメラの回転行列および並進ベクトルを算出する方法を述べる。画像1上の点m=(u,v,1)と画像2上の点m=(u,v,1)が対応している時、両者には(式3)を満たすエピポーラ方程式が成り立つ。
Figure 2017194935
ここで、FをFundamental matrix(F行列)と呼ぶ。各カメラの内部パラメータKを用いて、(式4)の変換式よりそれぞれの点を各カメラ座標系の点
Figure 2017194935
および
Figure 2017194935
として取得でき、エピポーラ方程式を(式5)のように書き換えられる。
Figure 2017194935
Figure 2017194935
ここで、EをEssential matrix(E行列)と呼ぶ。複数の対応点を用いてE行列の各要素を算出できる。また、画像間の点mおよびmのような対応点を複数用いてF行列の各要素を算出した後、(式6)の変換式よりE行列を取得してもよい。
Figure 2017194935
このE行列を分解することにより、世界座標系において画像1から画像2へ回転行列および並進ベクトルを取得できる。世界座標系におけるカメラ1の位置および世界座標系の各軸に対するカメラ1の傾きが既知の場合は、前記相対関係を用いて、世界座標系におけるカメラ1およびカメラ2の位置および姿勢を取得できる。世界座標系におけるカメラ1の位置および姿勢は、映像以外のカメラセンサ情報により算出してもよし、あらかじめ計測しておいてもよい。なお、カメラ1のカメラ座標系を世界座標系として、他のカメラの位置および姿勢を算出してもよい。
また、ここで使用した対応点は、画像1と画像2の回転行列および並進ベクトルを用いて形成される三角形により世界座標系上の三次元点Mを取得できる。
また、前記の幾何学的関係を3視点に拡張する。画像1と画像2に対し画像3を追加する例として具体的には、画像2と画像3、および画像1と画像3についてもそれぞれE行列を算出し、各カメラ間の相対的な回転行列および並進ベクトルを取得し、統合することにより、画像3のカメラの世界座標系における回転行列および並進ベクトルを算出できる。また、画像3と画像1、画像2のそれぞれで対応点から画像3の回転行列および並進ベクトルを算出してもよい。詳細には、画像1と画像3、および画像2と画像3で対応点を求める。ここで、画像1上のm、および画像2上のmに対応する画像3上のmが得られたとすると、この対応点の三次元座標Mは取得できているため、画像3上の点と三次元空間内の座標の対応を取得できる。この時、(式7)が成り立つ。
Figure 2017194935
ここで、PをPerspective matrix(P行列)とよぶ。P行列、E行列、内部行列は(式8)の関係が成り立つため、画像3のE行列を取得でき、これにより回転行列および並進ベクトルが求められる。
Figure 2017194935
なお、内部パラメータが未知の場合でも、F行列、あるいはP行列を算出した後、内部行列は上三角行列、E行列は正定値対称行列であるという制約の下にF行列、P行列を分割し、それぞれを求めることが可能である。
最適化部319は、カメラパラメータおよび被写体の三次元モデルを補正する。
推定部317で推定されたカメラパラメータや復元部318で再構成された被写体の三次元モデルは、特徴点の検出精度、あるいは対応点の算出精度により誤差を含む。最適化部319の最適化処理の一例として、再構成された被写体の三次元モデルの三次元点を各カメラのフレームに再投影し、元の2次元点位置との差分絶対値和あるいは差分二乗和を最小化するように、カメラパラメータおよび被写体の三次元点を微調整する。
図7は、三次元再構成部300の処理フローを示す図である。
まず、検出部310は、フレームセットに含まれる全てのフレームについて、特徴点を検出する(S3100)。
次に、抽出部311は、検出部310が検出した全ての特徴点について、その特徴点および周辺画素を用いて特徴ベクトルを算出する(S3110)。
次に、制御部312は、フレームセットから2枚のフレームをフレームペアとして選択し、フレームセットあるいは各フレームのヘッダ情報に付加された撮影時刻情報あるいはフレーム番号情報を用いて、2枚のフレームの撮影時刻が一致するかを判定し、一致する場合は切替器313を対応部314へ、一致しない場合は切替器を対応部315へ切り替え、順次、フレームペア、特徴点、および特徴ベクトルを対応部314あるいは対応部315へ入力する(S3120)。
なお、撮影時刻は完全に一致しなくてもよく、2枚のフレームの撮影時刻の時刻差が、任意の閾値より小さければ、一致すると判定してもよい。
S3120でYesの場合、対応部314は、抽出部311が抽出した特徴ベクトルを用いて、フレームペアのフレーム間の特徴点を対応付け、対応点を算出する(S3130)。
S3120でNoの場合、対応部315は、フレームペアのそれぞれを特徴量を持つ1つ以上の画像領域に分割し、フレーム間で特徴量が似ている画像領域に存在する特徴点のみ、抽出部311が抽出した特徴ベクトルを用いて、フレームペアのフレーム間の特徴点を対応付け、対応点を算出する(S3140)。
なお、S3120〜S3140は、フレームセット内の全てあるいは一部のフレームペアについて繰り返し行う。
次に、選択部316は、対応部314あるいは対応部315が算出した対応点および最適化部319が算出した三次元点を用いて、未再構成のフレームの中から三次元再構成の対象となるカメラあるいはカメラペアを選択する(S3150)。
次に、推定部317は、選択部316が選択したカメラあるいはカメラペアについて、対応部314あるいは対応部315が算出した対応点および最適化部319が算出した三次元点を用いて対象カメラのカメラパラメータを推定する(S3160)。
次に、復元部318は、推定部317が推定したカメラパラメータを用いて、対象カメラが撮像したフレーム内の特徴点を三次元点として再構成し、特徴点の三次元座標を算出する(S3170)。
次に、最適化部319は、再構成された三次元モデル全体が最適となるように、推定部317が推定したカメラパラメータおよび復元部318が算出した三次元点を補正する(S3180)。
なお、三次元モデルの最適化の一例は、カメラパラメータを用いて再構成した三次元点を各フレームに再投影して取得した二次元点位置と元の特徴点の二次元点位置の誤差を最小化する。
なお、S3150〜3180は、フレームセット内の全てあるいは一部のフレームが再構成されるまで繰り返し行う。
これにより、カメラあるいは被写体の動きに関わらず、各時刻において座標軸が合っている時系列の三次元モデルを再構成できる。
なお、S3120〜S3140を、S3150の直後に行っても構わない。このとき、選択部316で選択されたカメラペア、あるいはカメラについてフレームペアの対応点を決定する。選択部316でカメラペアが選択された場合、そのカメラペアの各カメラで撮影されたフレーム間でのみ対応点を決定する処理を実施する。つまり、図7におけるS3120〜S3140の処理は1回のみとなる。また、選択具316でカメラが選択された場合、そのカメラで撮影された対象フレームとその対象フレーム以外の全てのフレームとの間で対応点を結成する処理を実施する。つまり、入力されたフレーム数がN枚の場合、図7におけるS3120〜S3140の処理はN−1回となる。なお、この処理回数はN−1回に限らず、S3150を実施した時点で推定済みのカメラのフレームに対してのみ行ってもよいし、対象フレーム以外のフレームの中から少なくとも1枚を任意に選択しても構わない。
ここで、対応部315の内部構成の一例を詳細に説明する。
図8は、本実施の形態の対応部315の内部構成の一例を示した図である。
対応部315は、動き推定部410、分割部411、対応部412、記憶部413を備える。
動き推定部410は、フレームペアの各フレームを対象フレームとして、記憶部413に格納されている、対象フレームを撮影したカメラの前時刻あるいは後時刻あるいは両方のフレームを記憶部323より取得し、対象フレーム内の複数の微小領域に分割し、微小領域の特徴量として動きベクトルを推定する。
分割部411は、動き推定部410が推定した複数の微小領域の動きベクトルを用いて、動きベクトルが一致あるいは類似する微小領域を統合する。これにより、フレームが動領域と静止領域に分割される。
対応部412は、分割部411により分割された画像領域のうち静止領域内に存在する特徴点のみについて、抽出部311が抽出した特徴ベクトルを用いて、フレームペアのフレーム間の特徴点を対応付け、対応点を算出する。また、対象フレームを記憶部413に格納する。
図9は、本実施の形態の対応部315の処理フローを示す図である。
まず、制御部312は、フレームペアの撮影時刻が一致しているか確認する(S3200)。
次に、S3200で撮影時刻が一致する場合、切替器313を対応部314側へ切り替え、一致していない場合、切替器313を対応部315側へ切り替える(S3210)。
(S3210で撮影時刻が一致する場合)
次に、場合対応部314は、検出部310で検出した全ての特徴点について、抽出部311で抽出した特徴ベクトルを用いて、フレーム間の対応点を決定する(S3220)。
(S3210で撮影時刻が一致しない場合)
次に、動き推定部410は、フレームペアの各フレームについて、記憶部413に格納されている、同一カメラで撮影された前あるいは後あるいは両方の時刻のフレーム、および対象フレームを用いて、微小領域の動きベクトルを推定する(S3230)。
例えば、対象フレームを15×15画素の微小領域に分割し、その中心画素の時間方向の動きベクトルを算出してもよい。
なお、記憶部413から取り出したフレームを以降の処理で使用しない場合は、ここで削除してもよい。
次に、分割部411は、動き推定部410が推定した微小領域の特徴量である動きベクトルを用いて、動きベクトルが一致あるいは類似する微小領域を統合することにより、対象フレームを動領域と静止領域に分割する(S3240)。
具体的には、S3230で算出した動きベクトルの大きさとしきい値を比較し、しきい値以上の場合は動きベクトルを算出した微小領域を動領域とし、しきい値より小さい場合は静止領域とする。
ここで算出する動きベクトル
Figure 2017194935
は、例えばX成分とY成分からなる2次元のベクトル(X,Y)であり、(式9)により動きベクトルの大きさ
Figure 2017194935
を計算できる。
Figure 2017194935
なお、カメラが動くことを考慮して、カメラの動きによるフレーム全体の動きを表すグローバルベクトル
Figure 2017194935
を算出し、(式10)および(式11)のようにグローバルベクトルを用いて補正された動きベクトル
Figure 2017194935
により微小領域の動きを推定してもよい。
Figure 2017194935
Figure 2017194935
次に、対応部412は、分割部411の静止領域に存在する特徴点について、抽出部311で抽出した特徴ベクトルを用いて、フレーム間の対応点を決定する。また、対象フレームを記憶部413に格納する(S3250)。
なお、動き推定を行う複数の微小領域は、互いに領域が重複するように設定してもよいし、隣接するように設定してもよいし、隙間があるように離れて設定してもよい。
なお、動き推定を行う微小領域の中心を特徴点と一致させてもよい。この時、微小領域と特徴点は同数となる。また、この時フレーム内の領域を分割する必要はなく、特徴点の動きベクトルを用いて特徴点を動く点と静止点に分類してもよい。
なお、分割部411の分割結果を制御部312における切替部313の切替えに使用してもよい。具体的には、推定部410で推定した微小領域の動きベクトルを用いて、フレームを1つ以上の領域に分割する。フレームペアの両方で領域が1つであり、領域が持つ特徴量が一致あるいは類似する場合は、切替部313を対応部314に切り替え、それ以外の場合は、切替部313を対応部315に切り替える。この時、対応部315では、特徴量が一致あるいは類似する領域に存在する特徴点のみを用いて対応する特徴点を算出する。
このように撮影時刻が同じフレーム間では全ての画像領域の特徴点を使用し、撮影時刻の異なるフレーム間では静止領域の特徴点のみを使用することで、撮影時刻の異なるフレーム間で動領域の対応点を使用して三次元再構成を行う場合、対応する2点の三次元位置が異なるため、精度の良いカメラパラメータ推定や三次元点の再構成が困難になるのを防ぐことができ、カメラあるいは被写体の動きに関わらず、座標軸が一致した時系列の三次元モデルを再構成できる。
なお、本発明の1つまたは複数の態様に係る撮影方法などについて、上記各実施の形態および変形例に基づいて説明してきたが、本発明は、上記各実施の形態および変形例に限定されないのはもちろんである。また以下のような場合も本発明の1つまたは複数の態様に含まれる。
(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明は、三次元再構成装置、または、三次元再構成方法に有利に利用される。
100−1〜100−n カメラ
200 三次元再構成装置
210 受信部
220 記憶部
230 取得部
240 三次元再構成部
250 送信部
200−1〜200−n フレームセット
310 検出部
311 抽出部
312 制御部
313 切替器
314 対応部
315 対応部
316 選択部
317 推定部
318 復元部
319 最適化部
410 動き推定部
411 分割部
412 対応部
413 記憶部

Claims (7)

  1. 多視点画像から三次元モデルを再構成する三次元再構成方法であって、
    多視点画像から2枚のフレームを選択する選択ステップと、
    前記2枚のフレームそれぞれの画像情報を算出する画像情報算出ステップと、
    前記画像情報に応じて前記2枚のフレーム間の特徴点対応方法を切り替える切替ステップと、
    前記切替ステップで切り替えられた特徴点対応方法により対応する特徴点を算出する対応ステップを含む
    三次元再構成方法。
  2. 前記画像情報とは、フレームが撮影された時刻、あるいは同一カメラにおけるフレームの撮影順序である、
    請求項1記載の三次元再構成方法。
  3. 多視点画像から三次元モデルを再構成する三次元再構成方法であって、
    前記画像情報が一致する場合は、2枚のフレーム間の全領域において対応する特徴点を算出し、前記画像情報が一致しない場合は、2枚のフレームをそれぞれ特徴量を持つ1つ以上の領域に分割し、特徴量が似ている領域においてのみ対応する特徴点を算出する
    請求項1記載の三次元再構成方法。
  4. 前記画像情報の一致とは、フレームが撮影された時刻差が任意の閾値より小さい、
    請求項3記載の三次元再構成方法。
  5. 前記領域が持つ特徴量とは、領域内に少なくとも1つ存在する微小領域の時間方向の動きベクトルである、
    請求項3記載の三次元再構成方法。
  6. 前記画像情報が一致しない場合の対応する特徴点の算出は、
    前記2枚のフレームをそれぞれ微小領域に分割し、同一カメラで前時刻あるいは後時刻あるいは両方に撮影されたフレームを用いて微小領域の動きベクトルを推定する推定ステップと、
    前記動きベクトルを用いて前記2枚のフレームをそれぞれ動領域と静止領域に分割する分割ステップと、
    前記2枚のフレーム間で静止領域に存在する特徴点についてのみ対応する特徴点を算出する対応ステップを含む、
    請求項3記載の三次元再構成方法。
  7. 前記画像情報が一致しない場合の対応する特徴点の算出は、
    前記2枚のフレームの特徴点の動きベクトルを推定する推定ステップと、
    前記動きベクトルを用いて前記特徴点を動く点と静止点に分類する分類ステップと、
    前記2枚のフレーム間で静止点についてのみ対応する特徴点を算出する対応ステップを含む、
    請求項3記載の三次元再構成方法。
JP2016086595A 2016-04-22 2016-04-22 三次元再構成方法 Active JP6754992B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016086595A JP6754992B2 (ja) 2016-04-22 2016-04-22 三次元再構成方法
CN201780023944.2A CN109074624B (zh) 2016-04-22 2017-04-06 三维重建方法
ES17785812T ES2908230T3 (es) 2016-04-22 2017-04-06 Procedimiento de reconstrucción tridimensional
EP17785812.3A EP3447730B9 (en) 2016-04-22 2017-04-06 Three-dimensional reconstruction method
PCT/JP2017/014330 WO2017183470A1 (ja) 2016-04-22 2017-04-06 三次元再構成方法
US16/163,010 US10789765B2 (en) 2016-04-22 2018-10-17 Three-dimensional reconstruction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016086595A JP6754992B2 (ja) 2016-04-22 2016-04-22 三次元再構成方法

Publications (2)

Publication Number Publication Date
JP2017194935A true JP2017194935A (ja) 2017-10-26
JP6754992B2 JP6754992B2 (ja) 2020-09-16

Family

ID=60116804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016086595A Active JP6754992B2 (ja) 2016-04-22 2016-04-22 三次元再構成方法

Country Status (6)

Country Link
US (1) US10789765B2 (ja)
EP (1) EP3447730B9 (ja)
JP (1) JP6754992B2 (ja)
CN (1) CN109074624B (ja)
ES (1) ES2908230T3 (ja)
WO (1) WO2017183470A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019093457A1 (ja) * 2017-11-13 2019-05-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN110458952A (zh) * 2019-08-19 2019-11-15 江苏濠汉信息技术有限公司 一种基于三目视觉的三维重建方法和装置
CN111709320A (zh) * 2020-05-28 2020-09-25 杭州电子科技大学 一种基于密度峰值聚类特征选择的三维手写字符识别方法
JP2021192226A (ja) * 2020-06-30 2021-12-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像を処理するための方法と装置、電子機器、コンピュータ可読記憶媒体及びコンピュータープログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7054677B2 (ja) * 2016-08-10 2022-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ カメラワーク生成方法及び映像処理装置
US10771697B2 (en) * 2016-09-06 2020-09-08 Apple Inc. Still image stabilization/optical image stabilization synchronization in multi-camera image capture
EP3565259A1 (en) * 2016-12-28 2019-11-06 Panasonic Intellectual Property Corporation of America Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device
US11475603B2 (en) * 2018-01-26 2022-10-18 Sony Corporation Multiple mesh encoding using motion tracking data of objects
JP7045218B2 (ja) * 2018-02-28 2022-03-31 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
JP7223978B2 (ja) * 2018-05-23 2023-02-17 パナソニックIpマネジメント株式会社 校正装置および校正方法
US11470343B2 (en) * 2018-08-29 2022-10-11 Intel Corporation Apparatus and method for feature point tracking using inter-frame prediction
WO2020118565A1 (en) * 2018-12-12 2020-06-18 Huawei Technologies Co., Ltd. Keyframe selection for texture mapping wien generating 3d model
CN112767300B (zh) * 2019-10-18 2024-07-09 宏达国际电子股份有限公司 自动生成手部的标注数据的方法和计算骨骼长度的方法
CN113532315A (zh) * 2021-06-30 2021-10-22 同济大学 基于多目视觉的三维建模设备及其控制方法
US20250061660A1 (en) * 2023-08-18 2025-02-20 Adobe Inc. Extracting 3d shapes from large-scale unannotated image datasets

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060125920A1 (en) * 2004-12-10 2006-06-15 Microsoft Corporation Matching un-synchronized image portions
CN1963390A (zh) * 2005-11-08 2007-05-16 李啸炜 一种便捷高效的三维测量方法
CN101247482B (zh) * 2007-05-16 2010-06-02 北京思比科微电子技术有限公司 一种实现动态图像处理的方法和装置
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010250452A (ja) 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置
CN101877143B (zh) * 2009-12-09 2012-07-04 中国科学院自动化研究所 一种二维图像组的三维场景重建方法
JP5045827B2 (ja) 2011-02-01 2012-10-10 カシオ計算機株式会社 画像処理装置、画像処理方法、及び、プログラム
CN103460248B (zh) * 2011-04-07 2015-04-22 富士胶片株式会社 图像处理方法和装置
WO2013089769A1 (en) * 2011-12-16 2013-06-20 Intel Corporation Collaborative cross-platform video capture
JP2014038229A (ja) * 2012-08-17 2014-02-27 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US9564175B2 (en) * 2013-04-02 2017-02-07 International Business Machines Corporation Clustering crowdsourced videos by line-of-sight
US10096114B1 (en) * 2013-11-27 2018-10-09 Google Llc Determining multiple camera positions from multiple videos
CN104933755B (zh) * 2014-03-18 2017-11-28 华为技术有限公司 一种静态物体重建方法和系统
US9846963B2 (en) * 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
US9965861B2 (en) * 2014-12-29 2018-05-08 Intel Corporation Method and system of feature matching for multiple images
CN105279789B (zh) * 2015-11-18 2016-11-30 中国兵器工业计算机应用技术研究所 一种基于图像序列的三维重建方法
US9648303B1 (en) * 2015-12-15 2017-05-09 Disney Enterprises, Inc. Systems and methods for facilitating three-dimensional reconstruction of scenes from videos
US10074214B2 (en) * 2015-12-31 2018-09-11 Autodesk, Inc. Systems and methods for generating 3D scenes with time element for display
TWI599989B (zh) * 2016-11-29 2017-09-21 財團法人工業技術研究院 用於交通工具之影像處理方法及影像系統
KR102647351B1 (ko) * 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019093457A1 (ja) * 2017-11-13 2019-05-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019092007A (ja) * 2017-11-13 2019-06-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7046567B2 (ja) 2017-11-13 2022-04-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11328473B2 (en) 2017-11-13 2022-05-10 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN110458952A (zh) * 2019-08-19 2019-11-15 江苏濠汉信息技术有限公司 一种基于三目视觉的三维重建方法和装置
CN110458952B (zh) * 2019-08-19 2022-07-15 江苏濠汉信息技术有限公司 一种基于三目视觉的三维重建方法和装置
CN111709320A (zh) * 2020-05-28 2020-09-25 杭州电子科技大学 一种基于密度峰值聚类特征选择的三维手写字符识别方法
CN111709320B (zh) * 2020-05-28 2023-04-18 杭州电子科技大学 一种基于密度峰值聚类特征选择的三维手写字符识别方法
JP2021192226A (ja) * 2020-06-30 2021-12-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像を処理するための方法と装置、電子機器、コンピュータ可読記憶媒体及びコンピュータープログラム
JP7246427B2 (ja) 2020-06-30 2023-03-27 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像を処理するための方法と装置、電子機器、コンピュータ可読記憶媒体及びコンピュータープログラム
US11704896B2 (en) 2020-06-30 2023-07-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and storage medium for image processing

Also Published As

Publication number Publication date
US10789765B2 (en) 2020-09-29
CN109074624B (zh) 2023-08-15
EP3447730B9 (en) 2022-04-13
CN109074624A (zh) 2018-12-21
ES2908230T3 (es) 2022-04-28
WO2017183470A1 (ja) 2017-10-26
EP3447730A4 (en) 2019-02-27
ES2908230T9 (es) 2022-05-09
US20190051036A1 (en) 2019-02-14
JP6754992B2 (ja) 2020-09-16
EP3447730B1 (en) 2021-12-22
EP3447730A1 (en) 2019-02-27

Similar Documents

Publication Publication Date Title
JP6754992B2 (ja) 三次元再構成方法
JP7143225B2 (ja) 三次元再構成方法及び三次元再構成装置
KR102013978B1 (ko) 이미지들의 융합을 위한 방법 및 장치
KR102135770B1 (ko) 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
JP5110138B2 (ja) Ar処理装置、ar処理方法及びプログラム
WO2018047687A1 (ja) 三次元モデル生成装置及び三次元モデル生成方法
JP7227969B2 (ja) 三次元再構成方法および三次元再構成装置
KR101804205B1 (ko) 영상 처리 장치 및 방법
JP7285834B2 (ja) 三次元再構成方法および三次元再構成装置
CN107809610B (zh) 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质
JP7170230B2 (ja) 三次元再構成方法及び三次元再構成装置
JP2008217243A (ja) 画像生成装置
JP2015073185A (ja) 画像処理装置、画像処理方法およびプログラム
JP7407428B2 (ja) 三次元モデル生成方法及び三次元モデル生成装置
JP2010152535A (ja) 3次元形状復元装置及びそのプログラム
JP7170224B2 (ja) 三次元生成方法および三次元生成装置
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
JP7607229B2 (ja) 三次元変位計測方法及び三次元変位計測装置
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
KR20190055632A (ko) 모션 정보를 이용한 객체 복원 장치 및 이를 이용한 객체 복원 방법
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
CN113763545A (zh) 图像确定方法、装置、电子设备和计算机可读存储介质
JP2012248206A (ja) Ar処理装置、ar処理方法及びプログラム
JP2012107971A (ja) 画像処理装置および距離計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200807

R151 Written notification of patent or utility model registration

Ref document number: 6754992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151