JP6656382B2 - マルチメディア情報を処理する方法及び装置 - Google Patents
マルチメディア情報を処理する方法及び装置 Download PDFInfo
- Publication number
- JP6656382B2 JP6656382B2 JP2018534830A JP2018534830A JP6656382B2 JP 6656382 B2 JP6656382 B2 JP 6656382B2 JP 2018534830 A JP2018534830 A JP 2018534830A JP 2018534830 A JP2018534830 A JP 2018534830A JP 6656382 B2 JP6656382 B2 JP 6656382B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- point cloud
- representation
- mark
- dimensional space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 113
- 238000012545 processing Methods 0.000 title claims description 95
- 230000000007 visual effect Effects 0.000 claims description 80
- 230000008569 process Effects 0.000 claims description 41
- 230000005672 electromagnetic field Effects 0.000 claims description 18
- 238000001228 spectrum Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000003595 spectral effect Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 229960001716 benzalkonium Drugs 0.000 claims 5
- CYDRXTMLKJDRQH-UHFFFAOYSA-N benzododecinium Chemical compound CCCCCCCCCCCC[N+](C)(C)CC1=CC=CC=C1 CYDRXTMLKJDRQH-UHFFFAOYSA-N 0.000 claims 5
- 238000007689 inspection Methods 0.000 description 14
- 238000007906 compression Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 210000001508 eye Anatomy 0.000 description 10
- 238000003860 storage Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000005251 gamma ray Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000000429 assembly Methods 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000009192 sprinting Effects 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
Description
肉眼で観察できる及び/又は機器で採集できる、物体を表徴するための電磁界スペクトル情報を含む表象情報を取得するステップと、
取得した表象情報に基づいて、デジタル形式で時間とともに変化する前記表象情報を表徴できる属性を有し、前記表象情報を表徴するための4次元時空モデルを確立するステップと、
確立された4次元時空モデルに対して符号化処理を行うと共に、符号化処理を行った後の4次元時空モデルに対して送信を行うステップと、を含む。
耳で聞くことができる及び/又は機器で採集できる音場情報を更に含む前記表象情報に基づいて、前記表象情報に対応する物体の音場情報を計算するステップをさらに含み、
前記表象情報基づいて前記表象情報を表徴するための4次元時空モデルを確立するステップは、具体的に、前記表象情報と前記音場情報に基づいて、前記表象情報と前記音場情報を表徴するための4次元時空モデルを確立するステップを含む。
前記表象情報に対して処理を行って、第1のマーク情報を得るステップと、
前記第1のマーク情報と前記表象情報に基づいて、幾何情報を含む第1点クラウド情報及びテクスチャ情報を含む第2点クラウド情報を得るステップと、
前記第1点クラウド情報と前記第2点クラウド情報を融合して、目標点クラウド情報を得るステップと、
前記目標点クラウド情報に基づいて、視覚情報を得るステップと、
前記視覚情報に基づいて空間モデルを取得し、異なる時点の空間モデルに対して融合を行うステップと、
融合した空間モジュール、前記第1のマーク情報及び前記第2のマーク情報に基づいて、前記4次元時空モデルを得るステップと、を含む。
耳で聞くことができる及び/又は機器で採集できる音場情報を更に含む前記表象情報に基づいて、前記表象情報に対応する物体の音場情報を計算するステップをさらに含み、
前記視覚情報に基づいて空間モデルを取得するステップは、具体的に、前記視覚情報と前記音場情報を融合して、前記空間モデルを得るステップを含む。
前記目標点クラウド情報に対して処理を行って、第2のマーク情報を得るステップを更に含み、
前記目標点クラウド情報に基づいて、視覚情報を得るステップは、具体的に、前記第2のマーク情報と前記目標点クラウド情報に基づいて、前記視覚情報を得るステップを含む。
前記目標点クラウド情報に対して幾何頂点位置の最適化及び法線方向の計算を行って第1結果を得るステップと、
前記第1結果に対して表面整合及び三角グリッド化処理を行って第2結果を得るステップと、
前記第2結果と前記第2のマーク情報に基づいて、前記視覚情報を得るステップと、を含む。
前記座標情報に基づいて、前記幾何情報を含む第1点クラウド情報を生成するステップと、を含む。
点順次合成及び/又は画像合成の方式を採用し、前記第1のマーク情報に基づいて、前記表象情報に対して情報取出処理を行って、テクスチャ情報を含む第2点クラウド情報を得るステップを含む。
前記第2のマーク情報と前記目標点クラウド情報に基づいて、物体の表面法線方向情報を計算するステップと、
前記表面法線方向情報に基づいて視覚情報を得るステップと、を含む。
肉眼で観察できる及び/又は機器で採集できる、物体を表徴するための電磁界スペクトル情報を含む表象情報を取得するための取得ユニットと、
取得した表象情報に基づいて、デジタル形式で時間とともに変化する前記表象情報を表徴できる属性を有し、前記表象情報を表徴するための4次元時空モデルを確立するためのモデル確立ユニットと、
確立された4次元時空モデルに対して符号化処理を行うための処理ユニットと、
符号化処理を行った後の4次元時空モデルに対して送信を行うための送信ユニットと、を含む。
前記モデル確立ユニットは、前記表象情報基づいて前記表象情報を表徴するための4次元時空モデルを確立する場合、具体的に、前記表象情報と前記音場情報に基づいて、前記表象情報と前記音場情報を表徴するための4次元時空モデルを確立する。
前記4次元時空モデル生成ユニットは、前記視覚情報に基づいて空間モデルを取得する場合、具体的に、前記視覚情報と前記音場情報を融合して、前記空間モデルを得る。
選択的には、本発明の上記のいずれかの実施例に係るマルチメディア情報を処理する装置において、前記点クラウド情報生成ユニットは、さらに、前記目標点クラウド情報に対して処理を行って、第2のマーク情報を得ることに応用され、
前記視覚情報生成ユニットは、前記目標点クラウド情報に基づいて、視覚情報を得る場合、具体的に、前記第2のマーク情報と前記目標点クラウド情報に基づいて、前記視覚情報を得る。
前記目標点クラウド情報に対して幾何頂点位置の最適化及び法線方向の計算を行って第1結果を得、
前記第1結果に対して表面整合及び三角グリッド化処理を行って第2結果を得、
前記第2結果と前記第2のマーク情報に基づいて、前記視覚情報を得ることに応用される。
前記表象情報に対してデジタル画像処理分析を行って前記第1のマーク情報を得る。
前記第1のマーク情報に基づいて、前記表象情報に対して処理を行って前記表象情報に対応する物体の座標情報を得、
前記座標情報に基づいて、前記幾何情報を含む第1点クラウド情報を生成する。
点順次合成及び/又は画像合成の方式を採用し、前記第1のマーク情報に基づいて、前記表象情報に対して情報取出処理を行って、テクスチャ情報を含む第2点クラウド情報を得る。
前記第2のマーク情報と前記目標点クラウド情報に基づいて、物体の表面法線方向情報を計算し、
前記表面法線方向情報に基づいて視覚情報を得る。
例えば、甲さんが自身及び周囲環境を採集して乙さんにリアルタイムに転送し、乙さんがその環境に没入し及び甲さんとインタラクションを行う、又は、例えば、甲さんと乙さんが、いずれも自身及び周囲環境を採集して相手にリアルタイムに転送し、その二人がいる物理的な環境にまたは任意の第三者の環境に選択的に没入し及びインタラクションを行うリアルタイム通信シーンと、
遠隔観測及び監視シーンと、
例えば、個人または複数人が遠隔勤務を行い、遠隔の会議を臨場的に行い、遠隔の協力を臨場的に行い、顧客が問題を解決するように支援し、または、養成を臨場的に行う工作シーンと、
例えば、仮想教室に臨場的に位置し、及び仮想環境に教師とインタラクションを行うことができる教育シーンと、
例えば、遠隔医療を行い、及び仮想環境に医師とインタラクションを行う医療シーンと、
例えば、遠隔買物を行い、及び仮想環境に商家とインタラクションを行い、全方位試着を行う商業シーンと、
例えば、個人または複数人が短距離走のチャンピオンと仮想環境に短距離走の試合を行う体育シーンと、
例えば、個人または複数人が仮想空間にゲームを行い、テレビ生放送に臨場的に参加でき、または、映画キャラクターとインタラクションを行う娯楽シーンと、
例えば、4次元日記の記録及び上映、博物館を遠隔的に見学し、家族またはペットを遠隔的に付き添い、アダルト応用を遠隔的にする個人生活シーンと、に応用でき、
映画、テレビ、ゲーム、映像内容の作成を含む仮想現実または現実内容の生成を増強するシーンと、
所定時間、空間、場所に対して4次元履歴記録を行うシーンと、に応用してもよく、上記のシーンを限定しない。
任意の時点で物体上の各点の時間とともに変化しない座標系での座標を示すことができる空間位置属性と、
任意の時点で物体表面のテクスチャ及びスペクトル特徴(例えば、カラー)、物体表面の幾何特性(例えば、法線方向、曲率、平滑性等)を示すことができる外観属性と、
音声属性と、
任意の時点で物体上の各点の運動速度ベクトル、加速度ベクトルを示すことができ、または、物体上の剛体と見なす各部分の角速度ベクトル、角加速度ベクトルを示すことができる運動属性と、
物体のカテゴリー、身分、材質、相互関係などのすべての表象情報及び表象情報の経過変化から推測できる情報のうちの少なくとも一種を示すことができる他の属性と、を少なくとも含み、
形式的に、4次元時空モデルは、デジタル化のデータ形式で記憶媒体に記憶され、この形式は、記憶、表示、検索、編集、伝送、暗号化されることができと共に、より高度なスマートアプリケーションに応用されることができる。
表象情報に対して処理を行って、第1のマーク情報を得るステップと、
第1のマーク情報と表象情報に基づいて、幾何情報を含む第1点クラウド情報及びテクスチャ情報を含む第2点クラウド情報を得るステップと、
第1点クラウド情報と第2点クラウド情報を融合して、目標点クラウド情報を得るステップと、
目標点クラウド情報に基づいて、視覚情報を得るステップと、
視覚情報に基づいて空間モデルを取得し、異なる時点の空間モデルに対して融合を行うステップと、
融合した空間モジュール、第1のマーク情報及び第2のマーク情報に基づいて、4次元時空モデルを得るステップと、を採用することができる。
耳で聞くことができる及び/又は機器で採集できる音場情報を更に含む表象情報に基づいて、表象情報に対応する物体の音場情報を計算するステップをさらに含む。
視覚情報と音場情報を融合して、空間モデルを得るステップを採用しても良い。
目標点クラウド情報に対して処理を行って、第2のマーク情報を得るステップをさらに含む。
第2のマーク情報と目標点クラウド情報に基づいて視覚情報を得るステップを採用してもよい。
目標点クラウド情報に対して幾何頂点位置の最適化及び法線方向の計算を行って第1結果を得るステップと、
第1結果に対して表面整合及び三角グリッド化処理を行って第2結果を得るステップと、
第2結果に基づいて視覚情報を得るステップと、を採用できる。
表象情報に対してデジタル画像処理分析を行って第1のマーク情報を得るステップを採用できる。
表象情報に対して分割、検測、追跡、識別などの処理を行うステップを採用できる。
第1のマーク情報に基づいて表象情報に対して処理を行って、表象情報に対応する物体の座標情報を得るステップと、
座標情報に基づいて、幾何情報を含む第1点クラウド情報を生成するステップと、を採用できる。
点順次合成及び/又は画像合成の方式を採用し、第1のマーク情報に基づいて表象情報に対して情報取出処理を行って、テクスチャ情報を含む第2点クラウド情報を得るステップを採用できる。
第2のマーク情報と目標点クラウド情報に基づいて、物体の表面法線方向情報を計算するステップと、
表面法線方向情報に基づいて視覚情報を得るステップと、を採用できる。
上記の各方法のステップを実行するように配置されるプロセッサと、
前記プロセッサにより実行可能な指令を記憶するためのメモリと、を含む。
肉眼で観察できる及び/又は機器で採集できる、物体を表徴するための電磁界スペクトル情報を含む表象情報を取得する取得ユニット21と、
取得した表象情報に基づいて、デジタル形式で時間とともに変化する前記表象情報を表徴できる属性を有し、前記表象情報を表徴するための4次元時空モデルを確立するモデル確立ユニット22と、
確立された4次元時空モデルに対して符号化処理を行うための処理ユニット23と、
符号化処理を行った後の4次元時空モデルに対して送信を行うための送信ユニット24と、を含む。
任意の時点で物体上の各点の時間とともに変化しない座標系での座標を示すことができる空間位置属性と、
任意の時点で物体表面のテクスチャ及びスペクトル特徴(例えば、カラー)、物体表面の幾何特性(例えば、法線方向、曲率、平滑性等)を示すことができる外観属性と、
音声属性と、
任意の時点で物体上の各点の運動速度ベクトル、加速度ベクトルを示すことができ、または、物体上の剛体と見なす各部分の角速度ベクトル、角加速度ベクトルを示すことができる運動属性と、
物体のカテゴリー、身分、材質、相互関係などのすべての表象情報及び表象情報の経過変化から推測できた情報のうちの少なくとも一種を示すことができる他の属性と、を少なくとも含み、
形式的に、4次元時空モデルは、デジタル化のデータ形式で記憶媒体に記憶され、この形式は、記憶、表示、検索、編集、伝送、暗号化されることができと共に、より高度なスマートアプリケーションに応用されることができる。
前記表象情報と前記音場情報に基づいて、前記表象情報と前記音場情報を表徴するための4次元時空モデルを確立する。
前記視覚情報と前記音場情報を融合して、前記空間モデルを得るステップを採用しても良い。
前記第2のマーク情報と前記目標点クラウド情報に基づいて前記視覚情報を得るステップを採用してもよい。
前記目標点クラウド情報に対して幾何頂点位置の最適化及び法線方向の計算を行って第1結果を得るステップと、
前記第1結果に対して表面整合及び三角グリッド化処理を行って第2結果を得るステップと、
前記第2結果に基づいて前記視覚情報を得るステップと、にさらに応用される。
前記表象情報に対してデジタル画像処理分析を行って、前記第1のマーク情報を得るステップを採用しても良い。
前記第1のマーク情報に基づいて前記表象情報に対して処理を行って、前記表象情報に対応する物体の座標情報を得るステップと、
前記座標情報に基づいて、前記幾何情報を含む第1点クラウド情報を生成するステップと、を採用できる。
点順次合成及び/又は画像合成の方式を採用し、前記第1のマーク情報に基づいて前記表象情報に対して情報取出処理を行って、テクスチャ情報を含む第2点クラウド情報を得るステップを採用できる。
前記第2のマーク情報と前記目標点クラウド情報に基づいて物体の表面法線方向情報を計算するステップと、
前記表面法線方向情報に基づいて視覚情報を得るステップと、を採用できる。
任意の時点で物体上の各点の時間とともに変化しない座標系での座標を示すことができる空間位置属性と、
任意の時点で物体表面のテクスチャ及びスペクトル特徴(例えば、カラー)、物体表面の幾何特性(例えば、法線方向、曲率、平滑性等)を示すことができる外観属性と、
音声属性と、
任意の時点で物体上の各点の運動速度ベクトル、加速度ベクトルを示すことができ、または、物体上の剛体と見なす各部分の角速度ベクトル、角加速度ベクトルを示すことができる運動属性と、
物体のカテゴリー、身分、材質、相互関係などのすべての表象情報及び表象情報の経過変化から推測できた情報のうちの少なくとも一種を示すことができる他の属性と、を少なくとも含み、
形式的に、4次元時空モデルは、デジタル化のデータ形式で記憶媒体に記憶され、この形式は、記憶、表示、検索、編集、伝送、暗号化されることができと共に、より高度なスマートアプリケーションに応用されることができる。
前記4次元時空モデルと、マルチメディア情報を表示する場所の物体の表象情報を表徴するための前記第1の時空モデルを融合して、目標4次元時空モデルを得るステップをさらに含む。
前記目標4次元時空モデルに基づいて、前記4次元時空モデルが表徴する表象情報と前記第1の時空モデルが表徴する表象情報とを表示するステップを採用できる。
前記4次元時空モデルと、本端のマルチメディア情報を表示する装置が位置する場所の表象情報を表徴するための第1の時空モデルと、仮想物体の表象情報を表徴するための第2の時空モデルとを融合して、目標4次元時空モデルを得るステップをさらに含む。
前記目標4次元時空モデルに基づいて、前記4次元時空モデルが表徴する表象情報、前記第1の時空モデルが表徴する表象情報及び前記第2の時空モデルが表徴する表象情報を表示するステップを採用できる。
前記4次元時空モデルが表徴する音場情報を再生するステップを更に含む。
マルチメディア情報を表示する装置の正面向き情報を確定するステップをさらに含む。
前記正面向き情報に基づいて、前記4次元時空モデルが表徴する表象情報を表示するステップを採用できる。
マルチメディア情報を表示する装置に関連する慣性航法に対して姿勢測位を行って、マルチメディア情報を表示する装置の正面向き情報を得るステップを採用できる。
マルチメディア情報を表示する装置の正面向き情報と目標マルチメディア情報を確定するステップと、
前記正面向き情報と前記目標マルチメディア情報を、4次元時空モデルを送信する装置に、フィードバックするステップと、を更に含む。
デジタル形式で時間とともに変化する表象情報を表徴できる属性を有し、肉眼で観察できる及び/又は機器で採集できる物体を表徴するための電磁界スペクトル情報を含む前記表象情報を表徴するための4次元時空モデルを受信する受信ユニット2000と、
前記4次元時空モデルに対してデコード処理を行って、デコードされた4次元時空モデルを得るための4次元時空モデル処理ユニット2100と、
前記デコードされた4次元時空モデルに基づいて、前記4次元時空モデルが表徴する表象情報を再生するための表示ユニット2200と、を含む。
前記目標4次元時空モデルに基づいて、前記4次元時空モデルが表徴する表象情報と前記第1の時空モデルが表徴する表象情報を表示するステップをさらに採用してもよい。
前記目標4次元時空モデルに基づいて、前記4次元時空モデルが表徴する表象情報、前記第1の時空モデルが表徴する表象情報及び前記第2の時空モデルが表徴する表象情報を表示するステップを採用できる。
前記正面向きに基づいて、前記4次元時空モデルが表徴する表象情報を表示するステップを採用できる。
マルチメディア情報を表示する装置に関連する慣性航法に対して姿勢測位を行って、マルチメディア情報を表示する装置の正面向き情報を得るステップを採用できる。
Claims (18)
- 計算機器により実行されるマルチメディア情報を処理する方法であって、
肉眼で観察できる及び/又は機器で採集できる、物体を表徴するための電磁界スペクトル情報を含む表象情報を取得するステップと、
取得した表象情報に基づいて、デジタル形式で時間とともに変化する前記表象情報を表徴できる属性を有し、前記表象情報を表徴するための4次元時空モデルを確立するステップと、
確立された4次元時空モデルに対して符号化処理を行うと共に、符号化処理を行った後の4次元時空モデルに対して送信を行うステップと、含み、
取得した表象情報に基づいて前記表象情報を表徴するための前記4次元時空モデルを確立するステップは、具体的に、
前記表象情報に対して処理を行って、第1のマーク情報を得るステップと、
前記第1のマーク情報と前記表象情報に基づいて、幾何情報を含む第1点クラウド情報及びテクスチャ情報を含む第2点クラウド情報を得るステップと、
前記第1点クラウド情報と前記第2点クラウド情報を融合して、目標点クラウド情報を得るステップと、
前記目標点クラウド情報に基づいて、視覚情報を得るステップと、
前記視覚情報に基づいて空間モデルを取得し、異なる時点の空間モデルに対して融合を行うステップと、
融合した空間モジュール、前記第1のマーク情報及び第2のマーク情報に基づいて、前記4次元時空モデルを得るステップと、を含むことを特徴とするマルチメディア情報を処理する方法。 - 取得した表象情報に基づいて前記4次元時空モデルを確立する前に、前記方法は、
耳で聞くことができ及び/又は機器で採集できる音場情報を更に含む前記表象情報に基づいて、前記表象情報に対応する物体の音場情報を計算するステップをさらに含み、
前記表象情報に基づいて前記表象情報を表徴するための4次元時空モデルを確立するステップは、具体的に、前記表象情報と前記音場情報に基づいて、前記表象情報と前記音場情報を表徴するための4次元時空モデルを確立するステップを含むことを特徴とする請求項1に記載の方法。 - 前記視覚情報に基づいて空間モデルを取得する前に、前記方法は、
耳で聞くことができる及び/又は機器で採集できる音場情報を更に含む前記表象情報に基づいて、前記表象情報に対応する物体の音場情報を計算するステップをさらに含み、
前記視覚情報に基づいて空間モデルを取得するステップは、具体的に、前記視覚情報と前記音場情報を融合して、前記空間モデルを得るステップを含むことを特徴とする請求項1に記載の方法。 - 前記第1点クラウド情報と前記第2点クラウド情報を融合して目標点クラウド情報を得た後、前記視覚情報を得る前に、前記方法は、
前記目標点クラウド情報に対して処理を行って、前記第2のマーク情報を得るステップを更に含み、
前記目標点クラウド情報に基づいて、視覚情報を得るステップは、具体的に、前記第2のマーク情報と前記目標点クラウド情報に基づいて、前記視覚情報を得るステップを含むことを特徴とする請求項1に記載の方法。 - 前記第2のマーク情報と前記目標点クラウド情報に基づいて、前記視覚情報を得るステップは、具体的に、
前記目標点クラウド情報に対して幾何頂点位置の最適化及び法線方向の計算を行って第1結果を得るステップと、
前記第1結果に対して表面整合及び三角グリッド化処理を行って第2結果を得るステップと、
前記第2結果と前記第2のマーク情報に基づいて、前記視覚情報を得るステップと、を含むことを特徴とする請求項4に記載の方法。 - 前記表象情報に対して処理を行って、第1のマーク情報を得るステップは、具体的に、前記表象情報に対してデジタル画像処理分析を行って前記第1のマーク情報を得るステップを含むことを特徴とする請求項1に記載の方法。
- 前記第1のマーク情報と前記表象情報に基づいて、幾何情報を含む第1点クラウド情報を得るステップは、具体的に、前記第1のマーク情報に基づいて、前記表象情報に対して処理を行って前記表象情報に対応する物体の座標情報を得るステップと、
前記座標情報に基づいて、前記幾何情報を含む第1点クラウド情報を生成するステップと、を含むことを特徴とする請求項1または6に記載の方法。 - 前記第1のマーク情報と前記表象情報に基づいて、テクスチャ情報を含む第2点クラウド情報を得るステップは、具体的に、
点順次合成及び/又は画像合成の方式を採用し、前記第1のマーク情報に基づいて、前記表象情報に対して情報取出処理を行って、テクスチャ情報を含む第2点クラウド情報を得るステップを含むことを特徴とする請求項1または6に記載の方法。 - 前記第2のマーク情報と前記目標点クラウド情報に基づいて、視覚情報を得るステップは、
前記第2のマーク情報と前記目標点クラウド情報に基づいて、物体の表面法線方向情報を計算するステップと、
前記表面法線方向情報に基づいて視覚情報を得るステップと、を含むことを特徴とする請求項4に記載の方法。 - マルチメディア情報を処理するための計算機器であって、
プロセッサと、
前記プロセッサにより実行可能な指令を記憶するためのメモリと、を含み、
前記プロセッサが前記指令を実行する場合、前記プロセッサは、
肉眼で観察できる及び/又は機器で採集できる、物体を表徴するための電磁界スペクトル情報を含む表象情報を取得し、
取得した表象情報に基づいて、デジタル形式で時間とともに変化する前記表象情報を表徴できる属性を有し、前記表象情報を表徴するための4次元時空モデルを確立し、
確立された4次元時空モデルに対して符号化処理を行うと共に、符号化処理を行った後の4次元時空モデルに対して送信を行い、
取得した表象情報に基づいて前記表象情報を表徴するための前記4次元時空モデルを確立するために、前記プロセッサは、
前記表象情報に対して処理を行って、第1のマーク情報を得、
前記第1のマーク情報と前記表象情報に基づいて、幾何情報を含む第1点クラウド情報及びテクスチャ情報を含む第2点クラウド情報を得、
前記第1点クラウド情報と前記第2点クラウド情報を融合して、目標点クラウド情報を得、
前記目標点クラウド情報に基づいて、視覚情報を得、
前記視覚情報に基づいて空間モデルを取得し、異なる時点の空間モデルに対して融合を行い、
融合した空間モジュール、前記第1のマーク情報及び第2のマーク情報に基づいて、前記4次元時空モデルを得ることを特徴とする計算機器。 - 前記プロセッサは、
取得した表象情報に基づいて前記4次元時空モデルを確立する前に、耳で聞くことができる及び/又は機器で採集できる音場情報を更に含む前記表象情報に基づいて、前記表象情報に対応する物体の音場情報を計算し、
前記表象情報に基づいて前記表象情報を表徴するための4次元時空モデルを確立するために、前記プロセッサは、前記表象情報と前記音場情報に基づいて、前記表象情報と前記音場情報を表徴するための4次元時空モデルを確立することを特徴とする請求項10に記載の計算機器。 - 前記プロセッサは、
前記視覚情報に基づいて空間モデルを取得する前に、耳で聞くことができる及び/又は機器で採集できる音場情報を更に含む前記表象情報に基づいて、前記表象情報に対応する物体の音場情報を計算し、
前記視覚情報に基づいて空間モデルを取得するために、前記プロセッサは、前記視覚情報と前記音場情報を融合して、前記空間モデルを得ることを特徴とする請求項10に記載の計算機器。 - 前記プロセッサは、前記第1点クラウド情報と前記第2点クラウド情報を融合して目標点クラウド情報を得た後、前記視覚情報を得る前に、前記目標点クラウド情報に対して処理を行って、前記第2のマーク情報を得、
前記目標点クラウド情報に基づいて、視覚情報を得るために、前記プロセッサは、前記第2のマーク情報と前記目標点クラウド情報に基づいて、前記視覚情報を得ることを特徴とする請求項10に記載の計算機器。 - 前記第2のマーク情報と前記目標点クラウド情報に基づいて、前記視覚情報を得るために、前記プロセッサは、
前記目標点クラウド情報に対して幾何頂点位置の最適化及び法線方向の計算を行って第1結果を得、
前記第1結果に対して表面整合及び三角グリッド化処理を行って第2結果を得、
前記第2結果と前記第2のマーク情報に基づいて、前記視覚情報を得ることを特徴とする請求項13に記載の計算機器。 - 前記表象情報に対して処理を行って、第1のマーク情報を得るために、前記プロセッサは、前記表象情報に対してデジタル画像処理分析を行って前記第1のマーク情報を得ることを特徴とする請求項10に記載の計算機器。
- 前記第1のマーク情報と前記表象情報に基づいて、幾何情報を含む第1点クラウド情報を得るために、前記プロセッサは、
前記第1のマーク情報に基づいて、前記表象情報に対して処理を行って前記表象情報に対応する物体の座標情報を得、
前記座標情報に基づいて、前記幾何情報を含む第1点クラウド情報を生成することを特徴とする請求項10に記載の計算機器。 - 前記第1のマーク情報と前記表象情報に基づいて、テクスチャ情報を含む第2点クラウド情報を得るために、前記プロセッサは、
点順次合成及び/又は画像合成の方式を採用し、前記第1のマーク情報に基づいて、前記表象情報に対して情報取出処理を行って、テクスチャ情報を含む第2点クラウド情報を得ることを特徴とする請求項10に記載の計算機器。 - 前記第2のマーク情報と前記目標点クラウド情報に基づいて、視覚情報を得るために、前記プロセッサは、
前記第2のマーク情報と前記目標点クラウド情報に基づいて、物体の表面法線方向情報を計算し、
前記表面法線方向情報に基づいて視覚情報を得ることを特徴とする請求項13に記載の計算機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610044198.2A CN105894571B (zh) | 2016-01-22 | 2016-01-22 | 一种处理多媒体信息的方法及装置 |
CN201610044198.2 | 2016-01-22 | ||
PCT/CN2016/111301 WO2017124870A1 (zh) | 2016-01-22 | 2016-12-21 | 一种处理多媒体信息的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019509540A JP2019509540A (ja) | 2019-04-04 |
JP6656382B2 true JP6656382B2 (ja) | 2020-03-04 |
Family
ID=57013683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018534830A Active JP6656382B2 (ja) | 2016-01-22 | 2016-12-21 | マルチメディア情報を処理する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170213392A1 (ja) |
EP (1) | EP3385915A4 (ja) |
JP (1) | JP6656382B2 (ja) |
CN (1) | CN105894571B (ja) |
WO (1) | WO2017124870A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017124871A1 (zh) * | 2016-01-22 | 2017-07-27 | 上海肇观电子科技有限公司 | 一种呈现多媒体信息的方法及装置 |
CN105894571B (zh) * | 2016-01-22 | 2020-05-19 | 上海肇观电子科技有限公司 | 一种处理多媒体信息的方法及装置 |
CN108459717A (zh) * | 2018-03-13 | 2018-08-28 | 重庆虚拟实境科技有限公司 | 虚拟教育方法、装置、计算机装置及存储介质 |
JP7326805B2 (ja) | 2019-03-26 | 2023-08-16 | 株式会社ニコン | データ処理装置、データ処理方法、プログラム、及び、データ処理システム |
CN111754543B (zh) * | 2019-03-29 | 2024-03-29 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及系统 |
CN110852182B (zh) * | 2019-10-21 | 2022-09-20 | 华中科技大学 | 一种基于三维空间时序建模的深度视频人体行为识别方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5714997A (en) * | 1995-01-06 | 1998-02-03 | Anderson; David P. | Virtual reality television system |
CN101159854A (zh) * | 2007-08-31 | 2008-04-09 | 陈洪 | 四维一体实时监控多媒体信息采集装置 |
CN102231726A (zh) * | 2011-01-25 | 2011-11-02 | 北京捷讯华泰科技有限公司 | 虚拟现实合成方法及终端 |
CN102682477B (zh) * | 2012-05-16 | 2015-04-08 | 南京邮电大学 | 一种基于结构先验的规则场景三维信息提取方法 |
KR20230173231A (ko) * | 2013-03-11 | 2023-12-26 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
CN103716586A (zh) * | 2013-12-12 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 一种基于三维空间场景的监控视频融合系统和方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
US9536461B2 (en) * | 2014-07-01 | 2017-01-03 | Sony Interactive Entertainment Inc. | Method and system for use in uprendering multimedia content |
CN104183014B (zh) * | 2014-08-13 | 2017-01-18 | 浙江大学 | 一种面向城市增强现实的高融合度信息标注方法 |
CN104539929B (zh) * | 2015-01-20 | 2016-12-07 | 深圳威阿科技有限公司 | 带有运动预测的立体图像编码方法和编码装置 |
CN105894571B (zh) * | 2016-01-22 | 2020-05-19 | 上海肇观电子科技有限公司 | 一种处理多媒体信息的方法及装置 |
-
2016
- 2016-01-22 CN CN201610044198.2A patent/CN105894571B/zh active Active
- 2016-12-21 EP EP16886130.0A patent/EP3385915A4/en not_active Withdrawn
- 2016-12-21 JP JP2018534830A patent/JP6656382B2/ja active Active
- 2016-12-21 WO PCT/CN2016/111301 patent/WO2017124870A1/zh active Application Filing
-
2017
- 2017-01-20 US US15/411,415 patent/US20170213392A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3385915A1 (en) | 2018-10-10 |
CN105894571B (zh) | 2020-05-19 |
JP2019509540A (ja) | 2019-04-04 |
CN105894571A (zh) | 2016-08-24 |
US20170213392A1 (en) | 2017-07-27 |
EP3385915A4 (en) | 2019-01-09 |
WO2017124870A1 (zh) | 2017-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7646788B2 (ja) | クロスリアリティシステム | |
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
US10496910B2 (en) | Inconspicuous tag for generating augmented reality experiences | |
KR102417645B1 (ko) | Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체 | |
US11087555B2 (en) | Recognizing objects in a passable world model in augmented or virtual reality systems | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
CN106484115B (zh) | 用于增强和虚拟现实的系统和方法 | |
US9495008B2 (en) | Detecting a primary user of a device | |
US8933931B2 (en) | Distributed asynchronous localization and mapping for augmented reality | |
JP7526169B2 (ja) | クロスリアリティシステム | |
KR20180120456A (ko) | 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법 | |
CN105893452B (zh) | 一种呈现多媒体信息的方法及装置 | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
JP6680886B2 (ja) | マルチメディア情報を表示する方法及び装置 | |
JP2024506299A (ja) | 占有率グリッドを使用した場面理解 | |
US20240331317A1 (en) | Information processing device, information processing system and method | |
US20230260222A1 (en) | Efficient dynamic occlusion based on stereo vision within an augmented or virtual reality application | |
JP2025041749A (ja) | クロスリアリティシステム | |
CN117716419A (zh) | 图像显示系统及图像显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6656382 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |