JP7448760B2 - 点群処理 - Google Patents
点群処理 Download PDFInfo
- Publication number
- JP7448760B2 JP7448760B2 JP2020533208A JP2020533208A JP7448760B2 JP 7448760 B2 JP7448760 B2 JP 7448760B2 JP 2020533208 A JP2020533208 A JP 2020533208A JP 2020533208 A JP2020533208 A JP 2020533208A JP 7448760 B2 JP7448760 B2 JP 7448760B2
- Authority
- JP
- Japan
- Prior art keywords
- sample
- depth
- current
- difference
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title description 19
- 238000000034 method Methods 0.000 claims description 93
- 238000004040 coloring Methods 0.000 claims description 46
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000523 sample Substances 0.000 description 264
- 239000010410 layer Substances 0.000 description 69
- 230000015654 memory Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 12
- 230000000670 limiting effect Effects 0.000 description 7
- 230000011664 signaling Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 235000019994 cava Nutrition 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Dx(M)=x(M)-x(R)、
ここで、x(M)は、図3により与えられる幾何形状画像における3DサンプルMのx-座標であり、Rについても、それぞれ同様であり、
Dy(M)=y(M)-y(R)
ここで、y(M)は、図3により与えられる幾何形状画像における3DサンプルMのy-座標であり、Rについても、それぞれ同様であり、
Dz(M)=z(M)-z(R)
ここで、z(M)は、図3により与えられる幾何形状画像における3DサンプルMのz-座標であり、Rについても、それぞれ同様であり、
Dr(M)=R(M)-R(R)。
ここで、R(M)、R(R)は、それぞれ、3DサンプルM、R、それぞれの色属性のr-色成分であり、
Dg(M)=G(M)-G(R)。
ここで、G(M)、G(R)は、それぞれ、3DサンプルM、R、それぞれの色属性のg-色成分であり、
Db(M)=B(M)-B(R)。
ここで、B(M)、B(R)は、それぞれ、3DサンプルM、R、それぞれの色属性のb-色成分である。
δ(u,v)=δ0+g(u,v)
s(u,v)=s0-u0+u
r(u,v)=r0-v0+v
ここで、g(u、v)は、幾何形状画像のルーマ成分であり、(u,v)は、投影面上の3Dサンプルに関連付けられた画素であり、(δ0,s0,r0)は、3Dサンプルが属する接続された成分の対応するパッチの3D位置であり、(u0,v0,u1,v1)は、当該接続された成分に関連付けられたパッチの投影を包含する2D境界ボックスを画定する、当該投影面内の座標である。
δ(u,v)=δ0+g(u,v)
s(u,v)=s0-u0+u
r(u,v)=r0-v0+v
ここで、g(u、v)は、復号化された幾何形状画像DGIのルーマ成分であり、(u,v)は、再構築された3Dサンプルに関連付けられた画素であり、(δ0,s0,r0)は、再構築された3Dサンプルが属する接続された成分の3D位置であり、(u0,v0,u1,v1)は、当該接続された成分に関連付けられたパッチの投影を包含する2D境界ボックスを画定する、投影面内の座標である。
サブステップ7110において、点群PCFのうちの少なくとも1つの現在の3DサンプルCurの場合、現在の3Dサンプルの深度値Depth(Cur)と、当該現在の3Dサンプルの隣接する3DサンプルNiの深度値Depth(Ni)との間の最大深度差(距離)deltaMax(Cur)が、計算される。
deltaMax(Cur)=max(Depth(Ni)-Depth(Cur))
ここで、Niは、現在の3DサンプルCurのi番目の隣接する3Dサンプルを示し、max(a,b)は、2つの値aとbとの間の通常の最大値関数である。
deltaMax(Cur)=max((Depth(Ni)-Depth(Cur)),minDepth)
-再構築された点群フレーム、例えば、IRPCF内で最も近い、着色された3Dサンプルの色および位置を見つけること;
-オリジナルの点群フレーム、例えば、IPCF内で最も近い、着色された3Dサンプルの色および位置を見つけること;
-すべての3Dサンプルの色を、それらのサンプルの重心までの距離に基づいて、平均すること(当該3Dサンプルの幾何学的座標を平均することによって計算される);
-そのような平均色を現在の3Dサンプルに割り当てること;および
オリジナルの3Dサンプルとの誤差が最小限に抑えられるように、現在の3Dサンプルの色を修正すること(色成分あたり±2差以内)。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
方法であって、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を含む、方法。
(付記2)
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、付記1に記載の方法。
(付記3)
少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、付記1または2に記載の方法。
(付記4)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値から、前記現在の3Dサンプルの前記深度値と最大深度差との合計-1に等しい深度値の範囲にわたる深度値を使って追加され、前記最大深度差が、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、付記1~3のうちの一つに記載の方法。
(付記5)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差0まで追加される、付記4に記載の方法。
(付記6)
最大深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、付記5に記載の方法。
(付記7)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差-1まで追加され、別の3Dサンプルは、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記最大深度差-1に等しい深度値を使って、前記2D位置において追加される、付記3に記載の方法。
(付記8)
前記最大深度差が、少なくとも最小値に等しい、付記4~7のうちの一つに記載の方法。
(付記9)
前記最小値が、ビットストリームで送信される、付記8に記載の方法。
(付記10)
前記最大深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との差は、前記差が値の所与の範囲に属さない場合は、無視される、付記3に記載の方法。
(付記11)
色分けモードが、前記3Dサンプルに関連付けられた前記最大深度差に従って、3Dサンプルに割り当てられる、付記4に記載の方法。
(付記12)
明示的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、画像データとして符号化され、暗黙的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、他の3Dサンプルに関連付けられた色情報を補間することによって取得される、付記1に記載の方法。
(付記13)
前記方法が、3Dサンプルに関連付けられた前記色分けモードをビットストリームで符号化することをさらに含む、付記1に記載の方法。
(付記14)
方法であって、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を含む、方法。
(付記15)
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、付記14に記載の方法。
(付記16)
少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、付記14または15に記載の方法。
(付記17)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値から、前記現在の3Dサンプルの前記深度値と最大深度差との合計-1に等しい深度値の範囲にわたる深度値を使って追加され、前記最大深度差が、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、付記14または15に記載の方法。
(付記18)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差まで追加される、付記17に記載の方法。
(付記19)
最大深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、付記18に記載の方法。
(付記20)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差-1まで追加され、別の3Dサンプルは、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記最大深度差-1に等しい深度値を使って、前記2D位置において追加される、付記16に記載の方法。
(付記21)
前記最大深度差が、少なくとも最小値に等しい、付記17~20のうちの一つに記載の方法。
(付記22)
前記方法が、前記最小値を提供するようにビットストリームを復号化することをさらに含む、付記21に記載の方法。
(付記23)
前記最大深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との差は、前記差が値の所与の範囲に属さない場合は、無視される、付記17に記載の方法。
(付記24)
明示的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、画像データとして符号化され、暗黙的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、他の3Dサンプルに関連付けられた色情報を補間することによって取得される、付記14に記載の方法。
(付記25)
前記方法が、3Dサンプルに関連付けられた前記色分けモードを提供するようにビットストリームを復号化することをさらに含む、付記14に記載の方法。
(付記26)
少なくとも1つの3Dサンプルのための色分けモードを含む信号であって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報が、ビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、信号。
(付記27)
前記信号は、前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、色情報が明示的であることを示すときに、少なくとも1つの3Dサンプルに関連付けられた前記色情報をさらに含む、付記26に記載の信号。
(付記28)
前記信号が、点群の現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい最大深度差に関連する情報をさらに含む、付記26または27に記載の信号。
(付記29)
少なくとも1つのプロセッサを備えるデバイスであって、前記少なくとも1つのプロセッサが、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を行うように構成されている、デバイス。
(付記30)
少なくとも1つのプロセッサを備えるデバイスであって、前記少なくとも1つのプロセッサが、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を行うように構成されている、デバイス。
(付記31)
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を実行させるための命令を含む、非一時的コンピュータ可読媒体。
(付記32)
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を実行させるための命令を含む、非一時的コンピュータ可読媒体。
Claims (22)
- プロセッサにより実行される方法であって、
少なくとも1つの3Dサンプルを点群に追加することを含み、
前記少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルの、少なくとも1つの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、追加され、
前記隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の差は、前記現在の3Dサンプルの隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の最大深度差として決定される第1の深度差であり、少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルの深度値からの範囲に属する深度値、ならびに前記現在の3Dサンプルの深度値および前記第1の深度差の合計-1に等しい深度値を使って追加される、方法。 - 前記点群が、少なくとも1つの幾何形状画像の投影を復元することによって取得され、前記少なくとも1つの幾何形状画像は、前記点群の3Dサンプルの深度値を格納する、請求項1に記載の方法。
- 少なくとも1つの3Dサンプルが、前記点群の前記現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記第1の深度差まで追加される、請求項1に記載の方法。
- 前記第1の深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、請求項3に記載の方法。
- 少なくとも1つの3Dサンプルが、前記点群の前記現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記第1の深度差-1まで追加され、別の3Dサンプルは、前記第1の深度差-1に等しい深度値を使って、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記2D位置において追加される、請求項1に記載の方法。
- 前記第1の深度差は、第1の値以上である、請求項1に記載の方法。
- 前記第1の値が、1又は2である、請求項6に記載の方法。
- 前記第1の値が、ビットストリーム内で信号伝達される、請求項6に記載の方法。
- 前記方法が、前記第1の値を提供するようにビットストリームを復号化することをさらに含む、請求項6に記載の方法。
- 前記現在の3Dサンプルの隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の最大深度差を決定するとき、前記点群の現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との間の差は、前記差が第1の値の範囲に属さない場合は、無視される、請求項1~9のいずれかに記載の方法。
- 前記点群のうちのいくつかの他の3Dサンプルに関連付けられた色情報を補間することによって、少なくとも1つの追加された3Dサンプルに関連付けられた色情報を取得することを含む、請求項1~10のいずれかに記載の方法。
- 色分けモードを少なくとも1つの追加された3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報がビットストリームで符号化されていること又は前記色情報が暗黙的であることを示す、割り当てることと、
前記色分けモードに応答して、前記少なくとも1つの追加された3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を含む、請求項1~8のいずれかに記載の方法。 - 前記色分けモードが、前記追加された3Dサンプルに関連付けられた前記第1の深度差に従って、前記追加された3Dサンプルに割り当てられる、請求項12に記載の方法。
- 色分けモードを少なくとも1つの追加された3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報がビットストリームで符号化されていること又は前記色情報が暗黙的であることを示す、割り当てることと、
前記色分けモードが、前記色情報が暗黙的であることを示すという決定に応答して、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報が、前記点群の少なくとも1つの3Dサンプルに関連付けられた色情報から導出される、請求項1に記載の方法。 - 少なくとも1つのプロセッサを備えるデバイスであって、前記プロセッサが、
少なくとも1つの3Dサンプルを点群に追加するように構成され、
前記少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルに隣接する少なくとも一つの3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、追加され、
前記隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の差は、前記現在の3Dサンプルの隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の最大深度差として決定される第1の深度差であり、少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルの深度値からの範囲に属する深度値、ならびに前記現在の3Dサンプルの深度値および前記第1の深度差の合計-1に等しい深度値を使って追加される、デバイス。 - 非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群に追加すること、を実行させるための命令を含み、
前記少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルに隣接する少なくとも一つの3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、追加され、
前記隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の差は、前記現在の3Dサンプルの隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の最大深度差として決定される第1の深度差であり、少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルの深度値からの範囲に属する深度値、ならびに前記現在の3Dサンプルの深度値および前記第1の深度差の合計-1に等しい深度値を使って追加される、非一時的コンピュータ可読媒体。 - 命令を含むコンピュータプログラムであって、前記命令が、1つ以上のプロセッサによって実行されるときに、前記1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群に追加すること、を実行させ、
前記少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルに隣接する少なくとも一つの3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、追加され、
前記隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の差は、前記現在の3Dサンプルの隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の最大深度差として決定される第1の深度差であり、少なくとも1つの3Dサンプルが、前記点群の現在の3Dサンプルの深度値からの範囲に属する深度値、ならびに前記現在の3Dサンプルの深度値および前記第1の深度差の合計-1に等しい深度値を使って追加される、コンピュータプログラム。 - 少なくとも1つの3Dサンプルが、前記点群の前記現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記第1の深度差まで追加される、請求項15に記載のデバイス。
- 前記第1の深度差は、第1の値以上である、請求項15に記載のデバイス。
- 前記第1の値が、ビットストリーム内で信号伝達される、請求項19に記載のデバイス。
- 前記現在の3Dサンプルの隣接する3Dサンプルの深度値と前記現在の3Dサンプルの深度値との間の最大深度差を決定するとき、前記点群の現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との間の差は、前記差が第1の値の範囲に属さない場合は、無視される、請求項15に記載のデバイス。
- 色分けモードを少なくとも1つの追加された3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報がビットストリームで符号化されていること又は前記色情報が暗黙的であることを示す、割り当てることと、
前記色分けモードが、前記色情報が暗黙的であることを示すという決定に応答して、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報が、前記点群の少なくとも1つの3Dサンプルに関連付けられた色情報から導出される、請求項15に記載のデバイス。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023206238A JP2024026293A (ja) | 2018-01-19 | 2023-12-06 | 点群処理 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18305048 | 2018-01-19 | ||
EP18305048.3 | 2018-01-19 | ||
EP18305420 | 2018-04-10 | ||
EP18305420.4 | 2018-04-10 | ||
EP18305928.6 | 2018-07-11 | ||
EP18305928 | 2018-07-11 | ||
PCT/IB2019/050492 WO2019142164A1 (en) | 2018-01-19 | 2019-01-21 | Processing a point cloud |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023206238A Division JP2024026293A (ja) | 2018-01-19 | 2023-12-06 | 点群処理 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021511563A JP2021511563A (ja) | 2021-05-06 |
JPWO2019142164A5 JPWO2019142164A5 (ja) | 2022-01-27 |
JP7448760B2 true JP7448760B2 (ja) | 2024-03-13 |
Family
ID=65496774
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020533208A Active JP7448760B2 (ja) | 2018-01-19 | 2019-01-21 | 点群処理 |
JP2023206238A Pending JP2024026293A (ja) | 2018-01-19 | 2023-12-06 | 点群処理 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023206238A Pending JP2024026293A (ja) | 2018-01-19 | 2023-12-06 | 点群処理 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11900639B2 (ja) |
EP (2) | EP3740938B1 (ja) |
JP (2) | JP7448760B2 (ja) |
KR (2) | KR102640992B1 (ja) |
CN (2) | CN111630571B (ja) |
AU (2) | AU2019208552B2 (ja) |
MX (1) | MX2020007660A (ja) |
WO (1) | WO2019142164A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112020026591A2 (pt) | 2018-06-26 | 2021-03-23 | Huawei Technologies Co., Ltd. | Projetos de sintaxe de alto nível para codificação de nuvem de pontos |
JP7438993B2 (ja) | 2018-07-11 | 2024-02-27 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | 点群のジオメトリを符号化/復号する方法及び装置 |
JP7351858B2 (ja) | 2018-07-11 | 2023-09-27 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | 点群の点のテクスチャを符号化/復号する方法 |
US11151748B2 (en) * | 2018-07-13 | 2021-10-19 | Electronics And Telecommunications Research Institute | 3D point cloud data encoding/decoding method and apparatus |
CN116708799A (zh) * | 2018-09-14 | 2023-09-05 | 华为技术有限公司 | 点云译码中属性层和指示的改进 |
EP3850832A4 (en) * | 2018-10-02 | 2021-11-10 | Huawei Technologies Co., Ltd. | MOTION ESTIMATION USING 3D AUXILIARY DATA |
US11095900B2 (en) * | 2018-12-19 | 2021-08-17 | Sony Group Corporation | Point cloud coding structure |
KR20210141942A (ko) | 2019-03-22 | 2021-11-23 | 인터디지털 브이씨 홀딩스 프랑스 | 포인트 클라우드의 처리 |
US11158116B2 (en) * | 2019-08-05 | 2021-10-26 | Tencent America LLC | Geometry model for point cloud coding |
CN112333453B (zh) | 2019-08-05 | 2024-08-16 | 腾讯美国有限责任公司 | 解码方法和装置以及计算机系统和存储介质 |
JP2022172413A (ja) * | 2019-09-26 | 2022-11-16 | シャープ株式会社 | 三次元表現変換装置、および、三次元表現逆変換装置 |
US11310528B2 (en) * | 2020-03-30 | 2022-04-19 | Tencent America LLC | Methods of coding duplicate and isolated points for point cloud coding |
WO2021201390A1 (ko) * | 2020-04-03 | 2021-10-07 | 엘지전자 주식회사 | 포인트 클라우드 데이터 처리 장치 및 방법 |
US11501470B2 (en) | 2020-05-27 | 2022-11-15 | Microsoft Technology Licensing, Llc | Geometric encoding of data |
US12101505B2 (en) * | 2021-06-04 | 2024-09-24 | Tencent America LLC | Fast recolor for video based point cloud coding |
US12190520B2 (en) * | 2022-07-05 | 2025-01-07 | Alibaba (China) Co., Ltd. | Pyramid architecture for multi-scale processing in point cloud segmentation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038933A (ja) | 2002-04-17 | 2004-02-05 | Mitsubishi Electric Research Laboratories Inc | 3dの点から3dの表面までの距離を2dの投影距離画像から求める方法 |
JP2009301361A (ja) | 2008-06-13 | 2009-12-24 | Iwate Univ | フィレット面認識方法、フィレット面認識プログラム及び計測情報処理装置 |
JP2017529620A (ja) | 2014-09-19 | 2017-10-05 | クアルコム,インコーポレイテッド | 姿勢推定のシステムおよび方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6823015B2 (en) * | 2002-01-23 | 2004-11-23 | International Business Machines Corporation | Macroblock coding using luminance date in analyzing temporal redundancy of picture, biased by chrominance data |
US7991238B2 (en) * | 2004-04-30 | 2011-08-02 | Neiversan Networks Co. Llc | Adaptive compression of multi-level images |
CN103139577B (zh) | 2011-11-23 | 2015-09-30 | 华为技术有限公司 | 一种深度图像滤波方法、获取深度图像滤波阈值的方法和装置 |
KR101874482B1 (ko) | 2012-10-16 | 2018-07-05 | 삼성전자주식회사 | 깊이 영상으로부터 고해상도 3차원 영상을 복원하는 장치 및 방법 |
JP6272630B2 (ja) * | 2014-05-09 | 2018-01-31 | ノキア テクノロジーズ オーユー | ビデオ符号化及び復号の方法及び技術装置 |
US9716889B2 (en) | 2014-12-09 | 2017-07-25 | Sony Corporation | Intra and inter-color prediction for Bayer image coding |
JP7036599B2 (ja) | 2015-04-23 | 2022-03-15 | オステンド・テクノロジーズ・インコーポレーテッド | 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法 |
WO2017100487A1 (en) * | 2015-12-11 | 2017-06-15 | Jingyi Yu | Method and system for image-based image rendering using a multi-camera and depth camera array |
US20170214943A1 (en) * | 2016-01-22 | 2017-07-27 | Mitsubishi Electric Research Laboratories, Inc. | Point Cloud Compression using Prediction and Shape-Adaptive Transforms |
EP3249921A1 (en) * | 2016-05-24 | 2017-11-29 | Thomson Licensing | Method, apparatus and stream for immersive video format |
US10694210B2 (en) | 2016-05-28 | 2020-06-23 | Microsoft Technology Licensing, Llc | Scalable point cloud compression with transform, and corresponding decompression |
US20180053324A1 (en) * | 2016-08-19 | 2018-02-22 | Mitsubishi Electric Research Laboratories, Inc. | Method for Predictive Coding of Point Cloud Geometries |
CN110832348B (zh) | 2016-12-30 | 2023-08-15 | 辉达公司 | 用于自主车辆的高清晰度地图的点云数据丰富 |
CN107230225B (zh) | 2017-04-25 | 2020-06-09 | 华为技术有限公司 | 三维重建的方法和装置 |
CN107590825B (zh) | 2017-07-31 | 2020-10-02 | 东南大学 | 一种基于sfm的点云孔洞修补方法 |
EP3467784A1 (en) * | 2017-10-06 | 2019-04-10 | Thomson Licensing | Method and device for up-sampling a point cloud |
US10708627B2 (en) * | 2019-03-04 | 2020-07-07 | Intel Corporation | Volumetric video compression with motion history |
-
2019
- 2019-01-21 MX MX2020007660A patent/MX2020007660A/es unknown
- 2019-01-21 CN CN201980008968.XA patent/CN111630571B/zh active Active
- 2019-01-21 JP JP2020533208A patent/JP7448760B2/ja active Active
- 2019-01-21 EP EP19706311.8A patent/EP3740938B1/en active Active
- 2019-01-21 EP EP24203197.9A patent/EP4462365A3/en active Pending
- 2019-01-21 CN CN202410924330.3A patent/CN118887356A/zh active Pending
- 2019-01-21 WO PCT/IB2019/050492 patent/WO2019142164A1/en active Application Filing
- 2019-01-21 AU AU2019208552A patent/AU2019208552B2/en active Active
- 2019-01-21 US US16/962,908 patent/US11900639B2/en active Active
- 2019-01-21 KR KR1020207020567A patent/KR102640992B1/ko active Active
- 2019-01-21 KR KR1020247005994A patent/KR20240032147A/ko active Pending
-
2023
- 2023-12-06 JP JP2023206238A patent/JP2024026293A/ja active Pending
-
2024
- 2024-01-02 US US18/402,142 patent/US20240169593A1/en active Pending
- 2024-05-08 AU AU2024203025A patent/AU2024203025A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038933A (ja) | 2002-04-17 | 2004-02-05 | Mitsubishi Electric Research Laboratories Inc | 3dの点から3dの表面までの距離を2dの投影距離画像から求める方法 |
JP2009301361A (ja) | 2008-06-13 | 2009-12-24 | Iwate Univ | フィレット面認識方法、フィレット面認識プログラム及び計測情報処理装置 |
JP2017529620A (ja) | 2014-09-19 | 2017-10-05 | クアルコム,インコーポレイテッド | 姿勢推定のシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
AU2024203025A1 (en) | 2024-05-23 |
AU2019208552A1 (en) | 2020-07-23 |
EP4462365A2 (en) | 2024-11-13 |
KR20200110333A (ko) | 2020-09-23 |
JP2024026293A (ja) | 2024-02-28 |
EP3740938A1 (en) | 2020-11-25 |
US20210056730A1 (en) | 2021-02-25 |
CN111630571A (zh) | 2020-09-04 |
MX2020007660A (es) | 2020-09-18 |
KR20240032147A (ko) | 2024-03-08 |
US20240169593A1 (en) | 2024-05-23 |
JP2021511563A (ja) | 2021-05-06 |
AU2019208552B2 (en) | 2024-02-08 |
CN111630571B (zh) | 2024-09-13 |
EP4462365A3 (en) | 2025-01-15 |
US11900639B2 (en) | 2024-02-13 |
KR102640992B1 (ko) | 2024-02-27 |
EP3740938B1 (en) | 2024-11-06 |
WO2019142164A1 (en) | 2019-07-25 |
CN118887356A (zh) | 2024-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7448760B2 (ja) | 点群処理 | |
US11949889B2 (en) | Processing a point cloud | |
US20250029284A1 (en) | Processing missing points of a point cloud | |
JP2024164087A (ja) | ポイントクラウドの処理 | |
WO2021058315A1 (en) | Encoding and decoding a point cloud using patches for in-between samples | |
CN114556432A (zh) | 处理点云 | |
US20230377204A1 (en) | A method and an apparatus for reconstructing an occupancy map of a point cloud frame | |
US12094177B2 (en) | Processing a point cloud | |
WO2021048050A1 (en) | Processing a point cloud | |
WO2020163038A1 (en) | Processing a point cloud | |
JP2025041643A (ja) | 点群処理 | |
EP3713240A1 (en) | Processing a point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230427 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231206 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20240206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7448760 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |