JP2022164390A - Image generation apparatus, image generation method, and program - Google Patents
Image generation apparatus, image generation method, and program Download PDFInfo
- Publication number
- JP2022164390A JP2022164390A JP2021069853A JP2021069853A JP2022164390A JP 2022164390 A JP2022164390 A JP 2022164390A JP 2021069853 A JP2021069853 A JP 2021069853A JP 2021069853 A JP2021069853 A JP 2021069853A JP 2022164390 A JP2022164390 A JP 2022164390A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- template
- generating
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000003702 image correction Methods 0.000 claims abstract description 15
- 230000001815 facial effect Effects 0.000 claims description 34
- 206010052143 Ocular discomfort Diseases 0.000 claims description 10
- 238000012986 modification Methods 0.000 claims 1
- 230000004048 modification Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 21
- 230000006978 adaptation Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 22
- 210000001508 eye Anatomy 0.000 description 22
- 230000006870 function Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 210000005069 ears Anatomy 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 210000000214 mouth Anatomy 0.000 description 4
- 210000001331 nose Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 210000001061 forehead Anatomy 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
特許法第30条第2項適用申請有り コンピュータエンターテインメントデベロッパーズカンファレンス2020(CEDEC2020)のオンラインセッション(下記URL参照)。( http://cedec.cesa.or.jp/2020/session/detail/s5efaec5355159.html )There is an application for application of Article 30, Paragraph 2 of the Patent Act Online session of Computer Entertainment Developers Conference 2020 (CEDEC2020) (see URL below). (http://cedec.cesa.or.jp/2020/session/detail/s5efaec5355159.html)
本発明は、コンピュータグラフィックスを用いて、人物等の生物の2次元画像(2D画像)を3次元モデルに適用した3次元画像(3D画像)を作成する技術に関する。 The present invention relates to a technique for creating a three-dimensional image (3D image) by applying a two-dimensional image (2D image) of a creature such as a person to a three-dimensional model using computer graphics.
近年、コンピュータグラフィックスを用いた画像生成技術に代表される、各種の画像処理技術の発達に伴い、3次元空間内の仮想的な立体物を2次元空間の画像上で奥行きのある立体的な画像として表した3D画像(以下単に「3D画像」と称する。)の生成技術が発達している。それに伴い、人物に代表される生物の3D画像をアニメーションとして生成し、動きのある3D画像として画面に表示させる技術が発達している。代表的なものとして、Web上のコミュニティや仮想都市等のバーチャル空間で、コンピュータ端末や通信端末の利用者の分身として活動するキャラクタとしてのアバター(以下単に「アバター」と称する。)を3D画像による3Dアバター(以下単に「3Dアバター」と称する。)として自動生成する技術が発達し普及している。 In recent years, with the development of various image processing technologies, represented by image generation technology using computer graphics, it has become possible to transform a virtual three-dimensional object in three-dimensional space into a three-dimensional image with depth on a two-dimensional image. Techniques for generating 3D images represented as images (hereinafter simply referred to as "3D images") have been developed. Along with this, a technology has been developed for generating a 3D image of a creature represented by a person as an animation and displaying it on a screen as a moving 3D image. As a representative example, avatars (hereinafter simply referred to as "avatars") as characters acting as alter ego of users of computer terminals and communication terminals in virtual spaces such as communities on the Web and virtual cities are created using 3D images. A technique for automatically generating 3D avatars (hereinafter simply referred to as "3D avatars") has been developed and spread.
この、3Dアバターに代表される、人物等の生物を3D画像として生成する際は、現実の人物等、現実の生物に似た画像として生成することが重要となる。そのため、従来、3Dアバター等に代表されるキャラクタである3Dキャラクタ(以下単に「3Dキャラクタ」と称する。)を、現実の人物等、現実の生物の顔や姿の画像を用いて3Dアバター等の3Dキャラクタの画像を生成するための技術が知られている。 When generating a 3D image of a living thing such as a person represented by a 3D avatar, it is important to generate an image that resembles a real living thing such as a real person. Therefore, conventionally, a 3D character (hereinafter simply referred to as a "3D character"), which is a character represented by a 3D avatar, etc., is transformed into a 3D avatar, etc. using an image of the face or appearance of a real creature such as a real person. Techniques for generating images of 3D characters are known.
例えば、顔メッシュシーケンスを決定するステップと、顔画像にはめ込んだ顔メッシュを変形するステップと、顔メッシュの頂点と顔メッシュの頂点との変位値を決定するステップと、顔画像をテクスチャとして顔メッシュ上へ投影するステップと、顔メッシュシーケンスにおける後続する顔メッシュの頂点に変位値を加えるステップと、顔メッシュシーケンスを再生して、顔画像の顔アニメーションを作成するステップと、を含む、顔アニメーションを作成する装置によって実行される方法に関する技術が知られている(例えば、特許文献1参照)。 For example, a step of determining a face mesh sequence, a step of deforming the face mesh embedded in the face image, a step of determining displacement values between the vertices of the face mesh and the vertices of the face mesh, and using the face image as a texture to generate the face mesh a facial animation comprising: projecting upward; applying displacement values to vertices of subsequent facial meshes in the facial mesh sequence; and playing the facial mesh sequence to create a facial animation of the facial images. A technique related to a method executed by a device for creating is known (see, for example, Patent Literature 1).
ここで、現実の生物の顔や姿の画像を用いて3Dキャラクタの画像を生成する場合、生物の頭部等の身体の一部の形状や、身体全体の形状を抽象的な3次元のモデルとして画像を形成した3Dモデル(以下単に「3Dモデル」と称する。)に現実の生物の体の一部(例えば顔)の2次元方向の広がりのみを有する2D画像(以下単に「2D画像」と称する。)を適用する処理を行って、現実の人物に似た形状の3Dキャラクタを生成することが多い。このような方法で3Dキャラクタを生成すると、2D画像を適用した部分と3Dモデルがそのまま表面に現れた部分との境界部分に不自然な色の違いや凹凸のような、視覚的な差異や不要な構成等を生じさせてしまうことが多い。しかし、上記特許文献1に記載の発明においては、このような視覚的な差異や不要な構成の発生を抑止するための構成が存在しない。そのため、上記特許文献1に記載の発明においては、生成された3Dキャラクタが不自然な印象を与えるものとして構成されることを抑止できないという問題がある。 Here, when generating a 3D character image using an image of the face or figure of a real creature, an abstract three-dimensional model of the shape of a part of the body such as the head of the creature or the shape of the entire body is used. A 2D image (hereinafter simply referred to as "2D image") having only a two-dimensional spread of a part of the body of a real living creature (for example, a face) in a 3D model (hereinafter simply referred to as "3D model") that forms an image as ) is often performed to generate a 3D character with a shape resembling a real person. When a 3D character is generated by such a method, visual differences and unnecessary visual differences such as unnatural color differences and irregularities appear at the boundary between the part to which the 2D image is applied and the part where the 3D model appears as it is on the surface. configuration, etc. However, in the invention described in Patent Document 1, there is no configuration for suppressing the occurrence of such a visual difference or unnecessary configuration. Therefore, in the invention described in Patent Document 1, there is a problem that it is not possible to prevent the generated 3D character from being configured as something that gives an unnatural impression.
本発明はこのような課題に鑑みてなされたものであり、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dキャラクタを生成できる画像生成装置、画像生成方法、プログラムを提供することを課題としている。 The present invention has been made in view of such problems, and provides an image generation apparatus, an image generation method, and a program that can generate a 3D character that suppresses the occurrence of visual differences and unnecessary configurations and gives a natural impression. The challenge is to provide
かかる課題を解決するため、請求項1に記載の発明は、3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像を生成する画像生成装置であって、記録された前記3Dテンプレートと前記2D画像とを取得する画像取得手段と、前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルを生成する生物3Dモデル生成手段と、前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像を生成する適合手段と、前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像を生成する画像修正手段とを備えたことを特徴とする。 In order to solve this problem, the invention according to claim 1 applies a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information. an image generating device for generating a 3D image of a living organism, comprising: image acquisition means for acquiring the recorded 3D template and the 2D image; and adding position information in three-dimensional directions to the 2D image of the living organism. 3D organism model generating means for generating a 3D organism model as a 3D image using the position information of the 3D organism model, and fitting means for generating a matched image by fitting the 3D organism model to the 3D template using the position information of the 3D organism model and correcting the inconsistency by changing the positional information in the three-dimensional direction to at least a part of the matching image when the matching image has a predetermined mismatch that causes a visual discomfort. and image correction means for generating a modified image.
請求項2に記載の発明は、請求項1に記載の構成に加え、前記画像修正手段は、前記修正画像の連続した面に色の不連続が生じている箇所に前記不整合の修正を行うことで前記色の不連続を修正する処理を行うことを特徴とする。 According to a second aspect of the invention, in addition to the configuration of the first aspect, the image correcting means corrects the inconsistency in a portion where color discontinuity occurs in the continuous planes of the corrected image. It is characterized in that a process for correcting the color discontinuity is performed.
請求項3に記載の発明は、請求項1又は2に記載の構成に加え、前記画像修正手段は、前記適合画像における、前記3Dテンプレートと該3Dテンプレートに適合させた前記生物3Dモデルとの境界部分に発生するZ方向の凹凸を修正する処理を行うことを特徴とする。 The invention according to claim 3 is characterized in that, in addition to the configuration according to claim 1 or 2, the image correction means is configured to: It is characterized by performing processing for correcting unevenness in the Z direction that occurs in the portion.
請求項4に記載の発明は、請求項3に記載の構成に加え、前記画像修正手段は、前記生物3Dモデルに対し、該生物3Dモデルが適合された前記3Dテンプレート全体との相対的な前記Z方向の位置を修正する処理を行うことを特徴とする。 The invention according to claim 4 is characterized in that, in addition to the configuration according to claim 3, the image correcting means is configured to: It is characterized by performing processing for correcting the position in the Z direction.
請求項5に記載の発明は、請求項1乃至4の何れか一つに記載の構成に加え、前記3Dテンプレートは人体頭部であり、前記生物の2D画像は人物の顔画像であり、前記修正画像は前記人物の顔画像を用いて生成した3Dアバターであることを特徴とする。 The invention according to claim 5 is, in addition to the configuration according to any one of claims 1 to 4, the 3D template is a human head, the 2D image of the creature is a face image of a person, and the The corrected image is a 3D avatar generated using the face image of the person.
請求項6に記載の発明は、3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像を生成させる、画像生成装置における画像生成方法であって、記録された前記3Dテンプレートと前記2D画像とが取得される画像取得手順と、前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルが生成される生物3Dモデル生成手順と、前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像が生成される適合手順と、前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像が生成される画像修正手順とを備えたことを特徴とする。 The invention according to claim 6 applies a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information to obtain a 3D image of a living organism. An image generation method in an image generation device, comprising: an image acquisition procedure for acquiring the recorded 3D template and the 2D image; A biological 3D model generation procedure for generating a biological 3D model as a 3D image, and a fitting procedure for generating a adapted image by fitting the biological 3D model to the 3D template using the position information of the biological 3D model. and, when a predetermined mismatch that causes a visual discomfort occurs in the matching image, the mismatch is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. and an image correction procedure for generating the corrected image.
請求項7に記載の発明は、プログラムであって、コンピュータを前記請求項1乃至5の何れか一つに記載の画像生成装置として機能させることを特徴とする。 According to a seventh aspect of the present invention, there is provided a program for causing a computer to function as the image generating apparatus according to any one of the first to fifth aspects.
請求項1、請求項6に記載の発明によれば、生物の3D画像を生成するにあたって、3Dテンプレートに、生物の2D画像に3次元方向の位置情報を加えた生物3Dモデルを適合させた適合画像を生成することで、現実の生物の視覚的な特徴を反映させた、現実の生物に似た3D画像を生成できる。また、適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、適合画像の少なくとも一部に3次元方向の位置情報の変更を加えて不整合の修正を施した修正画像を生成することにより、生物の視覚的な特徴を3Dテンプレートに反映させる際に発生する視覚的な違和感を自動的に抑止し、現実の生物によりよく似た3D画像を生成することができる。これにより、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dキャラクタを生成できる。 According to the inventions of claims 1 and 6, in generating a 3D image of a living organism, a 3D template is adapted to a 3D living organism model obtained by adding positional information in three-dimensional directions to a 2D image of the living organism. By generating an image, it is possible to generate a 3D image resembling a real creature that reflects the visual characteristics of the real creature. Further, when a predetermined inconsistency that causes visual discomfort occurs in the matching image, a corrected image in which the inconsistency is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. By generating , it is possible to automatically suppress the visual discomfort that occurs when reflecting the visual characteristics of living things on a 3D template, and to generate a 3D image that more closely resembles a real living thing. As a result, a 3D character that gives a natural impression can be generated by suppressing the occurrence of visual differences and unnecessary configurations.
請求項2に記載の発明によれば、3D画像上の連続した面に発生した色の不連続を修正する処理を適切に行い、色の不連続による視覚的な差異や不要な構成の発生を抑止できる。 According to the second aspect of the invention, the process of correcting color discontinuity occurring on a continuous plane on a 3D image is appropriately performed, and visual differences due to color discontinuity and generation of unnecessary configurations are prevented. can be suppressed.
請求項3に記載の発明によれば、3Dテンプレートと該3Dテンプレートに適合させた生物3Dモデルとの境界部分に発生するZ方向の凹凸を修正する処理を行うことにより、コンピュータの演算処理によって、視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。 According to the third aspect of the invention, by performing processing for correcting unevenness in the Z direction that occurs at the boundary between the 3D template and the 3D biological model adapted to the 3D template, the computational processing of the computer, It is possible to realize a specific configuration that automatically suppresses the occurrence of visual differences and unnecessary configurations.
請求項4に記載の発明によれば、生物3Dモデルに対し、該生物3Dモデルが適合された3Dテンプレート全体との相対的なZ方向の位置を修正する処理を行うことにより、生物3Dモデルと3Dテンプレートとの境界部分に発生しうる視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。 According to the fourth aspect of the present invention, the 3D organism model is corrected in the Z direction relative to the entire 3D template to which the 3D organism model is fitted, so that the 3D organism model and the In a specific configuration, it is possible to automatically suppress the occurrence of visual differences and unnecessary configurations that may occur at the boundary between the 3D template and the 3D template.
請求項5に記載の発明によれば、人体頭部の3Dテンプレートに、人物の顔画像としての2D画像を用いて3Dアバターを生成する際に、視覚的な差異や不要な構成の発生を抑止できる。 According to the fifth aspect of the invention, when generating a 3D avatar using a 2D image as a face image of a person in the 3D template of the human head, the occurrence of visual differences and unnecessary configurations is suppressed. can.
請求項7に記載の発明によれば、本発明をプログラムとして構成することで、多様なコンピュータハードウェアに本発明を実装して、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dキャラクタを生成できる。 According to the invention of claim 7, by configuring the present invention as a program, the present invention can be implemented in various computer hardware, suppressing the occurrence of visual differences and unnecessary configurations, and naturally Impressive 3D characters can be generated.
以下、この発明の一実施の形態について図面を参酌して説明する。 An embodiment of the present invention will be described below with reference to the drawings.
[全体構成]
図1はこの実施の形態に係る画像生成システム及び画像生成装置のシステム構成図及び機能ブロック図である。
[overall structure]
FIG. 1 is a system configuration diagram and a functional block diagram of an image generation system and an image generation device according to this embodiment.
同図に示す、この実施の形態の画像生成システム1Aは、この実施の形態の画像生成装置1と、m人(m≧1)の「生物」としての利用者21,22,・・・2mが使用するn台(n≧1)の端末31,32,・・・3nがネットワーク4によって通信可能に接続されたクライアント・サーバシステムとして構成されている。 The image generation system 1A of this embodiment shown in FIG . . . , 3 n (n≧1) used by 2 m are configured as a client/server system in which n terminals 3 1 , 3 2 , . . .
画像生成装置1の詳細は後述する。利用者21,22,・・・2mは、この実施の形態において生成される3Dアバターの利用者であり、それぞれが所持する端末31,32,・・・3nを操作して3Dアバターを生成する。利用者21,22,・・・2mは、生成した3Dアバターを、ネットワーク4に形成されたSNS等のバーチャルコミュニケーション空間やバーチャルモール、ネットワークゲームの登場人物等として利用する。 The details of the image generation device 1 will be described later. Users 2 1 , 2 2 , . to generate a 3D avatar. Users 2 1 , 2 2 , . . . 2 m use the generated 3D avatars as characters in virtual communication spaces such as SNS, virtual malls, and network games formed on the network 4 .
端末31,32,・・・3nは、利用者21,22,・・・2mによって1台乃至複数台所持され、使用される。端末31,32,・・・3nは、パーソナル・コンピュータ、スマートフォン、タブレット、携帯電話端末等、演算処理によるデータ等の処理機能とネットワーク4を介したデータや信号の送受信機能とを有する。端末31,32,・・・3nは、それぞれ、マウスやキーボード等、利用者21,22,・・・2mがデータや各種命令等を入力する、図1に示す操作手段33と、LCD等、文字や画像を表示する、図1に示す表示手段32とを備えるが、図1に示すタッチパネル31等、操作手段と表示手段が一体化したものであってもよい。 One or a plurality of terminals 3 1 , 3 2 , . . . 3 n are possessed and used by users 2 1 , 2 2 , . Terminals 3 1 , 3 2 , . . Terminals 3 1 , 3 2 , . . . 3 n are operating means shown in FIG. 33 and display means 32 such as an LCD for displaying characters and images shown in FIG.
また、図1に示す端末31には、利用者21が自分の顔等をいわゆる「自撮り」で撮影するための正面側カメラ34を備えている。この正面側カメラ34は、後述する顔画像3Dモデル102を生成するために用いられる利用者21の2D画像としての顔写真102aを撮影するために用いられる。
In addition, the terminal 3-1 shown in FIG. 1 is provided with a front-
ネットワーク4は、インターネット、LAN、イントラネット等、データや信号の送受信に用いられる有線又は無線の通信媒体であり、光ファイバケーブル、メタルケーブル、無線基地局、ルータ、スイッチ、モデム等を含む。 The network 4 is a wired or wireless communication medium used for transmitting and receiving data and signals, such as the Internet, LAN, and intranet, and includes optical fiber cables, metal cables, wireless base stations, routers, switches, modems, and the like.
なお、以下は説明の簡単のため、特に区別の必要な場合を除き、利用者21,22,・・・2mを利用者2と、端末31,32,・・・3nを端末3と、それぞれ記載する。 In addition, for the sake of simplicity of explanation , users 2 1 , 2 2 , . . . are referred to as terminal 3, respectively.
[画像生成装置]
図1に、この実施の形態の画像生成装置1の機能ブロック図を示す。
[Image generation device]
FIG. 1 shows a functional block diagram of an image generation device 1 of this embodiment.
この実施の形態の画像生成装置1は、サーバコンピュータであり、CPU等の演算処理を行う構成、RAM等の演算処理の作業領域としての構成、ROM、EEPROM、磁気ディスク等のデータやプログラムの記憶領域としての構成等を備える。画像生成装置1は、1のコンピュータ装置であってもよいし、複数のコンピュータ装置を連結した構成であってもよい。また、画像生成装置1は、特定の施設(例えばサーバ室等)に設置されたサーバシステム等であってもよいし、ネットワーク4上に存在する複数のハードウェア資源によるクラウドシステムとして構成されていてもよい。 The image generating apparatus 1 of this embodiment is a server computer, and includes a configuration such as a CPU for arithmetic processing, a configuration such as a RAM as a work area for arithmetic processing, a ROM, an EEPROM, a magnetic disk, etc. for storing data and programs. It has a configuration as a region and the like. The image generating apparatus 1 may be one computer device, or may be configured by connecting a plurality of computer devices. Further, the image generating apparatus 1 may be a server system or the like installed in a specific facility (for example, a server room, etc.), or may be configured as a cloud system using a plurality of hardware resources existing on the network 4. good too.
この実施の形態の画像生成装置1は、ネットワーク4を介して端末3とデータや信号の送受信を行い、端末3を介した利用者2からの命令やデータ入力等に基づいて、3Dアバターを自動生成する機能を有する。なお、画像生成装置1は、生成した3Dアバターを利用者3が使用するためのバーチャル施設、例えばSNSやバーチャルショッピングモールやバーチャル会議室等、を端末3に表示させて利用者2に利用させる構成を備えていてもよい。 The image generating apparatus 1 of this embodiment transmits and receives data and signals to and from the terminal 3 via the network 4, and automatically generates a 3D avatar based on commands and data input from the user 2 via the terminal 3. It has the ability to generate The image generation device 1 displays on the terminal 3 a virtual facility for the user 3 to use the generated 3D avatar, such as a SNS, a virtual shopping mall, a virtual conference room, etc., and allows the user 2 to use it. may be provided.
この実施の形態の画像生成装置1は、3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像としての3Dアバターを生成するために用いられる。この3Dアバターは、平面方向に加えて奥行き方向の情報を有する3D画像として生成された仮想のキャラクタである。3Dアバターは、やはり3次元方向の情報を有する仮想空間として2次元の画像としてバーチャル表示される3D空間(以下単に「3D空間」と称する。)においてアニメーションとして動く。 The image generating apparatus 1 of this embodiment applies a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information to generate a 3D image of a living organism. Used to generate 3D avatars as images. This 3D avatar is a virtual character generated as a 3D image having depth information in addition to planar information. A 3D avatar moves as an animation in a 3D space (hereinafter simply referred to as "3D space") that is virtually displayed as a 2D image as a virtual space that also has 3D direction information.
このような3Dアバターを生成するため、図1に示すとおり、画像生成装置1は、機能手段として、「画像取得手段」としての画像取得部11、「生物3Dモデル生成手段」としての顔画像3Dモデル生成部12、「適合手段」としての適合部13、「画像修正手段」としての画像修正部14、データベース15を備えている。
In order to generate such a 3D avatar, as shown in FIG. 1, the image generation device 1 includes, as functional means, an
画像取得部11は、データベース15に記録された3Dテンプレートと、端末3から送信された利用者2の2D画像とを取得する。この3Dテンプレートについては後の記載で詳述する。
The
顔画像3Dモデル生成部12は、利用者3の2D画像に3次元方向の位置情報を加えて3D画像とした「生物3Dモデル」としての顔画像3Dモデルを生成する。この顔画像3Dモデルの生成は、例えば機械学習を利用した機能を用いて2D画像を3D画像とすることで生成することが考えられる。この顔画像3Dモデルについては後の記載で詳述する。
The facial image 3D
適合部13は、顔画像3Dモデルの位置情報を用いて、3Dテンプレートに生物3Dモデルを適合させた適合画像を生成する。この適合画像については後の記載で詳述する。
The matching
画像修正部14は、適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、適合画像の少なくとも一部に3次元方向の位置情報の変更を加えて不整合の修正を施した修正画像を生成する。この修正画像については後の記載で詳述する。
The
データベース15は、画像生成装置1で用いられるデータやプログラム等が記録される記録手段である。例えばデータベース15には、上述の3Dテンプレートのデータや、生成されたk個(k≧1)の3Dアバター1091,1092,・・・109kのデータ等が記録される。なお、以下は説明の簡単のため、特に区別の必要がある場合を除き、3Dアバター1091,1092,・・・109kを3Dアバター109と記載する。
The
[処理手順]
図2は、この実施の形態の画像生成装置1の処理手順を示すフローチャートである。以下、図2のフローチャートに基づいて画像生成装置1における3Dアバター109を生成する処理の手順について説明する。
[Processing procedure]
FIG. 2 is a flow chart showing the processing procedure of the image generation device 1 of this embodiment. A procedure of processing for generating the
[ステップS1:画像取得手順]
ある画像生成システム1Aの利用者2(例えば利用者21)が、自分の顔写真を用いて自分に似た3Dアバター109を生成する場合を考える。
[Step S1: Image Acquisition Procedure]
Consider a case where a user 2 (for example, user 2 1 ) of a certain
この場合、利用者2はある端末3(例えば端末31)を用いて画像生成装置1にアクセスすると共に、画像生成装置1に利用者2自身(例えば利用者21)自身の3Dアバター109作成を要求する命令を送信する。画像生成装置1から端末3に対しては、利用者2の2D画像を画像生成装置1に送付する旨の要求が送信され、その要求は端末3のタッチパネルディスプレイ(図示せず)に表示される。
In this case, the user 2 accesses the image generation device 1 using a certain terminal 3 (for example, the terminal 3 1 ), and the user 2 himself (for example, the user 2 1 ) creates his
そして、利用者2(例えば利用者21)が端末3(例えば端末31)を用いて自分の顔の2D画像である顔写真102a(図1参照)等の2D画像を画像生成装置1に送信する。
Then, the user 2 (for example, the user 2 1 ) uses the terminal 3 (for example, the terminal 3 1 ) to transmit a 2D image such as a
画像生成装置1の画像取得部11は、端末3から送信された利用者2の顔写真102a等の2D画像を取得する(ステップS1)。また、画像取得部11は、データベース15に記録された3Dテンプレート101を取得する。
The
図3は、この3Dテンプレート101を模式的に示した図であり、図3の(a)は3Dテンプレート101を正面方向から表示した状態、図3の(b)は3Dテンプレートを右側面側から表示した状態、をそれぞれ模式的に示した図である。この3Dテンプレート101は、人体の頭部の形状や、肌の色や、目、鼻、口、耳等の顔のパーツの位置や大きさや形状や位置等を示すための情報を備えた、3Dアバター109を生成する際の基本となる情報を備えている。
3A and 3B schematically show the
この3Dテンプレート101は、多数の画素の集合によって形成されており、それぞれの画素は、3Dテンプレート101が存在する3次元の仮想空間における3次元方向の座標軸(例えば水平方向(X方向)、垂直方向(Y方向)、高さ方向(Z方向))という3つの直交軸に基づく、仮想的な3次元空間上の位置を特定するための座標軸)に基づく、3次元方向の位置を特定するための3次元座標(例えばX座標、Y座標、Z座標)を有している。この3次元座標の数値を変えることにより、3Dテンプレート101全体、あるいは3Dテンプレート101の特定部分や特定のパーツ(たとえば目や鼻や口など)の位置や大きさを変化させることができる。また、それぞれの画素に数値で設定された色情報(例えばRGB系の色情報や、輝度・色差情報等)等を変えることにより、それぞれの画素の色や明るさ等を変えることもできる。
This
[ステップS2:顔画像3Dモデル生成手順(生物3Dモデル生成手順)]
次に、顔画像3Dモデル生成部12は、ステップS1で取得された利用者2の2D画像としての顔写真102aに基づいて、3次元方向の情報も含む3D画像としての顔画像3Dモデルを生成する。
[Step S2: Facial image 3D model generation procedure (organism 3D model generation procedure)]
Next, the facial image 3D
顔画像3Dモデル生成部12は、例えば機械学習を用いた機能を用いて、利用者2の2D画像としての顔画像から3D画像としての顔画像を生成する。具体的には、顔画像3Dモデル生成部12のデータ抽出・演算機能により、利用者2の2D画像としての顔写真102aから、目、眉、鼻、口、耳等のパーツの情報を抽出したり、パーツや輪郭や顔の部分ごとの光沢や陰影や色彩等の情報を取得するとともにそれらの情報を数値化して、それらのパーツや顔の輪郭などの位置情報や凹凸の大きさや深さ等の情報を算出する。そして、顔画像3Dモデル生成部12は、その算出結果に基づいて、2D画像の顔画像を構成するそれぞれの画素を3次元空間上にマッピングする。具体的には、2D画像としての顔画像を構成するそれぞれの画素情報に、3次元空間上の位置を特定するための3次元座標(例えばX座標、Y座標、Z座標)の数値をそれぞれ入力する。
The face image 3D
なお、顔画像3Dモデル生成部12を構成する機能としては、2D画像としての顔画像を3D画像としての顔画像に変換するために、人工知能の機能を有し、この人工知能の機能において、予め、多数の顔画像の2D画像と3D画像との対応関係(顔の部分ごとの大きさや凹凸や肌の色等により、顔の立体形状が2D画像と3D画像にそれぞれどのように反映されるかに関する対応関係、等が考えられる。)を学習させておき、この学習結果に基づいて、利用者2の2D画像の顔写真102aを3D画像の顔画像3Dモデルとして生成する。例えば、顔の2D画像と現実のZ座標方向のデータについて学習を行うことで、顔の2D画像からZ座標方向のデータを含む各種データを推論し、この推論したデータを利用して2D画像のみの入力で3次元座標の値を入手することができる。ただし、顔画像3Dモデル生成部12は、人工知能の機能を有さずに、周知の画像解析技術や画像認識技術等を用いて利用者2の2D画像の顔写真を3D画像の顔画像3Dモデルとして生成するものであってもよい。
In addition, as a function constituting the face image 3D
図4に、この実施の形態の顔画像3Dモデル生成部12が生成した顔画像3Dモデル102の概念図を示す。図4の(a)は顔画像3Dモデル102を正面方向から表示した状態、図4の(b)は顔画像3Dモデル102を右側面側から表示した状態、をそれぞれ模式的に示した図である。同図に示すとおり、顔画像3Dモデル102は、実在の人物の顔を撮影した顔写真の画像に基づいて、仮想空間内において、上下方向(X方向)、左右方向(Y方向)、高さ方向(Z方向)の情報を有する、顔部分の3次元形状の画像として生成されている。
FIG. 4 shows a conceptual diagram of the face
さらに、顔画像3Dモデル生成部12は、顔画像3Dモデル102に対する各種の調整を行う。具体的には、顔画像3Dモデル調整部は、顔画像3Dモデル102に対して下記(A)~(D)に例示する調整のための処理を行う。
Furthermore, the facial image 3D
(A)顔画像3Dモデル102の両目が水平になるように回転させる処理を行う。例えば、[図5]の[A1]に示す水平位置に顔画像3Dモデル102の両目の位置が一致するように、図5の[A2]に示す方向に顔画像3Dモデル102を回転させる。
(A) A process of rotating the face
(B)顔画像3Dモデル102の両目の奥行きが等しくなるように回転させる処理を行う。例えば、顔画像3Dモデル102の両目の位置がZ方向(図5(b)の左右方向)に一致するように、顔画像3Dモデル102を図5の(a)の[B]に示す方向に回転させる。
(B) A process of rotating the face
(C)顔画像3Dモデル102の顎や額が極端に前方に突き出ることがないように回転させる処理を行う。例えば、図5の(a)の顔画像3Dモデル102において、[C1]のZ方向位置と[C2]のZ方向位置が一致するように顔画像3Dモデル102を回転させる。
(C) Rotate the face
(D)顔画像3Dモデル102の両端のポリゴンを切り捨てる。これは、画像生成装置1においてMP3D等を用いた処理を行う場合、顔の側面や耳のメッシュを綺麗に生成できない場合があるので、最終結果の3Dアバター109にポリゴンを反映させないようにするために行うものである。例えば図5の(b)の[D]に示すように、顔画像3Dモデル102の耳部分のポリゴン(図4の(b)の耳部分の画像参照)を除去する処理を行う。
(D) The polygons at both ends of the face
顔画像3Dモデル102は機械学習により推論されたデータに基づき形成されるので、両目の水平方向の位置がずれたり、両目の奥行きがずれたり、あるいは顎や額が極端に前方に突出した顔画像3Dモデルが発生することがある。そのため上記のように両目が水平になるように回転させたり、両目の奥行が等しくなるよう回転させたり、さらには顎や額が極端に前方に突出することがないような処理が行われる。
Since the face
図5に、上記(A)~(D)の処理を行って調整した顔画像3Dモデル102の概念図を示す。図5の(a)はこの顔画像3Dモデル102を正面方向から表示した状態(b)は右側面側から表示した状態、を模式的に示した図である。同図に示す顔画像3Dモデル102は、上記(A)~(D)の回転処理やポリゴンを切り捨てる処理によって調整された状態として示されている。
FIG. 5 shows a conceptual diagram of the face
[ステップS3:適合手順]
ステップS2の処理ののち、適合部13は、顔画像3Dモデル生成部12が生成した顔画像3Dモデル102の位置情報を用いて、3Dテンプレート101に顔画像3Dモデル102を適合させた適合画像を生成する。
[Step S3: Matching procedure]
After the process of step S2, the matching
この実施の形態における、顔画像3Dモデル102の位置情報とは、例えば顔画像3Dモデル102を構成するそれぞれの画素の仮想空間上の座標情報や、顔画像3Dモデル102に含まれる目、眉毛、鼻、口、耳等のパーツの大きさや位置を特定するための仮想空間上の座標情報が該当する。適合部13は、この顔画像3Dモデル102の仮想空間上の座標情報を、3Dテンプレート101の対応する画素や対応する顔のパーツ等の仮想空間上の位置情報に適用することで、顔画像3Dモデル102の顔やパーツの大きさや位置や凹凸の状態や陰影などを適用させる。また、併せて、適合部13は、顔画像3Dモデル102の光沢の具合や色彩等の情報を3Dテンプレート101に適用させる。
In this embodiment, the positional information of the face
具体的には、適合部13は、まず、顔画像3Dモデル102所定の位置(例えば両目の位置)における縦方向長さL1、横方向長さL2、高さ方向長さL3等を取得する。次いで適合部13は3Dテンプレート101の対応する位置(例えば両目の位置)の縦方向長さL11、横方向長さL12、高さ方向長さL13をそれぞれ取得する。そして、適合部13は、3Dテンプレート101の縦方向長さL11を顔画像3Dモデル102の縦方向長さL1に、3Dテンプレート101の横方向長さL12を顔画像3Dモデル102の横方向長さL2に、3Dテンプレート101の高さ方向長さL13を顔画像3Dモデル102の高さ方向長さL3に、それぞれ修正することで、3Dテンプレート101の大きさや形状を顔画像3Dモデル102の大きさや形状に近似した大きさや形状に変形させる。
Specifically, the matching
図6は、この実施の形態の適合部13が3Dテンプレート101に顔画像3Dモデル102の座標情報を適用して修正した状態を模式的に示した図である。同図の3Dテンプレート101は、図3に示す3Dテンプレート101の縦方向長さL11、横方向長さL12、高さ方向長さL13が顔画像3Dモデル102の縦方向長さL1、横方向長さL2、高さ方向長さL3に修正されることで、3Dテンプレート101の顔部分の大きさや形状が顔画像3Dモデル102の大きさや形状に近似したものとなっている。これにより、3Dテンプレート101に顔画像3Dモデル102の情報を適用しやすい状態が形成されることとなる。
FIG. 6 is a diagram schematically showing a state in which the
次いで、適合部13は、図6に示す修正した3Dテンプレート101に顔画像3Dモデル102の情報を適用する。
Next, the matching
具体的には、まず適合部13は、図7に模式的に示すように、3Dテンプレート101の顔の凹凸を、図6に示す顔画像3Dモデル102の顔の凹凸に合わせて変形させる。具体的には、3Dテンプレートの顔部分の画素等の、仮想空間内における上下方向(X方向)、左右方向(Y方向)、高さ方向(Z方向)の座標情報を取得し、取得した座標情報を3Dテンプレート101の対応する画素や対応する顔部分のパーツの座標情報に適用することで3Dテンプレート101の顔部分の凹凸を顔画像3Dモデルの凹凸に近い状態とする。
Specifically, first, as schematically shown in FIG. 7, the matching
この適合部13の処理は、具体的には、下記(処理01)~(処理03)に示す処理として行われる。
Specifically, the process of the adapting
(処理01)図6に示す3Dテンプレート101と両目の位置が重なるように、図4(又は図5)の顔画像3Dモデル102に対して拡大/縮小・平行移動を行う(なお、このときの、3Dテンプレート101と顔画像3Dモデル102とを重ねた状態の概念図については、図10を参照。)。
(Processing 01) Enlargement/reduction/parallel movement is performed on the face
(処理02)3Dテンプレート101の、ある1個の頂点を通過するZ軸(図7や図10の場合、水平方向)に平行な直線を考えて、顔画像3Dモデル102のポリゴンとの交点を探索する。交点が得られた場合には、その交点における3次元座標を求める。この処理を、3Dテンプレート101の前半分の頂点に対して行う。
(Processing 02) Considering a straight line parallel to the Z-axis (horizontal direction in the case of FIGS. 7 and 10) passing through one vertex of the
(処理03)上記(処理02)で得た交点の3次元座標によって、対応する3Dテンプレート101の頂点座標を更新する。
(Processing 03) Update the vertex coordinates of the
図7に、顔画像3Dモデル102の顔の凹凸に合わせて顔部分を変形させた3Dテンプレート101を模式的に示した状態を示している。この状態で、図7の(b)に示すように、3Dテンプレート101の側面から見た形状が、図6の(b)に示す状態から変化している。一方この状態で、図7の(a)に示す、3Dテンプレート101の正面から見た形状は図6の(a)に示す修正前の状態と変化していない。
FIG. 7 schematically shows a
次いで、適合部13は、3Dテンプレート101の顔のテクスチャ及びテクスチャ座標を更新する。具体的には、適合部13は、3Dテンプレート101の顔の部分に、顔画像3Dモデル102の目、眉毛、鼻、口、耳等のパーツの位置や大きさを一致させるように座標情報を修正する。また、適合部13は、3Dテンプレート101のそれぞれの画素に、顔画像3Dモデル102の画素ごと、あるいはパーツごとの色情報や明暗の情報や光沢の情報等を適用する。これにより、3Dテンプレート101が適合画像として生成される。
The matching
図8に、適合部13の処理によって3Dテンプレート101から適合画像103が生成された状態を模式的に示す。同図に示すように、適合画像103の顔部分には、顔画像3Dモデル102の顔部分の目、眉毛、鼻、口、耳等の位置や大きさや形状や凹凸の状態、さらには肌部分も含めた色や陰影や光沢の状態が適用された状態となっている。すなわち、適合画像103は、完成した3Dアバター109とほぼ同一の状態にて生成されている。
FIG. 8 schematically shows a state in which the
[ステップS4:画像修正手順]
ここで、ステップS3までの処理によって生成された適合画像103は、いわゆるポリゴン反転等が発生する場合がある。画像修正部14は、このポリゴン反転等によって発生した適合画像103の視覚的な違和感を修正する。
[Step S4: Image Correction Procedure]
Here, the
図9に、ステップS3までの処理によって生成された適合画像103の一部にポリゴン反転が発生した状態を模式的に示す。図9に示す適合画像103は、矢印で示す右頬の部分の付近で、ポリゴンの一部が正面方向に突き出た状態の反転部分104が形成されている。
FIG. 9 schematically shows a state in which polygon inversion has occurred in part of the
この、ポリゴン反転による反転部分104の発生は、上記の(処理02)と(処理03)とにおいて、3Dテンプレート101の頂点と、対応する顔画像3Dモデル102上の点との、相対的な配置によって発生する。
The generation of the
たとえば、図10に模式的に示すように、3Dテンプレート101の目105の位置と、顔画像3Dモデル102の目106の位置が3次元的に一致するように変換する場合を考える。
For example, as schematically shown in FIG. 10, consider a case where the positions of the
この場合、図11の(a)に模式的に示すように、3Dテンプレート101の目105の位置と、顔画像3Dモデル102の目106の位置とを一致させることで、3Dテンプレート101の顔の正面部分の座標がZ方向(図11の(a)(b)における上下方向)の下方向(図11の(a)(b)における下方向)に移動する。その結果、図11の(b)に示すように、3Dテンプレート101のZ方向への移動が行われた領域107(すなわち、上記(処理02)(処理03)において頂点座標が更新された結果、特定の領域107aが、Z方向への移動が行われた領域107とされた部分のこと。)と行われなかった部分(すなわち、上記(処理02)(処理03)において頂点座標が更新されなかった領域のこと。)の境界部分に、ポリゴン反転による反転部分104が、Z方向の上方向(図11の(a)(b)における上方向)の突起状の形状として発生することとなる。
In this case, as schematically shown in FIG. 11A, by matching the positions of the
このような適合画像103の反転部分104を除去するため、本実施形態の画像修正部14は、以下に示す処理を行う。この処理を、図12に模式的に示す。
In order to remove such a reversed
具体的には、図12に模式的に示すように、画像修正部14は、適合画像103の上記(処理02)(処理03)において頂点座標が更新されなかった領域108の画素等の頂点群を、相対的にZ方向の下方向(図12における下方向)に移動させる。図12においては、領域107の頂点群を移動させる部分の移動方向を矢印で模式的に示している。
Specifically, as schematically shown in FIG. 12, the
このとき、領域108に属する画素等のそれぞれの頂点をどれだけZ方向に平行移動させるのかは、適合画像103の上記(処理02)(処理03)において頂点座標が更新された領域107(図11参照)の頂点群の変化量(図11の矢印参照)の空間的な分布などを元に、頂点ごとに計算を行う。
At this time, how much each vertex of the pixels belonging to the
画像修正部14のこのような処理により、適合画像103の反転部分104は除去されて、3Dアバター109が生成される。
Through such processing by the
図13の(a)に、反転部分104が発生している適合画像103を模式的に示した図、図13の(b)に、画像修正部14の処理によって反転部分が除去されて3Dアバター109が生成された状態を模式的に示した図をそれぞれ示す。図13の(a)に示す、ポリゴン反転が発生して頬の部分に(同図の右方向に)突起状に突出した反転部分104は、領域107の頂点群を、領域108の頂点群に対して相対的にZ方向の下方向(図13の(a)(b)の左方向)に移動させることにより、図13の(b)に示すように除去される。そして、図13の(a)の反転部分104のあった箇所は、図13の(b)に示す元反転部分110のように、平滑化された、自然な印象の画像となっている。
FIG. 13(a) schematically shows a
なお、上記の事例では、反転部分104は突起状の形状として形成されているが、反転部分は、(突起状等の形状の有無にかかわらず)領域107と領域108の色彩や陰影等の違いとして形成される場合もある。この場合、画像修正部14は、領域107の色彩を領域108の色彩や陰影等に一致させる処理を行う等の処理を行うことで、自然な印象の画像としての3Dアバター109を生成する。
In the above example, the reversed
なお、図13の(b)に示す3Dアバター109は、頭部のみで、毛髪を有しない状態として生成されているが、画像生成装置1は、この3Dアバター109に、さらに毛髪を付加したり、頭部以外の身体部分(例えば上半身や身体全部)を付加することでアバター109を生成することもできる。また、適合画像103に反転部分104が発生していない場合は、ステップS4の処理を省略し、適合画像103をそのままアバター109とすることもできる。
The
[ステップS5:3Dアバター生成]
このようにして、本実施形態の画像生成装置1は、利用者2の顔の3Dアバター109を生成する。生成された3Dアバター109は、データベース15に記録されたり、生成を要求した利用者(例えば利用者21)の使用する端末(例えば端末31)に送信されて、その利用者(例えば利用者21)がバーチャル空間でのコミュニケーションやゲーム等に利用することが可能となる。
[Step S5: Generate 3D avatar]
In this manner, the image generation device 1 of this embodiment generates the
[作用効果]
以上、この実施の形態においては、利用者2の3Dアバター109を生成するにあたって、3Dテンプレート101に、利用者2の2D画像に3次元方向の位置情報を加えた顔画像3Dモデル102を適合させた適合画像103を生成することで、現実の利用者2の視覚的な特徴を反映させた、現実の利用者2に似た3Dアバター109を生成できる。また、適合画像103に視覚上の違和感を生じさせる反転部分104不整合が生じている場合に、適合画像103の少なくとも一部である領域107にZ方向の位置情報の変更を加えて不整合の修正を施した3Dアバター109を生成することにより、利用者2の視覚的な特徴を3Dテンプレート101に反映させる際に発生する視覚的な違和感を自動的に抑止し、現実の利用者2によりよく似た3Dアバター109を生成することができる。これにより、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dアバター109を生成できる。
[Effect]
As described above, in this embodiment, when generating the
この実施の形態においては、適合画像103上の連続した面に発生した、領域107と領域108の色の不連続を修正する処理を適切に行い、色の不連続による視覚的な差異や不要な構成の発生を抑止できる。
In this embodiment, processing is appropriately performed to correct color discontinuity between the
この実施の形態においては、3Dテンプレート101と該3Dテンプレート101に適合させた顔画像3Dモデル102との境界部分に発生する反転部分104にZ方向の凹凸を修正する処理を行うことにより、コンピュータの演算処理によって、視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。
In this embodiment, by performing a process of correcting unevenness in the Z direction in the reversed
この実施の形態においては、3Dテンプレート101に対し、顔画像3Dモデル102が適合された顔画像3Dモデル102と3Dテンプレート101全体との相対的なZ方向の位置を修正する処理を行うことにより、顔画像3Dモデル102と3Dテンプレート101との境界部分に発生しうる視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。
In this embodiment, the
この実施の形態においては、人体頭部の3Dテンプレート101に、利用者2の顔画像としての2D画像を用いて3Dアバター109を生成する際に、視覚的な差異や不要な構成の発生を抑止できる。
In this embodiment, when generating a
[備考]
なお、この実施の形態においては学習済みの画像3Dモデル生成部12に含まれる推論装置に2D画像を入力し、3D画像を得、更に3D画像のデータに基づいて3Dテンプレートを変形し、その後、3Dテンプレートに顔画像3Dモデルのデータを適用した例を説明したが、推論装置に2D画像を入力して3Dテンプレートを変形させ、変形後の3Dテンプレートに3D画像を貼りつけることで顔画像3Dモデルを生成しても良い。
[remarks]
In this embodiment, a 2D image is input to an inference device included in the trained image 3D
また、3Dテンプレート101は単一のものを用いても良いし、あるいは人種、性別毎等、顔の特徴毎に複数のテンプレートを用意しておき、取得した2D画像に応じて最適な3Dテンプレート101を選択して利用するようにしても良い。更に複数の3Dテンプレートを準備する場合、例えば、アジア人、欧米人の顔画像を機械学習等で学習させ、人種、性別、年齢に応じた顔の特徴(鼻の高さ、眉弓と眼球との位置関係等)を学習し、最適な3Dテンプレートを選択したり、最適となるよう3Dテンプレート或いは顔画像3Dモデルを変形させたりしても良い。
A
また、この実施の形態において、画像生成装置1が生成する3Dアバター109は利用者2の顔として生成したが、これのみに限定されず、利用者2の顔以外の身体部分(例えば手、足、上半身全体、全身等)について生成することもできるし、利用者2以外の人物の3Dアバターを生成することも可能である。
In this embodiment, the
また、この実施の形態において、画像生成装置1は、人間以外の生物、例えば犬や猫等のペットや野生の動物や昆虫や植物等についての3Dアバターを生成することもできるし、生物以外、例えば自動車や電車等の交通機関、建築物等の3Dアバターを生成することも可能である。 Further, in this embodiment, the image generation device 1 can generate 3D avatars of creatures other than humans, such as pets such as dogs and cats, wild animals, insects, and plants. For example, it is possible to generate 3D avatars of transportation facilities such as automobiles and trains, and buildings.
また、この実施の形態の画像生成装置1は、クライアント・サーバシステムのサーバシステムとして構成し、全ての機能手段がサーバ側に存在する構成としたが、画像生成装置の符号11~15に示す機能手段のうちの少なくとも一部が端末3側に存在する構成であってもよい。また、画像生成装置1はネットワーク4に接続されないスタンドアロンのコンピュータにおいて構成することも可能である。 Further, the image generation apparatus 1 of this embodiment is configured as a server system of a client-server system, and all the functional means exist on the server side. At least part of the means may be configured to exist on the terminal 3 side. Also, the image generating apparatus 1 can be configured in a stand-alone computer that is not connected to the network 4. FIG.
なお、上記各実施の形態は本発明の例示であり、本発明が上記各実施の形態のみに限定されるものではないことは、いうまでもない。 It goes without saying that the above embodiments are examples of the present invention, and the present invention is not limited only to the above embodiments.
1・・・画像生成装置
2,21,22,・・・2m・・・利用者(生物)
11・・・画像取得部(画像取得手段)
12・・・顔画像3Dモデル生成部(生物3Dモデル生成手段)
13・・・適合部(適合手段)
14・・・画像修正部(画像生成手段)
101・・・3Dテンプレート
102・・・顔画像3Dモデル(生物3Dモデル)
103・・・適合画像
104・・・反転部分(所定の不整合)
109,1091,1092,・・・109k・・・3Dアバター(生物の3D画像、修正画像、3Dキャラクタ)
1... Image generation device 2, 2 1 , 2 2 ,... 2 m ... User (living creature)
11 image acquisition unit (image acquisition means)
12 Face image 3D model generation unit (biological 3D model generation means)
13 ... fitting part (fitting means)
14 image correction unit (image generation means)
101: 3D template 102: 3D face image model (3D biological model)
103
109, 109 1 , 109 2 , ... 109 k ... 3D avatar (3D image of creature, modified image, 3D character)
Claims (7)
記録された前記3Dテンプレートと前記2D画像とを取得する画像取得手段と、
前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルを生成する生物3Dモデル生成手段と、
前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像を生成する適合手段と、
前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像を生成する画像修正手段とを備えたことを特徴とする画像生成装置。 An image generation device for generating a 3D image of a living organism by applying a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information,
an image acquisition means for acquiring the recorded 3D template and the 2D image;
3D organism model generating means for generating a 3D organism model as a 3D image by adding positional information in three-dimensional directions to the 2D image of the organism;
fitting means for generating a fitted image by fitting the 3D biological model to the 3D template using the position information of the 3D biological model;
When a predetermined mismatch that causes a visual discomfort occurs in the matching image, the mismatch is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. and image correction means for generating a corrected image.
前記生物の2D画像は人物の顔画像であり、
前記修正画像は前記人物の顔画像を用いて生成した3Dアバターであることを特徴とする請求項1乃至4の何れか一つに記載の画像生成装置。 The 3D template is a human head,
the 2D image of the organism is a face image of a person;
5. The image generating apparatus according to claim 1, wherein the modified image is a 3D avatar generated using the facial image of the person.
記録された前記3Dテンプレートと前記2D画像とが取得される画像取得手順と、
前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルが生成される生物3Dモデル生成手順と、
前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像が生成される適合手順と、
前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像が生成される画像修正手順とを備えたことを特徴とする、画像生成装置における画像生成方法。 Image generation in an image generation device for generating a 3D image of a living organism by applying a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information a method,
an image acquisition procedure in which the recorded 3D template and the 2D image are acquired;
a biological 3D model generation procedure for generating a biological 3D model as a 3D image by adding positional information in three-dimensional directions to the biological 2D image;
a fitting step in which a fitted image is generated by fitting the 3D biological model to the 3D template using the position information of the 3D biological model;
When a predetermined mismatch that causes a visual discomfort occurs in the matching image, the mismatch is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. and an image modification procedure for generating a modified image.
A program that causes a computer to function as the image generating apparatus according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021069853A JP2022164390A (en) | 2021-04-16 | 2021-04-16 | Image generation apparatus, image generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021069853A JP2022164390A (en) | 2021-04-16 | 2021-04-16 | Image generation apparatus, image generation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022164390A true JP2022164390A (en) | 2022-10-27 |
Family
ID=83743009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021069853A Pending JP2022164390A (en) | 2021-04-16 | 2021-04-16 | Image generation apparatus, image generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022164390A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078646A (en) * | 2003-08-29 | 2005-03-24 | Samsung Electronics Co Ltd | Photorealistic three-dimensional face modeling method and apparatus based on video |
JP2013008137A (en) * | 2011-06-23 | 2013-01-10 | Tokyo Univ Of Agriculture & Technology | Data transmission device for three-dimensional shape modeling, data reception device for three-dimensional shape modeling, three-dimensional shape modeling system, data transmission program for three-dimensional shape modeling, and data reception program for three-dimensional shape modeling |
WO2021071995A1 (en) * | 2019-10-07 | 2021-04-15 | Boston Polarimetrics, Inc. | Systems and methods for surface normals sensing with polarization |
-
2021
- 2021-04-16 JP JP2021069853A patent/JP2022164390A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078646A (en) * | 2003-08-29 | 2005-03-24 | Samsung Electronics Co Ltd | Photorealistic three-dimensional face modeling method and apparatus based on video |
JP2013008137A (en) * | 2011-06-23 | 2013-01-10 | Tokyo Univ Of Agriculture & Technology | Data transmission device for three-dimensional shape modeling, data reception device for three-dimensional shape modeling, three-dimensional shape modeling system, data transmission program for three-dimensional shape modeling, and data reception program for three-dimensional shape modeling |
WO2021071995A1 (en) * | 2019-10-07 | 2021-04-15 | Boston Polarimetrics, Inc. | Systems and methods for surface normals sensing with polarization |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12054227B2 (en) | Matching meshes for virtual avatars | |
US11868515B2 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
JP4733318B2 (en) | Method and system for animating facial features and method and system for facial expression transformation | |
JP4932951B2 (en) | Facial image processing method and system | |
US11557076B2 (en) | Computer generated hair groom transfer tool | |
US7116330B2 (en) | Approximating motion using a three-dimensional model | |
JP3288353B2 (en) | How to create a 3D face model starting from a face image | |
CN106023288B (en) | An Image-Based Dynamic Stand-In Construction Method | |
KR20180090746A (en) | Apparatus and method to generate realistic rigged three dimensional (3d) model animation for view-point transform | |
US11403800B1 (en) | Image generation from 3D model using neural network | |
CN106952336B (en) | Feature-preserving human three-dimensional head portrait production method | |
JP4842242B2 (en) | Method and apparatus for real-time expression of skin wrinkles during character animation | |
JP6818219B1 (en) | 3D avatar generator, 3D avatar generation method and 3D avatar generation program | |
US11282282B2 (en) | Virtual and physical reality integration | |
CN114998514B (en) | Method and device for generating virtual characters | |
Lee et al. | Cloning and Aging in a VR Family | |
EP3980975B1 (en) | Method of inferring microdetail on skin animation | |
US20240169635A1 (en) | Systems and Methods for Anatomically-Driven 3D Facial Animation | |
JP2022164390A (en) | Image generation apparatus, image generation method, and program | |
JP2739447B2 (en) | 3D image generator capable of expressing wrinkles | |
Hou et al. | Real-time markerless facial motion capture of personalized 3D real human research | |
Nendya et al. | Facial rigging for 3d character | |
Zhao et al. | 3D Facial Model Reconstruction and Expression Generation Based on Dirichlet free-form Deformations Algorithm | |
JP2023044195A (en) | Three-dimensional avatar generation device, three-dimensional avatar generation method, and three-dimensional avatar generation program | |
CN119027212A (en) | Image acquisition method, device and related equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230829 |