[go: up one dir, main page]

JP2022164390A - Image generation apparatus, image generation method, and program - Google Patents

Image generation apparatus, image generation method, and program Download PDF

Info

Publication number
JP2022164390A
JP2022164390A JP2021069853A JP2021069853A JP2022164390A JP 2022164390 A JP2022164390 A JP 2022164390A JP 2021069853 A JP2021069853 A JP 2021069853A JP 2021069853 A JP2021069853 A JP 2021069853A JP 2022164390 A JP2022164390 A JP 2022164390A
Authority
JP
Japan
Prior art keywords
image
model
template
generating
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021069853A
Other languages
Japanese (ja)
Inventor
知也 黒丸
Tomoya Kuromaru
良祐 朝原
Ryosuke Asahara
誠吾 岩崎
Seigo Iwasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ax Inc
Original Assignee
Ax Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ax Inc filed Critical Ax Inc
Priority to JP2021069853A priority Critical patent/JP2022164390A/en
Publication of JP2022164390A publication Critical patent/JP2022164390A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide an image generation apparatus, and the like, configured to suppress generation of visual differences or unnecessary configuration to generate a three-dimensional avatar which looks natural.SOLUTION: An image generation apparatus 1 which generates 3D avatars of users 21, 22, ... 2m by applying a 2D image to a 3D template serving as an image template of a 3D model includes: an image acquisition unit 11 which acquires a recorded 3D template and a 2D image; a face image 3D model generation unit 12 which generates a face image 3D model which is a 3D image obtained by adding position information in three-dimensional direction to 2D images of the users 21, 22, ... 2m; an adaptation unit 13 which generates an adapted image by adapting the face image 3D model to the 3D template using the position information of the face image 3D model; and an image correction unit 14 which generates, when predetermined mismatch that causes visual mismatch is generated in the adapted image, a 3D avatar by modifying the position information in three-dimensional direction in at least a part of the adapted image to correct the mismatch.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り コンピュータエンターテインメントデベロッパーズカンファレンス2020(CEDEC2020)のオンラインセッション(下記URL参照)。( http://cedec.cesa.or.jp/2020/session/detail/s5efaec5355159.html )There is an application for application of Article 30, Paragraph 2 of the Patent Act Online session of Computer Entertainment Developers Conference 2020 (CEDEC2020) (see URL below). (http://cedec.cesa.or.jp/2020/session/detail/s5efaec5355159.html)

本発明は、コンピュータグラフィックスを用いて、人物等の生物の2次元画像(2D画像)を3次元モデルに適用した3次元画像(3D画像)を作成する技術に関する。 The present invention relates to a technique for creating a three-dimensional image (3D image) by applying a two-dimensional image (2D image) of a creature such as a person to a three-dimensional model using computer graphics.

近年、コンピュータグラフィックスを用いた画像生成技術に代表される、各種の画像処理技術の発達に伴い、3次元空間内の仮想的な立体物を2次元空間の画像上で奥行きのある立体的な画像として表した3D画像(以下単に「3D画像」と称する。)の生成技術が発達している。それに伴い、人物に代表される生物の3D画像をアニメーションとして生成し、動きのある3D画像として画面に表示させる技術が発達している。代表的なものとして、Web上のコミュニティや仮想都市等のバーチャル空間で、コンピュータ端末や通信端末の利用者の分身として活動するキャラクタとしてのアバター(以下単に「アバター」と称する。)を3D画像による3Dアバター(以下単に「3Dアバター」と称する。)として自動生成する技術が発達し普及している。 In recent years, with the development of various image processing technologies, represented by image generation technology using computer graphics, it has become possible to transform a virtual three-dimensional object in three-dimensional space into a three-dimensional image with depth on a two-dimensional image. Techniques for generating 3D images represented as images (hereinafter simply referred to as "3D images") have been developed. Along with this, a technology has been developed for generating a 3D image of a creature represented by a person as an animation and displaying it on a screen as a moving 3D image. As a representative example, avatars (hereinafter simply referred to as "avatars") as characters acting as alter ego of users of computer terminals and communication terminals in virtual spaces such as communities on the Web and virtual cities are created using 3D images. A technique for automatically generating 3D avatars (hereinafter simply referred to as "3D avatars") has been developed and spread.

この、3Dアバターに代表される、人物等の生物を3D画像として生成する際は、現実の人物等、現実の生物に似た画像として生成することが重要となる。そのため、従来、3Dアバター等に代表されるキャラクタである3Dキャラクタ(以下単に「3Dキャラクタ」と称する。)を、現実の人物等、現実の生物の顔や姿の画像を用いて3Dアバター等の3Dキャラクタの画像を生成するための技術が知られている。 When generating a 3D image of a living thing such as a person represented by a 3D avatar, it is important to generate an image that resembles a real living thing such as a real person. Therefore, conventionally, a 3D character (hereinafter simply referred to as a "3D character"), which is a character represented by a 3D avatar, etc., is transformed into a 3D avatar, etc. using an image of the face or appearance of a real creature such as a real person. Techniques for generating images of 3D characters are known.

例えば、顔メッシュシーケンスを決定するステップと、顔画像にはめ込んだ顔メッシュを変形するステップと、顔メッシュの頂点と顔メッシュの頂点との変位値を決定するステップと、顔画像をテクスチャとして顔メッシュ上へ投影するステップと、顔メッシュシーケンスにおける後続する顔メッシュの頂点に変位値を加えるステップと、顔メッシュシーケンスを再生して、顔画像の顔アニメーションを作成するステップと、を含む、顔アニメーションを作成する装置によって実行される方法に関する技術が知られている(例えば、特許文献1参照)。 For example, a step of determining a face mesh sequence, a step of deforming the face mesh embedded in the face image, a step of determining displacement values between the vertices of the face mesh and the vertices of the face mesh, and using the face image as a texture to generate the face mesh a facial animation comprising: projecting upward; applying displacement values to vertices of subsequent facial meshes in the facial mesh sequence; and playing the facial mesh sequence to create a facial animation of the facial images. A technique related to a method executed by a device for creating is known (see, for example, Patent Literature 1).

特許第4872135号公報Japanese Patent No. 4872135

ここで、現実の生物の顔や姿の画像を用いて3Dキャラクタの画像を生成する場合、生物の頭部等の身体の一部の形状や、身体全体の形状を抽象的な3次元のモデルとして画像を形成した3Dモデル(以下単に「3Dモデル」と称する。)に現実の生物の体の一部(例えば顔)の2次元方向の広がりのみを有する2D画像(以下単に「2D画像」と称する。)を適用する処理を行って、現実の人物に似た形状の3Dキャラクタを生成することが多い。このような方法で3Dキャラクタを生成すると、2D画像を適用した部分と3Dモデルがそのまま表面に現れた部分との境界部分に不自然な色の違いや凹凸のような、視覚的な差異や不要な構成等を生じさせてしまうことが多い。しかし、上記特許文献1に記載の発明においては、このような視覚的な差異や不要な構成の発生を抑止するための構成が存在しない。そのため、上記特許文献1に記載の発明においては、生成された3Dキャラクタが不自然な印象を与えるものとして構成されることを抑止できないという問題がある。 Here, when generating a 3D character image using an image of the face or figure of a real creature, an abstract three-dimensional model of the shape of a part of the body such as the head of the creature or the shape of the entire body is used. A 2D image (hereinafter simply referred to as "2D image") having only a two-dimensional spread of a part of the body of a real living creature (for example, a face) in a 3D model (hereinafter simply referred to as "3D model") that forms an image as ) is often performed to generate a 3D character with a shape resembling a real person. When a 3D character is generated by such a method, visual differences and unnecessary visual differences such as unnatural color differences and irregularities appear at the boundary between the part to which the 2D image is applied and the part where the 3D model appears as it is on the surface. configuration, etc. However, in the invention described in Patent Document 1, there is no configuration for suppressing the occurrence of such a visual difference or unnecessary configuration. Therefore, in the invention described in Patent Document 1, there is a problem that it is not possible to prevent the generated 3D character from being configured as something that gives an unnatural impression.

本発明はこのような課題に鑑みてなされたものであり、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dキャラクタを生成できる画像生成装置、画像生成方法、プログラムを提供することを課題としている。 The present invention has been made in view of such problems, and provides an image generation apparatus, an image generation method, and a program that can generate a 3D character that suppresses the occurrence of visual differences and unnecessary configurations and gives a natural impression. The challenge is to provide

かかる課題を解決するため、請求項1に記載の発明は、3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像を生成する画像生成装置であって、記録された前記3Dテンプレートと前記2D画像とを取得する画像取得手段と、前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルを生成する生物3Dモデル生成手段と、前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像を生成する適合手段と、前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像を生成する画像修正手段とを備えたことを特徴とする。 In order to solve this problem, the invention according to claim 1 applies a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information. an image generating device for generating a 3D image of a living organism, comprising: image acquisition means for acquiring the recorded 3D template and the 2D image; and adding position information in three-dimensional directions to the 2D image of the living organism. 3D organism model generating means for generating a 3D organism model as a 3D image using the position information of the 3D organism model, and fitting means for generating a matched image by fitting the 3D organism model to the 3D template using the position information of the 3D organism model and correcting the inconsistency by changing the positional information in the three-dimensional direction to at least a part of the matching image when the matching image has a predetermined mismatch that causes a visual discomfort. and image correction means for generating a modified image.

請求項2に記載の発明は、請求項1に記載の構成に加え、前記画像修正手段は、前記修正画像の連続した面に色の不連続が生じている箇所に前記不整合の修正を行うことで前記色の不連続を修正する処理を行うことを特徴とする。 According to a second aspect of the invention, in addition to the configuration of the first aspect, the image correcting means corrects the inconsistency in a portion where color discontinuity occurs in the continuous planes of the corrected image. It is characterized in that a process for correcting the color discontinuity is performed.

請求項3に記載の発明は、請求項1又は2に記載の構成に加え、前記画像修正手段は、前記適合画像における、前記3Dテンプレートと該3Dテンプレートに適合させた前記生物3Dモデルとの境界部分に発生するZ方向の凹凸を修正する処理を行うことを特徴とする。 The invention according to claim 3 is characterized in that, in addition to the configuration according to claim 1 or 2, the image correction means is configured to: It is characterized by performing processing for correcting unevenness in the Z direction that occurs in the portion.

請求項4に記載の発明は、請求項3に記載の構成に加え、前記画像修正手段は、前記生物3Dモデルに対し、該生物3Dモデルが適合された前記3Dテンプレート全体との相対的な前記Z方向の位置を修正する処理を行うことを特徴とする。 The invention according to claim 4 is characterized in that, in addition to the configuration according to claim 3, the image correcting means is configured to: It is characterized by performing processing for correcting the position in the Z direction.

請求項5に記載の発明は、請求項1乃至4の何れか一つに記載の構成に加え、前記3Dテンプレートは人体頭部であり、前記生物の2D画像は人物の顔画像であり、前記修正画像は前記人物の顔画像を用いて生成した3Dアバターであることを特徴とする。 The invention according to claim 5 is, in addition to the configuration according to any one of claims 1 to 4, the 3D template is a human head, the 2D image of the creature is a face image of a person, and the The corrected image is a 3D avatar generated using the face image of the person.

請求項6に記載の発明は、3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像を生成させる、画像生成装置における画像生成方法であって、記録された前記3Dテンプレートと前記2D画像とが取得される画像取得手順と、前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルが生成される生物3Dモデル生成手順と、前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像が生成される適合手順と、前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像が生成される画像修正手順とを備えたことを特徴とする。 The invention according to claim 6 applies a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information to obtain a 3D image of a living organism. An image generation method in an image generation device, comprising: an image acquisition procedure for acquiring the recorded 3D template and the 2D image; A biological 3D model generation procedure for generating a biological 3D model as a 3D image, and a fitting procedure for generating a adapted image by fitting the biological 3D model to the 3D template using the position information of the biological 3D model. and, when a predetermined mismatch that causes a visual discomfort occurs in the matching image, the mismatch is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. and an image correction procedure for generating the corrected image.

請求項7に記載の発明は、プログラムであって、コンピュータを前記請求項1乃至5の何れか一つに記載の画像生成装置として機能させることを特徴とする。 According to a seventh aspect of the present invention, there is provided a program for causing a computer to function as the image generating apparatus according to any one of the first to fifth aspects.

請求項1、請求項6に記載の発明によれば、生物の3D画像を生成するにあたって、3Dテンプレートに、生物の2D画像に3次元方向の位置情報を加えた生物3Dモデルを適合させた適合画像を生成することで、現実の生物の視覚的な特徴を反映させた、現実の生物に似た3D画像を生成できる。また、適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、適合画像の少なくとも一部に3次元方向の位置情報の変更を加えて不整合の修正を施した修正画像を生成することにより、生物の視覚的な特徴を3Dテンプレートに反映させる際に発生する視覚的な違和感を自動的に抑止し、現実の生物によりよく似た3D画像を生成することができる。これにより、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dキャラクタを生成できる。 According to the inventions of claims 1 and 6, in generating a 3D image of a living organism, a 3D template is adapted to a 3D living organism model obtained by adding positional information in three-dimensional directions to a 2D image of the living organism. By generating an image, it is possible to generate a 3D image resembling a real creature that reflects the visual characteristics of the real creature. Further, when a predetermined inconsistency that causes visual discomfort occurs in the matching image, a corrected image in which the inconsistency is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. By generating , it is possible to automatically suppress the visual discomfort that occurs when reflecting the visual characteristics of living things on a 3D template, and to generate a 3D image that more closely resembles a real living thing. As a result, a 3D character that gives a natural impression can be generated by suppressing the occurrence of visual differences and unnecessary configurations.

請求項2に記載の発明によれば、3D画像上の連続した面に発生した色の不連続を修正する処理を適切に行い、色の不連続による視覚的な差異や不要な構成の発生を抑止できる。 According to the second aspect of the invention, the process of correcting color discontinuity occurring on a continuous plane on a 3D image is appropriately performed, and visual differences due to color discontinuity and generation of unnecessary configurations are prevented. can be suppressed.

請求項3に記載の発明によれば、3Dテンプレートと該3Dテンプレートに適合させた生物3Dモデルとの境界部分に発生するZ方向の凹凸を修正する処理を行うことにより、コンピュータの演算処理によって、視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。 According to the third aspect of the invention, by performing processing for correcting unevenness in the Z direction that occurs at the boundary between the 3D template and the 3D biological model adapted to the 3D template, the computational processing of the computer, It is possible to realize a specific configuration that automatically suppresses the occurrence of visual differences and unnecessary configurations.

請求項4に記載の発明によれば、生物3Dモデルに対し、該生物3Dモデルが適合された3Dテンプレート全体との相対的なZ方向の位置を修正する処理を行うことにより、生物3Dモデルと3Dテンプレートとの境界部分に発生しうる視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。 According to the fourth aspect of the present invention, the 3D organism model is corrected in the Z direction relative to the entire 3D template to which the 3D organism model is fitted, so that the 3D organism model and the In a specific configuration, it is possible to automatically suppress the occurrence of visual differences and unnecessary configurations that may occur at the boundary between the 3D template and the 3D template.

請求項5に記載の発明によれば、人体頭部の3Dテンプレートに、人物の顔画像としての2D画像を用いて3Dアバターを生成する際に、視覚的な差異や不要な構成の発生を抑止できる。 According to the fifth aspect of the invention, when generating a 3D avatar using a 2D image as a face image of a person in the 3D template of the human head, the occurrence of visual differences and unnecessary configurations is suppressed. can.

請求項7に記載の発明によれば、本発明をプログラムとして構成することで、多様なコンピュータハードウェアに本発明を実装して、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dキャラクタを生成できる。 According to the invention of claim 7, by configuring the present invention as a program, the present invention can be implemented in various computer hardware, suppressing the occurrence of visual differences and unnecessary configurations, and naturally Impressive 3D characters can be generated.

この実施の形態に係る画像生成システム及び画像生成装置のシステム構成図及び機能ブロック図である。1A and 1B are a system configuration diagram and a functional block diagram of an image generation system and an image generation device according to this embodiment; FIG. この実施の形態に係る画像生成装置の処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure of the image generating device according to this embodiment; この実施の形態に係る画像生成装置の3Dテンプレートを、(a)正面方向から表示した状態、(b)右側面側から表示した状態を模式的に示した図である。3A and 3B are diagrams schematically showing the 3D template of the image generating device according to this embodiment when (a) it is displayed from the front and (b) it is displayed from the right side; この実施の形態において、顔画像3Dモデルを、(a)正面方向から表示した状態、(b)右側面側から表示した状態を模式的に示した図である。In this embodiment, the face image 3D model is a diagram schematically showing (a) a state displayed from the front and (b) a state displayed from the right side. この実施の形態において、顔画像3Dモデルに所定の修正を行った状態を、(a)正面方向から表示した状態、(b)右側面側から表示した状態を模式的に示した図である。In this embodiment, it is a diagram schematically showing a state in which the face image 3D model has undergone a predetermined correction, (a) displayed from the front, and (b) displayed from the right side. この実施の形態において、3Dテンプレートに顔画像3Dモデルの座標情報を適用して修正した状態を模式的に示した図である。In this embodiment, it is a figure which showed typically the state corrected by applying the coordinate information of the face image 3D model to the 3D template. この実施の形態において、3Dテンプレートを画像3Dモデルの顔の凹凸に合わせて変形させた状態を模式的に示した図である。In this embodiment, it is a figure which showed typically the state which deform|transformed the 3D template according to the unevenness|corrugation of the face of the image 3D model. この実施の形態において、3Dテンプレートから適合画像が生成された状態を模式的に示した図である。FIG. 4 is a diagram schematically showing a state in which a suitable image is generated from a 3D template in this embodiment; この実施の形態において、適合画像の一部にポリゴン反転が発生した状態を模式的に示した図である。FIG. 10 is a diagram schematically showing a state in which polygon inversion has occurred in a portion of the matching image in this embodiment; この実施の形態において、3Dテンプレートの目の位置と、顔画像3Dモデルの目の位置が3次元的に一致するように変換した状態を模式的に示した図である。In this embodiment, it is a diagram schematically showing a state in which the positions of the eyes of the 3D template and the positions of the eyes of the face image 3D model are transformed so as to match three-dimensionally. この実施の形態において、(a)3Dテンプレートの顔の正面部分の座標がZ方向に移動する前後の状態を模式的に示した図、(b)移動が行われた結果、ポリゴン反転による反転部分が発生した状態を模式的に示した図である。In this embodiment, (a) diagrams schematically showing the states before and after the coordinates of the front portion of the face of the 3D template are moved in the Z direction, (b) the inverted portion due to polygon inversion as a result of the movement is a diagram schematically showing a state in which is generated. この実施の形態において、ポリゴン反転による反転部分が解消された状態を模式的に示した図である。FIG. 10 is a diagram schematically showing a state in which a reversed portion due to polygon reversal is eliminated in this embodiment; この実施の形態において、(a)適合画像にポリゴン反転による反転部分が発生した状態、(b)反転部分を修正して3Dアバターが生成された状態、を模式的に示した図である。FIG. 4 is a diagram schematically showing (a) a state in which a reversed portion due to polygon inversion is generated in a suitable image, and (b) a state in which a 3D avatar is generated by correcting the reversed portion in this embodiment.

以下、この発明の一実施の形態について図面を参酌して説明する。 An embodiment of the present invention will be described below with reference to the drawings.

[全体構成]
図1はこの実施の形態に係る画像生成システム及び画像生成装置のシステム構成図及び機能ブロック図である。
[overall structure]
FIG. 1 is a system configuration diagram and a functional block diagram of an image generation system and an image generation device according to this embodiment.

同図に示す、この実施の形態の画像生成システム1Aは、この実施の形態の画像生成装置1と、m人(m≧1)の「生物」としての利用者2,2,・・・2が使用するn台(n≧1)の端末3,3,・・・3がネットワーク4によって通信可能に接続されたクライアント・サーバシステムとして構成されている。 The image generation system 1A of this embodiment shown in FIG . . . , 3 n (n≧1) used by 2 m are configured as a client/server system in which n terminals 3 1 , 3 2 , . . .

画像生成装置1の詳細は後述する。利用者2,2,・・・2は、この実施の形態において生成される3Dアバターの利用者であり、それぞれが所持する端末3,3,・・・3を操作して3Dアバターを生成する。利用者2,2,・・・2は、生成した3Dアバターを、ネットワーク4に形成されたSNS等のバーチャルコミュニケーション空間やバーチャルモール、ネットワークゲームの登場人物等として利用する。 The details of the image generation device 1 will be described later. Users 2 1 , 2 2 , . to generate a 3D avatar. Users 2 1 , 2 2 , . . . 2 m use the generated 3D avatars as characters in virtual communication spaces such as SNS, virtual malls, and network games formed on the network 4 .

端末3,3,・・・3は、利用者2,2,・・・2によって1台乃至複数台所持され、使用される。端末3,3,・・・3は、パーソナル・コンピュータ、スマートフォン、タブレット、携帯電話端末等、演算処理によるデータ等の処理機能とネットワーク4を介したデータや信号の送受信機能とを有する。端末3,3,・・・3は、それぞれ、マウスやキーボード等、利用者2,2,・・・2がデータや各種命令等を入力する、図1に示す操作手段33と、LCD等、文字や画像を表示する、図1に示す表示手段32とを備えるが、図1に示すタッチパネル31等、操作手段と表示手段が一体化したものであってもよい。 One or a plurality of terminals 3 1 , 3 2 , . . . 3 n are possessed and used by users 2 1 , 2 2 , . Terminals 3 1 , 3 2 , . . Terminals 3 1 , 3 2 , . . . 3 n are operating means shown in FIG. 33 and display means 32 such as an LCD for displaying characters and images shown in FIG.

また、図1に示す端末3には、利用者2が自分の顔等をいわゆる「自撮り」で撮影するための正面側カメラ34を備えている。この正面側カメラ34は、後述する顔画像3Dモデル102を生成するために用いられる利用者2の2D画像としての顔写真102aを撮影するために用いられる。 In addition, the terminal 3-1 shown in FIG. 1 is provided with a front-side camera 34 for the user 2-1 to take a so-called "self-portrait" of his or her face. This front-side camera 34 is used to capture a facial photograph 102a as a 2D image of the user 21, which is used to generate a facial image 3D model 102, which will be described later.

ネットワーク4は、インターネット、LAN、イントラネット等、データや信号の送受信に用いられる有線又は無線の通信媒体であり、光ファイバケーブル、メタルケーブル、無線基地局、ルータ、スイッチ、モデム等を含む。 The network 4 is a wired or wireless communication medium used for transmitting and receiving data and signals, such as the Internet, LAN, and intranet, and includes optical fiber cables, metal cables, wireless base stations, routers, switches, modems, and the like.

なお、以下は説明の簡単のため、特に区別の必要な場合を除き、利用者2,2,・・・2を利用者2と、端末3,3,・・・3を端末3と、それぞれ記載する。 In addition, for the sake of simplicity of explanation , users 2 1 , 2 2 , . . . are referred to as terminal 3, respectively.

[画像生成装置]
図1に、この実施の形態の画像生成装置1の機能ブロック図を示す。
[Image generation device]
FIG. 1 shows a functional block diagram of an image generation device 1 of this embodiment.

この実施の形態の画像生成装置1は、サーバコンピュータであり、CPU等の演算処理を行う構成、RAM等の演算処理の作業領域としての構成、ROM、EEPROM、磁気ディスク等のデータやプログラムの記憶領域としての構成等を備える。画像生成装置1は、1のコンピュータ装置であってもよいし、複数のコンピュータ装置を連結した構成であってもよい。また、画像生成装置1は、特定の施設(例えばサーバ室等)に設置されたサーバシステム等であってもよいし、ネットワーク4上に存在する複数のハードウェア資源によるクラウドシステムとして構成されていてもよい。 The image generating apparatus 1 of this embodiment is a server computer, and includes a configuration such as a CPU for arithmetic processing, a configuration such as a RAM as a work area for arithmetic processing, a ROM, an EEPROM, a magnetic disk, etc. for storing data and programs. It has a configuration as a region and the like. The image generating apparatus 1 may be one computer device, or may be configured by connecting a plurality of computer devices. Further, the image generating apparatus 1 may be a server system or the like installed in a specific facility (for example, a server room, etc.), or may be configured as a cloud system using a plurality of hardware resources existing on the network 4. good too.

この実施の形態の画像生成装置1は、ネットワーク4を介して端末3とデータや信号の送受信を行い、端末3を介した利用者2からの命令やデータ入力等に基づいて、3Dアバターを自動生成する機能を有する。なお、画像生成装置1は、生成した3Dアバターを利用者3が使用するためのバーチャル施設、例えばSNSやバーチャルショッピングモールやバーチャル会議室等、を端末3に表示させて利用者2に利用させる構成を備えていてもよい。 The image generating apparatus 1 of this embodiment transmits and receives data and signals to and from the terminal 3 via the network 4, and automatically generates a 3D avatar based on commands and data input from the user 2 via the terminal 3. It has the ability to generate The image generation device 1 displays on the terminal 3 a virtual facility for the user 3 to use the generated 3D avatar, such as a SNS, a virtual shopping mall, a virtual conference room, etc., and allows the user 2 to use it. may be provided.

この実施の形態の画像生成装置1は、3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像としての3Dアバターを生成するために用いられる。この3Dアバターは、平面方向に加えて奥行き方向の情報を有する3D画像として生成された仮想のキャラクタである。3Dアバターは、やはり3次元方向の情報を有する仮想空間として2次元の画像としてバーチャル表示される3D空間(以下単に「3D空間」と称する。)においてアニメーションとして動く。 The image generating apparatus 1 of this embodiment applies a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information to generate a 3D image of a living organism. Used to generate 3D avatars as images. This 3D avatar is a virtual character generated as a 3D image having depth information in addition to planar information. A 3D avatar moves as an animation in a 3D space (hereinafter simply referred to as "3D space") that is virtually displayed as a 2D image as a virtual space that also has 3D direction information.

このような3Dアバターを生成するため、図1に示すとおり、画像生成装置1は、機能手段として、「画像取得手段」としての画像取得部11、「生物3Dモデル生成手段」としての顔画像3Dモデル生成部12、「適合手段」としての適合部13、「画像修正手段」としての画像修正部14、データベース15を備えている。 In order to generate such a 3D avatar, as shown in FIG. 1, the image generation device 1 includes, as functional means, an image acquisition section 11 as "image acquisition means" and a face image 3D model as "organism 3D model generation means". It comprises a model generator 12 , a matching unit 13 as “matching means”, an image correction unit 14 as “image correction means”, and a database 15 .

画像取得部11は、データベース15に記録された3Dテンプレートと、端末3から送信された利用者2の2D画像とを取得する。この3Dテンプレートについては後の記載で詳述する。 The image acquisition unit 11 acquires the 3D template recorded in the database 15 and the 2D image of the user 2 transmitted from the terminal 3 . This 3D template will be described in detail later.

顔画像3Dモデル生成部12は、利用者3の2D画像に3次元方向の位置情報を加えて3D画像とした「生物3Dモデル」としての顔画像3Dモデルを生成する。この顔画像3Dモデルの生成は、例えば機械学習を利用した機能を用いて2D画像を3D画像とすることで生成することが考えられる。この顔画像3Dモデルについては後の記載で詳述する。 The facial image 3D model generation unit 12 generates a facial image 3D model as a 3D image by adding positional information in three-dimensional directions to a 2D image of the user 3 as a "living 3D model". The 3D model of the face image may be generated by, for example, converting a 2D image into a 3D image using a function using machine learning. This facial image 3D model will be described in detail later.

適合部13は、顔画像3Dモデルの位置情報を用いて、3Dテンプレートに生物3Dモデルを適合させた適合画像を生成する。この適合画像については後の記載で詳述する。 The matching unit 13 uses the position information of the 3D face image model to generate a matched image by matching the 3D creature model to the 3D template. This matching image will be described in detail later.

画像修正部14は、適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、適合画像の少なくとも一部に3次元方向の位置情報の変更を加えて不整合の修正を施した修正画像を生成する。この修正画像については後の記載で詳述する。 The image correcting unit 14 corrects the mismatch by changing the positional information in the three-dimensional direction to at least a part of the matching image when there is a predetermined mismatch that causes a visual discomfort in the matching image. Generate a corrected image. This modified image will be described in detail later.

データベース15は、画像生成装置1で用いられるデータやプログラム等が記録される記録手段である。例えばデータベース15には、上述の3Dテンプレートのデータや、生成されたk個(k≧1)の3Dアバター109,109,・・・109のデータ等が記録される。なお、以下は説明の簡単のため、特に区別の必要がある場合を除き、3Dアバター109,109,・・・109を3Dアバター109と記載する。 The database 15 is recording means for recording data, programs, etc. used in the image generating apparatus 1 . For example, the database 15 records data of the 3D template described above, data of k (k≧1) 3D avatars 109 1 , 109 2 , . . . 109 k generated. For the sake of simplicity of explanation, the 3D avatars 109 1 , 109 2 , .

[処理手順]
図2は、この実施の形態の画像生成装置1の処理手順を示すフローチャートである。以下、図2のフローチャートに基づいて画像生成装置1における3Dアバター109を生成する処理の手順について説明する。
[Processing procedure]
FIG. 2 is a flow chart showing the processing procedure of the image generation device 1 of this embodiment. A procedure of processing for generating the 3D avatar 109 in the image generation device 1 will be described below based on the flowchart of FIG.

[ステップS1:画像取得手順]
ある画像生成システム1Aの利用者2(例えば利用者2)が、自分の顔写真を用いて自分に似た3Dアバター109を生成する場合を考える。
[Step S1: Image Acquisition Procedure]
Consider a case where a user 2 (for example, user 2 1 ) of a certain image generation system 1A generates a 3D avatar 109 resembling himself using his own facial photograph.

この場合、利用者2はある端末3(例えば端末3)を用いて画像生成装置1にアクセスすると共に、画像生成装置1に利用者2自身(例えば利用者2)自身の3Dアバター109作成を要求する命令を送信する。画像生成装置1から端末3に対しては、利用者2の2D画像を画像生成装置1に送付する旨の要求が送信され、その要求は端末3のタッチパネルディスプレイ(図示せず)に表示される。 In this case, the user 2 accesses the image generation device 1 using a certain terminal 3 (for example, the terminal 3 1 ), and the user 2 himself (for example, the user 2 1 ) creates his own 3D avatar 109 on the image generation device 1. send an order requesting A request to send the 2D image of the user 2 to the image generating device 1 is transmitted from the image generating device 1 to the terminal 3, and the request is displayed on the touch panel display (not shown) of the terminal 3. .

そして、利用者2(例えば利用者2)が端末3(例えば端末3)を用いて自分の顔の2D画像である顔写真102a(図1参照)等の2D画像を画像生成装置1に送信する。 Then, the user 2 (for example, the user 2 1 ) uses the terminal 3 (for example, the terminal 3 1 ) to transmit a 2D image such as a facial photograph 102a (see FIG. 1), which is a 2D image of his/her own face, to the image generating apparatus 1. Send.

画像生成装置1の画像取得部11は、端末3から送信された利用者2の顔写真102a等の2D画像を取得する(ステップS1)。また、画像取得部11は、データベース15に記録された3Dテンプレート101を取得する。 The image acquisition unit 11 of the image generation device 1 acquires a 2D image such as the facial photograph 102a of the user 2 transmitted from the terminal 3 (step S1). Also, the image acquisition unit 11 acquires the 3D template 101 recorded in the database 15 .

図3は、この3Dテンプレート101を模式的に示した図であり、図3の(a)は3Dテンプレート101を正面方向から表示した状態、図3の(b)は3Dテンプレートを右側面側から表示した状態、をそれぞれ模式的に示した図である。この3Dテンプレート101は、人体の頭部の形状や、肌の色や、目、鼻、口、耳等の顔のパーツの位置や大きさや形状や位置等を示すための情報を備えた、3Dアバター109を生成する際の基本となる情報を備えている。 3A and 3B schematically show the 3D template 101. FIG. 3A shows the 3D template 101 viewed from the front, and FIG. 3B shows the 3D template viewed from the right side. FIG. 10 is a diagram schematically showing a displayed state, respectively. This 3D template 101 is a 3D template that includes information for indicating the shape of the head of a human body, the color of the skin, and the positions, sizes, shapes, positions, etc. of facial parts such as eyes, nose, mouth, and ears. It has basic information for generating the avatar 109 .

この3Dテンプレート101は、多数の画素の集合によって形成されており、それぞれの画素は、3Dテンプレート101が存在する3次元の仮想空間における3次元方向の座標軸(例えば水平方向(X方向)、垂直方向(Y方向)、高さ方向(Z方向))という3つの直交軸に基づく、仮想的な3次元空間上の位置を特定するための座標軸)に基づく、3次元方向の位置を特定するための3次元座標(例えばX座標、Y座標、Z座標)を有している。この3次元座標の数値を変えることにより、3Dテンプレート101全体、あるいは3Dテンプレート101の特定部分や特定のパーツ(たとえば目や鼻や口など)の位置や大きさを変化させることができる。また、それぞれの画素に数値で設定された色情報(例えばRGB系の色情報や、輝度・色差情報等)等を変えることにより、それぞれの画素の色や明るさ等を変えることもできる。 This 3D template 101 is formed by a set of a large number of pixels, and each pixel corresponds to a three-dimensional coordinate axis (for example, horizontal direction (X direction), vertical direction) in the three-dimensional virtual space in which the 3D template 101 exists. (Y direction), height direction (Z direction)) for specifying a position in a virtual three-dimensional space based on three orthogonal axes) for specifying a position in a three-dimensional direction It has three-dimensional coordinates (eg, X-, Y-, and Z-coordinates). By changing the three-dimensional coordinate values, it is possible to change the position and size of the entire 3D template 101, or specific portions or parts of the 3D template 101 (eg, eyes, nose, mouth, etc.). Also, by changing color information (eg, RGB color information, luminance/color difference information, etc.) numerically set for each pixel, the color, brightness, etc. of each pixel can be changed.

[ステップS2:顔画像3Dモデル生成手順(生物3Dモデル生成手順)]
次に、顔画像3Dモデル生成部12は、ステップS1で取得された利用者2の2D画像としての顔写真102aに基づいて、3次元方向の情報も含む3D画像としての顔画像3Dモデルを生成する。
[Step S2: Facial image 3D model generation procedure (organism 3D model generation procedure)]
Next, the facial image 3D model generation unit 12 generates a facial image 3D model as a 3D image including information on the three-dimensional direction based on the facial photograph 102a as a 2D image of the user 2 acquired in step S1. do.

顔画像3Dモデル生成部12は、例えば機械学習を用いた機能を用いて、利用者2の2D画像としての顔画像から3D画像としての顔画像を生成する。具体的には、顔画像3Dモデル生成部12のデータ抽出・演算機能により、利用者2の2D画像としての顔写真102aから、目、眉、鼻、口、耳等のパーツの情報を抽出したり、パーツや輪郭や顔の部分ごとの光沢や陰影や色彩等の情報を取得するとともにそれらの情報を数値化して、それらのパーツや顔の輪郭などの位置情報や凹凸の大きさや深さ等の情報を算出する。そして、顔画像3Dモデル生成部12は、その算出結果に基づいて、2D画像の顔画像を構成するそれぞれの画素を3次元空間上にマッピングする。具体的には、2D画像としての顔画像を構成するそれぞれの画素情報に、3次元空間上の位置を特定するための3次元座標(例えばX座標、Y座標、Z座標)の数値をそれぞれ入力する。 The face image 3D model generation unit 12 generates a face image as a 3D image from the face image as a 2D image of the user 2 using, for example, a function using machine learning. Specifically, the data extraction/calculation function of the face image 3D model generation unit 12 extracts information on parts such as the eyes, eyebrows, nose, mouth, and ears from the face photograph 102a of the user 2 as a 2D image. Also, information such as gloss, shadow, color, etc. for each part, contour, and part of the face is acquired, and that information is quantified, and position information such as those parts and the contour of the face, and the size and depth of unevenness, etc. Calculate the information of Based on the calculation result, the face image 3D model generation unit 12 maps each pixel constituting the face image of the 2D image onto the three-dimensional space. Specifically, the numerical values of the three-dimensional coordinates (for example, X coordinate, Y coordinate, Z coordinate) for specifying the position in the three-dimensional space are input to each pixel information constituting the face image as a 2D image. do.

なお、顔画像3Dモデル生成部12を構成する機能としては、2D画像としての顔画像を3D画像としての顔画像に変換するために、人工知能の機能を有し、この人工知能の機能において、予め、多数の顔画像の2D画像と3D画像との対応関係(顔の部分ごとの大きさや凹凸や肌の色等により、顔の立体形状が2D画像と3D画像にそれぞれどのように反映されるかに関する対応関係、等が考えられる。)を学習させておき、この学習結果に基づいて、利用者2の2D画像の顔写真102aを3D画像の顔画像3Dモデルとして生成する。例えば、顔の2D画像と現実のZ座標方向のデータについて学習を行うことで、顔の2D画像からZ座標方向のデータを含む各種データを推論し、この推論したデータを利用して2D画像のみの入力で3次元座標の値を入手することができる。ただし、顔画像3Dモデル生成部12は、人工知能の機能を有さずに、周知の画像解析技術や画像認識技術等を用いて利用者2の2D画像の顔写真を3D画像の顔画像3Dモデルとして生成するものであってもよい。 In addition, as a function constituting the face image 3D model generation unit 12, an artificial intelligence function is provided in order to convert a face image as a 2D image into a face image as a 3D image. In advance, correspondence relationships between 2D and 3D images of a large number of face images (how the three-dimensional shape of the face is reflected in the 2D image and the 3D image depending on the size, unevenness, skin color, etc. of each part of the face) etc.) is learned, and based on this learning result, a 2D facial image 102a of the user 2 is generated as a 3D facial image 3D model. For example, by learning about a 2D face image and actual data in the Z coordinate direction, various data including data in the Z coordinate direction are inferred from the 2D face image, and only the 2D image is analyzed using this inferred data. You can obtain the value of the three-dimensional coordinates by inputting However, the face image 3D model generation unit 12 does not have an artificial intelligence function, and converts the 2D face photograph of the user 2 into a 3D face image 3D image using well-known image analysis technology, image recognition technology, or the like. It may be generated as a model.

図4に、この実施の形態の顔画像3Dモデル生成部12が生成した顔画像3Dモデル102の概念図を示す。図4の(a)は顔画像3Dモデル102を正面方向から表示した状態、図4の(b)は顔画像3Dモデル102を右側面側から表示した状態、をそれぞれ模式的に示した図である。同図に示すとおり、顔画像3Dモデル102は、実在の人物の顔を撮影した顔写真の画像に基づいて、仮想空間内において、上下方向(X方向)、左右方向(Y方向)、高さ方向(Z方向)の情報を有する、顔部分の3次元形状の画像として生成されている。 FIG. 4 shows a conceptual diagram of the face image 3D model 102 generated by the face image 3D model generation unit 12 of this embodiment. FIG. 4(a) schematically shows a state in which the face image 3D model 102 is displayed from the front, and FIG. 4(b) schematically shows a state in which the face image 3D model 102 is displayed from the right side. be. As shown in the figure, the face image 3D model 102 is based on a facial photograph image of a real person's face. It is generated as an image of a three-dimensional shape of the face part having direction (Z direction) information.

さらに、顔画像3Dモデル生成部12は、顔画像3Dモデル102に対する各種の調整を行う。具体的には、顔画像3Dモデル調整部は、顔画像3Dモデル102に対して下記(A)~(D)に例示する調整のための処理を行う。 Furthermore, the facial image 3D model generation unit 12 performs various adjustments to the facial image 3D model 102 . Specifically, the facial image 3D model adjustment unit performs the following adjustment processes (A) to (D) on the facial image 3D model 102 .

(A)顔画像3Dモデル102の両目が水平になるように回転させる処理を行う。例えば、[図5]の[A1]に示す水平位置に顔画像3Dモデル102の両目の位置が一致するように、図5の[A2]に示す方向に顔画像3Dモデル102を回転させる。 (A) A process of rotating the face image 3D model 102 so that both eyes are horizontal is performed. For example, the facial image 3D model 102 is rotated in the direction indicated by [A2] in FIG. 5 so that the positions of both eyes of the facial image 3D model 102 are aligned with the horizontal position indicated by [A1] in FIG.

(B)顔画像3Dモデル102の両目の奥行きが等しくなるように回転させる処理を行う。例えば、顔画像3Dモデル102の両目の位置がZ方向(図5(b)の左右方向)に一致するように、顔画像3Dモデル102を図5の(a)の[B]に示す方向に回転させる。 (B) A process of rotating the face image 3D model 102 so that the depths of both eyes are equal is performed. For example, the face image 3D model 102 is moved in the direction indicated by [B] in FIG. rotate.

(C)顔画像3Dモデル102の顎や額が極端に前方に突き出ることがないように回転させる処理を行う。例えば、図5の(a)の顔画像3Dモデル102において、[C1]のZ方向位置と[C2]のZ方向位置が一致するように顔画像3Dモデル102を回転させる。 (C) Rotate the face image 3D model 102 so that the chin and forehead do not protrude excessively forward. For example, in the face image 3D model 102 of (a) of FIG. 5, the face image 3D model 102 is rotated so that the Z direction position of [C1] and the Z direction position of [C2] match.

(D)顔画像3Dモデル102の両端のポリゴンを切り捨てる。これは、画像生成装置1においてMP3D等を用いた処理を行う場合、顔の側面や耳のメッシュを綺麗に生成できない場合があるので、最終結果の3Dアバター109にポリゴンを反映させないようにするために行うものである。例えば図5の(b)の[D]に示すように、顔画像3Dモデル102の耳部分のポリゴン(図4の(b)の耳部分の画像参照)を除去する処理を行う。 (D) The polygons at both ends of the face image 3D model 102 are truncated. This is because when processing using MP3D or the like is performed in the image generation device 1, the meshes of the sides of the face and the ears may not be generated neatly, so polygons are not reflected in the 3D avatar 109 as the final result. It is done to For example, as shown in [D] in (b) of FIG. 5, processing is performed to remove the polygons of the ear portion of the face image 3D model 102 (see the image of the ear portion in (b) of FIG. 4).

顔画像3Dモデル102は機械学習により推論されたデータに基づき形成されるので、両目の水平方向の位置がずれたり、両目の奥行きがずれたり、あるいは顎や額が極端に前方に突出した顔画像3Dモデルが発生することがある。そのため上記のように両目が水平になるように回転させたり、両目の奥行が等しくなるよう回転させたり、さらには顎や額が極端に前方に突出することがないような処理が行われる。 Since the face image 3D model 102 is formed based on data inferred by machine learning, it is possible to create a face image in which the horizontal position of both eyes is shifted, the depth of both eyes is shifted, or the chin or forehead protrudes extremely forward. A 3D model may be generated. Therefore, as described above, the eyes are rotated so that they are horizontal, the eyes are rotated so that the depths of both eyes are equal, and further, processing is performed so that the chin and forehead do not protrude excessively forward.

図5に、上記(A)~(D)の処理を行って調整した顔画像3Dモデル102の概念図を示す。図5の(a)はこの顔画像3Dモデル102を正面方向から表示した状態(b)は右側面側から表示した状態、を模式的に示した図である。同図に示す顔画像3Dモデル102は、上記(A)~(D)の回転処理やポリゴンを切り捨てる処理によって調整された状態として示されている。 FIG. 5 shows a conceptual diagram of the face image 3D model 102 adjusted by performing the above processes (A) to (D). (a) of FIG. 5 is a diagram schematically showing a state in which the face image 3D model 102 is displayed from the front (b) is a state in which it is displayed from the right side. The face image 3D model 102 shown in the figure is shown in a state adjusted by the above-described rotation processing (A) to (D) and processing for truncating polygons.

[ステップS3:適合手順]
ステップS2の処理ののち、適合部13は、顔画像3Dモデル生成部12が生成した顔画像3Dモデル102の位置情報を用いて、3Dテンプレート101に顔画像3Dモデル102を適合させた適合画像を生成する。
[Step S3: Matching procedure]
After the process of step S2, the matching unit 13 uses the position information of the face image 3D model 102 generated by the face image 3D model generation unit 12 to generate a matched image obtained by fitting the face image 3D model 102 to the 3D template 101. Generate.

この実施の形態における、顔画像3Dモデル102の位置情報とは、例えば顔画像3Dモデル102を構成するそれぞれの画素の仮想空間上の座標情報や、顔画像3Dモデル102に含まれる目、眉毛、鼻、口、耳等のパーツの大きさや位置を特定するための仮想空間上の座標情報が該当する。適合部13は、この顔画像3Dモデル102の仮想空間上の座標情報を、3Dテンプレート101の対応する画素や対応する顔のパーツ等の仮想空間上の位置情報に適用することで、顔画像3Dモデル102の顔やパーツの大きさや位置や凹凸の状態や陰影などを適用させる。また、併せて、適合部13は、顔画像3Dモデル102の光沢の具合や色彩等の情報を3Dテンプレート101に適用させる。 In this embodiment, the positional information of the face image 3D model 102 includes, for example, coordinate information on the virtual space of each pixel constituting the face image 3D model 102, eyes, eyebrows, and eyebrows included in the face image 3D model 102. Coordinate information in virtual space for specifying the size and position of parts such as nose, mouth, and ears corresponds to this. The adapting unit 13 applies the virtual space coordinate information of the face image 3D model 102 to the virtual space position information of the corresponding pixels of the 3D template 101, the corresponding facial parts, etc., thereby obtaining a 3D face image. The size and position of the face and parts of the model 102, the state of unevenness, shadows, and the like are applied. In addition, the matching unit 13 also applies information such as the degree of glossiness and color of the face image 3D model 102 to the 3D template 101 .

具体的には、適合部13は、まず、顔画像3Dモデル102所定の位置(例えば両目の位置)における縦方向長さL1、横方向長さL2、高さ方向長さL3等を取得する。次いで適合部13は3Dテンプレート101の対応する位置(例えば両目の位置)の縦方向長さL11、横方向長さL12、高さ方向長さL13をそれぞれ取得する。そして、適合部13は、3Dテンプレート101の縦方向長さL11を顔画像3Dモデル102の縦方向長さL1に、3Dテンプレート101の横方向長さL12を顔画像3Dモデル102の横方向長さL2に、3Dテンプレート101の高さ方向長さL13を顔画像3Dモデル102の高さ方向長さL3に、それぞれ修正することで、3Dテンプレート101の大きさや形状を顔画像3Dモデル102の大きさや形状に近似した大きさや形状に変形させる。 Specifically, the matching unit 13 first acquires the length L1 in the vertical direction, the length L2 in the horizontal direction, the length L3 in the height direction, etc. at a predetermined position (for example, the position of both eyes) of the 3D face image model 102 . Next, the matching unit 13 acquires the length L11 in the vertical direction, the length L12 in the horizontal direction, and the length L13 in the height direction of the corresponding position (for example, the position of both eyes) of the 3D template 101 . Then, the matching unit 13 sets the vertical length L11 of the 3D template 101 to the vertical length L1 of the face image 3D model 102, and sets the horizontal length L12 of the 3D template 101 to the horizontal length of the face image 3D model 102. By correcting the height direction length L13 of the 3D template 101 to the height direction length L3 of the face image 3D model 102, respectively, the size and shape of the 3D template 101 are changed to the size and shape of the face image 3D model 102. Transform into a size or shape that approximates the shape.

図6は、この実施の形態の適合部13が3Dテンプレート101に顔画像3Dモデル102の座標情報を適用して修正した状態を模式的に示した図である。同図の3Dテンプレート101は、図3に示す3Dテンプレート101の縦方向長さL11、横方向長さL12、高さ方向長さL13が顔画像3Dモデル102の縦方向長さL1、横方向長さL2、高さ方向長さL3に修正されることで、3Dテンプレート101の顔部分の大きさや形状が顔画像3Dモデル102の大きさや形状に近似したものとなっている。これにより、3Dテンプレート101に顔画像3Dモデル102の情報を適用しやすい状態が形成されることとなる。 FIG. 6 is a diagram schematically showing a state in which the matching unit 13 of this embodiment corrects the 3D template 101 by applying the coordinate information of the face image 3D model 102. As shown in FIG. The 3D template 101 shown in FIG. 3 has a vertical length L11, a horizontal length L12, and a height L13 of the 3D template 101 shown in FIG. The size and shape of the face portion of the 3D template 101 are approximated to the size and shape of the face image 3D model 102 by correcting the height L2 and the length L3 in the height direction. As a result, a state is created in which the information of the face image 3D model 102 can be easily applied to the 3D template 101 .

次いで、適合部13は、図6に示す修正した3Dテンプレート101に顔画像3Dモデル102の情報を適用する。 Next, the matching unit 13 applies the information of the face image 3D model 102 to the modified 3D template 101 shown in FIG.

具体的には、まず適合部13は、図7に模式的に示すように、3Dテンプレート101の顔の凹凸を、図6に示す顔画像3Dモデル102の顔の凹凸に合わせて変形させる。具体的には、3Dテンプレートの顔部分の画素等の、仮想空間内における上下方向(X方向)、左右方向(Y方向)、高さ方向(Z方向)の座標情報を取得し、取得した座標情報を3Dテンプレート101の対応する画素や対応する顔部分のパーツの座標情報に適用することで3Dテンプレート101の顔部分の凹凸を顔画像3Dモデルの凹凸に近い状態とする。 Specifically, first, as schematically shown in FIG. 7, the matching unit 13 transforms the unevenness of the face of the 3D template 101 to match the unevenness of the face of the 3D face image model 102 shown in FIG. Specifically, coordinate information in the vertical direction (X direction), horizontal direction (Y direction), and height direction (Z direction) in the virtual space of the pixels of the facial portion of the 3D template is acquired, and the acquired coordinates By applying the information to the corresponding pixels of the 3D template 101 and the coordinate information of the corresponding parts of the face, the unevenness of the face of the 3D template 101 is made close to the unevenness of the face image 3D model.

この適合部13の処理は、具体的には、下記(処理01)~(処理03)に示す処理として行われる。 Specifically, the process of the adapting unit 13 is performed as processes shown in (process 01) to (process 03) below.

(処理01)図6に示す3Dテンプレート101と両目の位置が重なるように、図4(又は図5)の顔画像3Dモデル102に対して拡大/縮小・平行移動を行う(なお、このときの、3Dテンプレート101と顔画像3Dモデル102とを重ねた状態の概念図については、図10を参照。)。 (Processing 01) Enlargement/reduction/parallel movement is performed on the face image 3D model 102 of FIG. 4 (or FIG. 5) so that the 3D template 101 shown in FIG. , for a conceptual diagram of a state in which the 3D template 101 and the face image 3D model 102 are superimposed, see FIG.

(処理02)3Dテンプレート101の、ある1個の頂点を通過するZ軸(図7や図10の場合、水平方向)に平行な直線を考えて、顔画像3Dモデル102のポリゴンとの交点を探索する。交点が得られた場合には、その交点における3次元座標を求める。この処理を、3Dテンプレート101の前半分の頂点に対して行う。 (Processing 02) Considering a straight line parallel to the Z-axis (horizontal direction in the case of FIGS. 7 and 10) passing through one vertex of the 3D template 101, the intersection with the polygon of the face image 3D model 102 is Explore. When the intersection point is obtained, the three-dimensional coordinates at the intersection point are obtained. This processing is performed for the vertices in the front half of the 3D template 101 .

(処理03)上記(処理02)で得た交点の3次元座標によって、対応する3Dテンプレート101の頂点座標を更新する。 (Processing 03) Update the vertex coordinates of the corresponding 3D template 101 with the three-dimensional coordinates of the intersection point obtained in (Processing 02).

図7に、顔画像3Dモデル102の顔の凹凸に合わせて顔部分を変形させた3Dテンプレート101を模式的に示した状態を示している。この状態で、図7の(b)に示すように、3Dテンプレート101の側面から見た形状が、図6の(b)に示す状態から変化している。一方この状態で、図7の(a)に示す、3Dテンプレート101の正面から見た形状は図6の(a)に示す修正前の状態と変化していない。 FIG. 7 schematically shows a 3D template 101 in which the face portion is deformed according to the unevenness of the face image 3D model 102 . In this state, as shown in FIG. 7(b), the shape of the 3D template 101 viewed from the side has changed from the state shown in FIG. 6(b). On the other hand, in this state, the shape of the 3D template 101 seen from the front shown in FIG. 7(a) does not change from the state before correction shown in FIG. 6(a).

次いで、適合部13は、3Dテンプレート101の顔のテクスチャ及びテクスチャ座標を更新する。具体的には、適合部13は、3Dテンプレート101の顔の部分に、顔画像3Dモデル102の目、眉毛、鼻、口、耳等のパーツの位置や大きさを一致させるように座標情報を修正する。また、適合部13は、3Dテンプレート101のそれぞれの画素に、顔画像3Dモデル102の画素ごと、あるいはパーツごとの色情報や明暗の情報や光沢の情報等を適用する。これにより、3Dテンプレート101が適合画像として生成される。 The matching unit 13 then updates the texture and texture coordinates of the face of the 3D template 101 . Specifically, the matching unit 13 assigns coordinate information to match the positions and sizes of parts such as the eyes, eyebrows, nose, mouth, and ears of the face image 3D model 102 with the face part of the 3D template 101 . fix it. The matching unit 13 also applies color information, brightness information, gloss information, and the like for each pixel of the face image 3D model 102 or for each part to each pixel of the 3D template 101 . Thereby, a 3D template 101 is generated as a conforming image.

図8に、適合部13の処理によって3Dテンプレート101から適合画像103が生成された状態を模式的に示す。同図に示すように、適合画像103の顔部分には、顔画像3Dモデル102の顔部分の目、眉毛、鼻、口、耳等の位置や大きさや形状や凹凸の状態、さらには肌部分も含めた色や陰影や光沢の状態が適用された状態となっている。すなわち、適合画像103は、完成した3Dアバター109とほぼ同一の状態にて生成されている。 FIG. 8 schematically shows a state in which the matching image 103 is generated from the 3D template 101 by the processing of the matching unit 13. As shown in FIG. As shown in the figure, the face portion of the matching image 103 includes the positions, sizes, shapes, and unevenness of the eyes, eyebrows, nose, mouth, and ears of the face portion of the face image 3D model 102, as well as the skin portion. It is in a state where the state of color, shading, and gloss, including , is applied. That is, the matching image 103 is generated in almost the same state as the completed 3D avatar 109 .

[ステップS4:画像修正手順]
ここで、ステップS3までの処理によって生成された適合画像103は、いわゆるポリゴン反転等が発生する場合がある。画像修正部14は、このポリゴン反転等によって発生した適合画像103の視覚的な違和感を修正する。
[Step S4: Image Correction Procedure]
Here, the suitable image 103 generated by the processing up to step S3 may undergo so-called polygon inversion or the like. The image correction unit 14 corrects the visual discomfort of the matching image 103 caused by the polygon inversion or the like.

図9に、ステップS3までの処理によって生成された適合画像103の一部にポリゴン反転が発生した状態を模式的に示す。図9に示す適合画像103は、矢印で示す右頬の部分の付近で、ポリゴンの一部が正面方向に突き出た状態の反転部分104が形成されている。 FIG. 9 schematically shows a state in which polygon inversion has occurred in part of the matching image 103 generated by the processing up to step S3. In the matching image 103 shown in FIG. 9, an inverted portion 104 is formed in the vicinity of the right cheek portion indicated by the arrow, in which a part of the polygon protrudes in the front direction.

この、ポリゴン反転による反転部分104の発生は、上記の(処理02)と(処理03)とにおいて、3Dテンプレート101の頂点と、対応する顔画像3Dモデル102上の点との、相対的な配置によって発生する。 The generation of the inverted portion 104 by polygon inversion is the relative arrangement of the vertices of the 3D template 101 and the corresponding points on the face image 3D model 102 in the above (Processing 02) and (Processing 03). caused by

たとえば、図10に模式的に示すように、3Dテンプレート101の目105の位置と、顔画像3Dモデル102の目106の位置が3次元的に一致するように変換する場合を考える。 For example, as schematically shown in FIG. 10, consider a case where the positions of the eyes 105 of the 3D template 101 and the positions of the eyes 106 of the face image 3D model 102 are three-dimensionally matched.

この場合、図11の(a)に模式的に示すように、3Dテンプレート101の目105の位置と、顔画像3Dモデル102の目106の位置とを一致させることで、3Dテンプレート101の顔の正面部分の座標がZ方向(図11の(a)(b)における上下方向)の下方向(図11の(a)(b)における下方向)に移動する。その結果、図11の(b)に示すように、3Dテンプレート101のZ方向への移動が行われた領域107(すなわち、上記(処理02)(処理03)において頂点座標が更新された結果、特定の領域107aが、Z方向への移動が行われた領域107とされた部分のこと。)と行われなかった部分(すなわち、上記(処理02)(処理03)において頂点座標が更新されなかった領域のこと。)の境界部分に、ポリゴン反転による反転部分104が、Z方向の上方向(図11の(a)(b)における上方向)の突起状の形状として発生することとなる。 In this case, as schematically shown in FIG. 11A, by matching the positions of the eyes 105 of the 3D template 101 with the positions of the eyes 106 of the face image 3D model 102, the face of the 3D template 101 is The coordinates of the front portion move downward (downward in FIGS. 11A and 11B) in the Z direction (vertical direction in FIGS. 11A and 11B). As a result, as shown in FIG. 11B, the area 107 where the 3D template 101 is moved in the Z direction (that is, as a result of updating the vertex coordinates in the above (processing 02) and (processing 03), The specific region 107a is the region 107 that has been moved in the Z direction. ), an inverted portion 104 due to polygon inversion is generated as a projecting shape upward in the Z direction (upward in FIGS. 11A and 11B).

このような適合画像103の反転部分104を除去するため、本実施形態の画像修正部14は、以下に示す処理を行う。この処理を、図12に模式的に示す。 In order to remove such a reversed portion 104 of the matching image 103, the image correction unit 14 of this embodiment performs the following processing. This processing is schematically shown in FIG.

具体的には、図12に模式的に示すように、画像修正部14は、適合画像103の上記(処理02)(処理03)において頂点座標が更新されなかった領域108の画素等の頂点群を、相対的にZ方向の下方向(図12における下方向)に移動させる。図12においては、領域107の頂点群を移動させる部分の移動方向を矢印で模式的に示している。 Specifically, as schematically shown in FIG. 12, the image correcting unit 14 modifies a group of vertices such as pixels in the area 108 whose vertex coordinates have not been updated in the above (processing 02) and (processing 03) of the suitable image 103. is moved relatively downward in the Z direction (downward in FIG. 12). In FIG. 12, arrows schematically indicate the moving direction of the portion in which the group of vertices of the region 107 is moved.

このとき、領域108に属する画素等のそれぞれの頂点をどれだけZ方向に平行移動させるのかは、適合画像103の上記(処理02)(処理03)において頂点座標が更新された領域107(図11参照)の頂点群の変化量(図11の矢印参照)の空間的な分布などを元に、頂点ごとに計算を行う。 At this time, how much each vertex of the pixels belonging to the region 108 is translated in the Z direction depends on the region 107 (FIG. 11 ) is calculated for each vertex based on the spatial distribution of the amount of change (see the arrow in FIG. 11) of the vertex group.

画像修正部14のこのような処理により、適合画像103の反転部分104は除去されて、3Dアバター109が生成される。 Through such processing by the image correction unit 14, the reversed portion 104 of the matching image 103 is removed and a 3D avatar 109 is generated.

図13の(a)に、反転部分104が発生している適合画像103を模式的に示した図、図13の(b)に、画像修正部14の処理によって反転部分が除去されて3Dアバター109が生成された状態を模式的に示した図をそれぞれ示す。図13の(a)に示す、ポリゴン反転が発生して頬の部分に(同図の右方向に)突起状に突出した反転部分104は、領域107の頂点群を、領域108の頂点群に対して相対的にZ方向の下方向(図13の(a)(b)の左方向)に移動させることにより、図13の(b)に示すように除去される。そして、図13の(a)の反転部分104のあった箇所は、図13の(b)に示す元反転部分110のように、平滑化された、自然な印象の画像となっている。 FIG. 13(a) schematically shows a suitable image 103 in which a reversed portion 104 is generated, and FIG. 109 are diagrams schematically showing the state where 109 is generated. As shown in FIG. 13(a), the reversed portion 104, which is a projection-like projection (rightward in the drawing) on the cheek due to the polygon reversal, converts the vertices of region 107 to the vertices of region 108. 13A and 13B, it is removed as shown in FIG. 13B. 13(a) where there was a reversed portion 104 is a smoothed image with a natural impression, like the original reversed portion 110 shown in FIG. 13(b).

なお、上記の事例では、反転部分104は突起状の形状として形成されているが、反転部分は、(突起状等の形状の有無にかかわらず)領域107と領域108の色彩や陰影等の違いとして形成される場合もある。この場合、画像修正部14は、領域107の色彩を領域108の色彩や陰影等に一致させる処理を行う等の処理を行うことで、自然な印象の画像としての3Dアバター109を生成する。 In the above example, the reversed portion 104 is formed as a projecting shape, but the reversed portion has a difference in color, shade, etc. between the regions 107 and 108 (regardless of the presence or absence of a shape such as a projection). It may also be formed as In this case, the image correction unit 14 generates the 3D avatar 109 as an image with a natural impression by performing processing such as matching the color of the area 107 to the color, shadow, etc. of the area 108 .

なお、図13の(b)に示す3Dアバター109は、頭部のみで、毛髪を有しない状態として生成されているが、画像生成装置1は、この3Dアバター109に、さらに毛髪を付加したり、頭部以外の身体部分(例えば上半身や身体全部)を付加することでアバター109を生成することもできる。また、適合画像103に反転部分104が発生していない場合は、ステップS4の処理を省略し、適合画像103をそのままアバター109とすることもできる。 The 3D avatar 109 shown in (b) of FIG. 13 is generated with only the head and no hair. , the avatar 109 can also be generated by adding body parts other than the head (for example, the upper body or the whole body). Further, when the inverted portion 104 does not occur in the matching image 103, the process of step S4 can be omitted and the matching image 103 can be used as the avatar 109 as it is.

[ステップS5:3Dアバター生成]
このようにして、本実施形態の画像生成装置1は、利用者2の顔の3Dアバター109を生成する。生成された3Dアバター109は、データベース15に記録されたり、生成を要求した利用者(例えば利用者2)の使用する端末(例えば端末3)に送信されて、その利用者(例えば利用者2)がバーチャル空間でのコミュニケーションやゲーム等に利用することが可能となる。
[Step S5: Generate 3D avatar]
In this manner, the image generation device 1 of this embodiment generates the 3D avatar 109 of the user 2's face. The generated 3D avatar 109 is recorded in the database 15 or transmitted to a terminal (for example, terminal 3 1 ) used by the user (for example, user 2 1 ) who requested the generation, and is sent to the user (for example, user 2 1 ) can be used for communication, games, etc. in the virtual space.

[作用効果]
以上、この実施の形態においては、利用者2の3Dアバター109を生成するにあたって、3Dテンプレート101に、利用者2の2D画像に3次元方向の位置情報を加えた顔画像3Dモデル102を適合させた適合画像103を生成することで、現実の利用者2の視覚的な特徴を反映させた、現実の利用者2に似た3Dアバター109を生成できる。また、適合画像103に視覚上の違和感を生じさせる反転部分104不整合が生じている場合に、適合画像103の少なくとも一部である領域107にZ方向の位置情報の変更を加えて不整合の修正を施した3Dアバター109を生成することにより、利用者2の視覚的な特徴を3Dテンプレート101に反映させる際に発生する視覚的な違和感を自動的に抑止し、現実の利用者2によりよく似た3Dアバター109を生成することができる。これにより、視覚的な差異や不要な構成の発生を抑止し、自然な印象を与える3Dアバター109を生成できる。
[Effect]
As described above, in this embodiment, when generating the 3D avatar 109 of the user 2, the face image 3D model 102 obtained by adding position information in the three-dimensional direction to the 2D image of the user 2 is adapted to the 3D template 101. By generating the matching image 103 that is similar to the real user 2 , a 3D avatar 109 that resembles the real user 2 and that reflects the visual characteristics of the real user 2 can be generated. In addition, when mismatching of the inverted portion 104 that causes a visual discomfort occurs in the matching image 103, the position information in the Z direction is changed in the region 107, which is at least a part of the matching image 103, to eliminate the mismatch. By generating the modified 3D avatar 109, the visual discomfort that occurs when the visual features of the user 2 are reflected in the 3D template 101 is automatically suppressed, and the real user 2 is better. A similar 3D avatar 109 can be generated. As a result, the 3D avatar 109 that gives a natural impression can be generated by suppressing the occurrence of visual differences and unnecessary configurations.

この実施の形態においては、適合画像103上の連続した面に発生した、領域107と領域108の色の不連続を修正する処理を適切に行い、色の不連続による視覚的な差異や不要な構成の発生を抑止できる。 In this embodiment, processing is appropriately performed to correct color discontinuity between the regions 107 and 108 that occurs on a continuous surface on the matching image 103, and visual differences and unnecessary effects due to color discontinuity are corrected. The occurrence of configuration can be suppressed.

この実施の形態においては、3Dテンプレート101と該3Dテンプレート101に適合させた顔画像3Dモデル102との境界部分に発生する反転部分104にZ方向の凹凸を修正する処理を行うことにより、コンピュータの演算処理によって、視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。 In this embodiment, by performing a process of correcting unevenness in the Z direction in the reversed portion 104 generated at the boundary portion between the 3D template 101 and the face image 3D model 102 adapted to the 3D template 101, the computer can Arithmetic processing can be implemented in a specific configuration to automatically suppress the occurrence of visual differences and unnecessary configurations.

この実施の形態においては、3Dテンプレート101に対し、顔画像3Dモデル102が適合された顔画像3Dモデル102と3Dテンプレート101全体との相対的なZ方向の位置を修正する処理を行うことにより、顔画像3Dモデル102と3Dテンプレート101との境界部分に発生しうる視覚的な差異や不要な構成の発生を自動的に抑止させることを具体的な構成において実現できる。 In this embodiment, the 3D template 101 is subjected to processing for correcting the relative Z-direction position of the 3D face image 102 to which the face image 3D model 102 is fitted and the 3D template 101 as a whole. It is possible to implement a specific configuration to automatically prevent visual differences that may occur at the boundary between the face image 3D model 102 and the 3D template 101 and unnecessary configurations.

この実施の形態においては、人体頭部の3Dテンプレート101に、利用者2の顔画像としての2D画像を用いて3Dアバター109を生成する際に、視覚的な差異や不要な構成の発生を抑止できる。 In this embodiment, when generating a 3D avatar 109 using a 2D image as the face image of the user 2 in the 3D template 101 of the human head, it is possible to suppress the occurrence of visual differences and unnecessary configurations. can.

[備考]
なお、この実施の形態においては学習済みの画像3Dモデル生成部12に含まれる推論装置に2D画像を入力し、3D画像を得、更に3D画像のデータに基づいて3Dテンプレートを変形し、その後、3Dテンプレートに顔画像3Dモデルのデータを適用した例を説明したが、推論装置に2D画像を入力して3Dテンプレートを変形させ、変形後の3Dテンプレートに3D画像を貼りつけることで顔画像3Dモデルを生成しても良い。
[remarks]
In this embodiment, a 2D image is input to an inference device included in the trained image 3D model generation unit 12 to obtain a 3D image, and a 3D template is deformed based on the data of the 3D image. An example of applying 3D face image data to a 3D template has been explained. may be generated.

また、3Dテンプレート101は単一のものを用いても良いし、あるいは人種、性別毎等、顔の特徴毎に複数のテンプレートを用意しておき、取得した2D画像に応じて最適な3Dテンプレート101を選択して利用するようにしても良い。更に複数の3Dテンプレートを準備する場合、例えば、アジア人、欧米人の顔画像を機械学習等で学習させ、人種、性別、年齢に応じた顔の特徴(鼻の高さ、眉弓と眼球との位置関係等)を学習し、最適な3Dテンプレートを選択したり、最適となるよう3Dテンプレート或いは顔画像3Dモデルを変形させたりしても良い。 A single 3D template 101 may be used, or a plurality of templates may be prepared for each facial feature, such as each race and gender, and an optimum 3D template may be selected according to the acquired 2D image. 101 may be selected and used. Furthermore, when preparing multiple 3D templates, for example, facial images of Asians and Westerners are learned by machine learning, etc., and facial features (nose height, eyebrows and eyeballs) according to race, gender, and age , etc.) to select an optimum 3D template, or transform the 3D template or face image 3D model so as to be optimum.

また、この実施の形態において、画像生成装置1が生成する3Dアバター109は利用者2の顔として生成したが、これのみに限定されず、利用者2の顔以外の身体部分(例えば手、足、上半身全体、全身等)について生成することもできるし、利用者2以外の人物の3Dアバターを生成することも可能である。 In this embodiment, the 3D avatar 109 generated by the image generation device 1 is generated as the face of the user 2, but is not limited to this. , whole upper body, whole body, etc.), and it is also possible to generate a 3D avatar of a person other than the user 2 .

また、この実施の形態において、画像生成装置1は、人間以外の生物、例えば犬や猫等のペットや野生の動物や昆虫や植物等についての3Dアバターを生成することもできるし、生物以外、例えば自動車や電車等の交通機関、建築物等の3Dアバターを生成することも可能である。 Further, in this embodiment, the image generation device 1 can generate 3D avatars of creatures other than humans, such as pets such as dogs and cats, wild animals, insects, and plants. For example, it is possible to generate 3D avatars of transportation facilities such as automobiles and trains, and buildings.

また、この実施の形態の画像生成装置1は、クライアント・サーバシステムのサーバシステムとして構成し、全ての機能手段がサーバ側に存在する構成としたが、画像生成装置の符号11~15に示す機能手段のうちの少なくとも一部が端末3側に存在する構成であってもよい。また、画像生成装置1はネットワーク4に接続されないスタンドアロンのコンピュータにおいて構成することも可能である。 Further, the image generation apparatus 1 of this embodiment is configured as a server system of a client-server system, and all the functional means exist on the server side. At least part of the means may be configured to exist on the terminal 3 side. Also, the image generating apparatus 1 can be configured in a stand-alone computer that is not connected to the network 4. FIG.

なお、上記各実施の形態は本発明の例示であり、本発明が上記各実施の形態のみに限定されるものではないことは、いうまでもない。 It goes without saying that the above embodiments are examples of the present invention, and the present invention is not limited only to the above embodiments.

1・・・画像生成装置
2,2,2,・・・2・・・利用者(生物)
11・・・画像取得部(画像取得手段)
12・・・顔画像3Dモデル生成部(生物3Dモデル生成手段)
13・・・適合部(適合手段)
14・・・画像修正部(画像生成手段)
101・・・3Dテンプレート
102・・・顔画像3Dモデル(生物3Dモデル)
103・・・適合画像
104・・・反転部分(所定の不整合)
109,109,109,・・・109・・・3Dアバター(生物の3D画像、修正画像、3Dキャラクタ)
1... Image generation device 2, 2 1 , 2 2 ,... 2 m ... User (living creature)
11 image acquisition unit (image acquisition means)
12 Face image 3D model generation unit (biological 3D model generation means)
13 ... fitting part (fitting means)
14 image correction unit (image generation means)
101: 3D template 102: 3D face image model (3D biological model)
103 Matching image 104 Inverted portion (predetermined mismatch)
109, 109 1 , 109 2 , ... 109 k ... 3D avatar (3D image of creature, modified image, 3D character)

Claims (7)

3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像を生成する画像生成装置であって、
記録された前記3Dテンプレートと前記2D画像とを取得する画像取得手段と、
前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルを生成する生物3Dモデル生成手段と、
前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像を生成する適合手段と、
前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像を生成する画像修正手段とを備えたことを特徴とする画像生成装置。
An image generation device for generating a 3D image of a living organism by applying a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information,
an image acquisition means for acquiring the recorded 3D template and the 2D image;
3D organism model generating means for generating a 3D organism model as a 3D image by adding positional information in three-dimensional directions to the 2D image of the organism;
fitting means for generating a fitted image by fitting the 3D biological model to the 3D template using the position information of the 3D biological model;
When a predetermined mismatch that causes a visual discomfort occurs in the matching image, the mismatch is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. and image correction means for generating a corrected image.
前記画像修正手段は、前記修正画像の連続した面に色の不連続が生じている箇所に前記不整合の修正を行うことで前記色の不連続を修正する処理を行うことを特徴とする請求項1に記載の画像生成装置。 The image correction means performs a process of correcting the color discontinuity by correcting the color discontinuity at a portion of the corrected image where the color discontinuity occurs. Item 1. The image generation device according to item 1. 前記画像修正手段は、前記適合画像における、前記3Dテンプレートと該3Dテンプレートに適合させた前記生物3Dモデルとの境界部分に発生するZ方向の凹凸を修正する処理を行うことを特徴とする請求項1又は2に記載の画像生成装置。 3. The image correcting means performs a process of correcting unevenness in the Z direction occurring at a boundary portion between the 3D template and the 3D biological model adapted to the 3D template in the matched image. 3. The image generation device according to 1 or 2. 前記画像修正手段は、前記生物3Dモデルに対し、該生物3Dモデルが適合された前記3Dテンプレート全体との相対的な前記Z方向の位置を修正する処理を行うことを特徴とする請求項3に記載の画像生成装置。 4. The apparatus according to claim 3, wherein said image correction means corrects a position of said 3D organism model relative to said 3D template to which said 3D organism model is adapted in said Z direction. An image generating device as described. 前記3Dテンプレートは人体頭部であり、
前記生物の2D画像は人物の顔画像であり、
前記修正画像は前記人物の顔画像を用いて生成した3Dアバターであることを特徴とする請求項1乃至4の何れか一つに記載の画像生成装置。
The 3D template is a human head,
the 2D image of the organism is a face image of a person;
5. The image generating apparatus according to claim 1, wherein the modified image is a 3D avatar generated using the facial image of the person.
3次元方向の情報を有する画像モデルとしての3Dモデルの画像テンプレートとしての3Dテンプレートに、2次元方向の情報を有する2D画像を適用して、生物の3D画像を生成させる、画像生成装置における画像生成方法であって、
記録された前記3Dテンプレートと前記2D画像とが取得される画像取得手順と、
前記生物の前記2D画像に3次元方向の位置情報を加えて3D画像とした生物3Dモデルが生成される生物3Dモデル生成手順と、
前記生物3Dモデルの前記位置情報を用いて、前記3Dテンプレートに前記生物3Dモデルを適合させた適合画像が生成される適合手順と、
前記適合画像に視覚上の違和感を生じさせる所定の不整合が生じている場合に、前記適合画像の少なくとも一部に前記3次元方向の位置情報の変更を加えて前記不整合の修正を施した修正画像が生成される画像修正手順とを備えたことを特徴とする、画像生成装置における画像生成方法。
Image generation in an image generation device for generating a 3D image of a living organism by applying a 2D image having two-dimensional direction information to a 3D template as an image template of a 3D model as an image model having three-dimensional direction information a method,
an image acquisition procedure in which the recorded 3D template and the 2D image are acquired;
a biological 3D model generation procedure for generating a biological 3D model as a 3D image by adding positional information in three-dimensional directions to the biological 2D image;
a fitting step in which a fitted image is generated by fitting the 3D biological model to the 3D template using the position information of the 3D biological model;
When a predetermined mismatch that causes a visual discomfort occurs in the matching image, the mismatch is corrected by changing the positional information in the three-dimensional direction to at least a part of the matching image. and an image modification procedure for generating a modified image.
コンピュータを前記請求項1乃至5の何れか一つに記載の画像生成装置として機能させることを特徴とするプログラム。

A program that causes a computer to function as the image generating apparatus according to any one of claims 1 to 5.

JP2021069853A 2021-04-16 2021-04-16 Image generation apparatus, image generation method, and program Pending JP2022164390A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021069853A JP2022164390A (en) 2021-04-16 2021-04-16 Image generation apparatus, image generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021069853A JP2022164390A (en) 2021-04-16 2021-04-16 Image generation apparatus, image generation method, and program

Publications (1)

Publication Number Publication Date
JP2022164390A true JP2022164390A (en) 2022-10-27

Family

ID=83743009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021069853A Pending JP2022164390A (en) 2021-04-16 2021-04-16 Image generation apparatus, image generation method, and program

Country Status (1)

Country Link
JP (1) JP2022164390A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078646A (en) * 2003-08-29 2005-03-24 Samsung Electronics Co Ltd Photorealistic three-dimensional face modeling method and apparatus based on video
JP2013008137A (en) * 2011-06-23 2013-01-10 Tokyo Univ Of Agriculture & Technology Data transmission device for three-dimensional shape modeling, data reception device for three-dimensional shape modeling, three-dimensional shape modeling system, data transmission program for three-dimensional shape modeling, and data reception program for three-dimensional shape modeling
WO2021071995A1 (en) * 2019-10-07 2021-04-15 Boston Polarimetrics, Inc. Systems and methods for surface normals sensing with polarization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078646A (en) * 2003-08-29 2005-03-24 Samsung Electronics Co Ltd Photorealistic three-dimensional face modeling method and apparatus based on video
JP2013008137A (en) * 2011-06-23 2013-01-10 Tokyo Univ Of Agriculture & Technology Data transmission device for three-dimensional shape modeling, data reception device for three-dimensional shape modeling, three-dimensional shape modeling system, data transmission program for three-dimensional shape modeling, and data reception program for three-dimensional shape modeling
WO2021071995A1 (en) * 2019-10-07 2021-04-15 Boston Polarimetrics, Inc. Systems and methods for surface normals sensing with polarization

Similar Documents

Publication Publication Date Title
US12054227B2 (en) Matching meshes for virtual avatars
US11868515B2 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
JP4733318B2 (en) Method and system for animating facial features and method and system for facial expression transformation
JP4932951B2 (en) Facial image processing method and system
US11557076B2 (en) Computer generated hair groom transfer tool
US7116330B2 (en) Approximating motion using a three-dimensional model
JP3288353B2 (en) How to create a 3D face model starting from a face image
CN106023288B (en) An Image-Based Dynamic Stand-In Construction Method
KR20180090746A (en) Apparatus and method to generate realistic rigged three dimensional (3d) model animation for view-point transform
US11403800B1 (en) Image generation from 3D model using neural network
CN106952336B (en) Feature-preserving human three-dimensional head portrait production method
JP4842242B2 (en) Method and apparatus for real-time expression of skin wrinkles during character animation
JP6818219B1 (en) 3D avatar generator, 3D avatar generation method and 3D avatar generation program
US11282282B2 (en) Virtual and physical reality integration
CN114998514B (en) Method and device for generating virtual characters
Lee et al. Cloning and Aging in a VR Family
EP3980975B1 (en) Method of inferring microdetail on skin animation
US20240169635A1 (en) Systems and Methods for Anatomically-Driven 3D Facial Animation
JP2022164390A (en) Image generation apparatus, image generation method, and program
JP2739447B2 (en) 3D image generator capable of expressing wrinkles
Hou et al. Real-time markerless facial motion capture of personalized 3D real human research
Nendya et al. Facial rigging for 3d character
Zhao et al. 3D Facial Model Reconstruction and Expression Generation Based on Dirichlet free-form Deformations Algorithm
JP2023044195A (en) Three-dimensional avatar generation device, three-dimensional avatar generation method, and three-dimensional avatar generation program
CN119027212A (en) Image acquisition method, device and related equipment

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230829