JP2004110519A - Texture expression device, texture expression method, and synthesis method - Google Patents
Texture expression device, texture expression method, and synthesis method Download PDFInfo
- Publication number
- JP2004110519A JP2004110519A JP2002273358A JP2002273358A JP2004110519A JP 2004110519 A JP2004110519 A JP 2004110519A JP 2002273358 A JP2002273358 A JP 2002273358A JP 2002273358 A JP2002273358 A JP 2002273358A JP 2004110519 A JP2004110519 A JP 2004110519A
- Authority
- JP
- Japan
- Prior art keywords
- information
- dimensional structure
- symbol
- color sample
- texture expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
【課題】立体構造物とそれに描かれた図柄の色を実物の物とほぼ同様の質感で表示させることができる機能を備えた質感表現装置を提供する。
【解決手段】質感表現処理部14が立体構造物への照射角度と観測角度の選択と、立体構造物の材質の選択とを受付けて、その受付けた情報に基づいて合成情報で表す立体構造物と図柄の各部分の分光反射率を色見本データベース18で記憶する色見本情報から特定する。そして質感表現処理部14は、特定したその色見本情報と合成情報とを含む質感表現情報を作成する。そして視覚特性変換処理部15が質感表現情報を元に端末2の表示部で表示できる色の特性に合わせた表示情報を作成し、表示情報を端末2の表示部に表示する。
【選択図】 図1A texture expression device having a function of displaying a three-dimensional structure and a color of a design drawn on the three-dimensional structure with almost the same texture as a real thing is provided.
A texture expression processing unit receives a selection of an irradiation angle and an observation angle to a three-dimensional structure, and a selection of a material of the three-dimensional structure, and the three-dimensional structure represented by synthetic information based on the received information. Then, the spectral reflectance of each part of the pattern is specified from the color sample information stored in the color sample database 18. Then, the texture expression processing unit 14 creates texture expression information including the specified color sample information and the synthesis information. Then, the visual characteristic conversion processing unit 15 creates display information according to the color characteristics that can be displayed on the display unit of the terminal 2 based on the texture expression information, and displays the display information on the display unit of the terminal 2.
[Selection diagram] Fig. 1
Description
【0001】
【発明の属する技術分野】
この発明は、コンピュータシステムに係り、特に、質感表現装置及び質感表現方法並びに合成方法に関するものである。
【0002】
【従来の技術】
従来、立体構造物に図柄を印刷した製品を製造する場合、まず、デザイナーが製品の完成した時のイメージ図(立体構造物に図柄が描かれた図)を、例えばコンピュータに備わる画像作成ソフトウェアなどで描いている。そして、そのイメージ図への色指定を画像作成ソフトウェアで行なう場合には、デザイナーは図柄を製品に印刷する際に使用される色材の色見本を確認しながら、その色見本を表す色見本識別番号を画像作成ソフトウェア上で選択してイメージ図へ色を指定している。そして、そのイメージ図を製品の製造依頼者に提示して、製造依頼者による製品の色の確認が終わった後に、印刷業者が立体構造物にイメージ図の図柄を印刷して製品を製造している。
ここで、例えば、製品が飲料缶であり、製品の製造依頼者が飲料物製造会社である場合、最初に飲料物製造会社はデザイナーに飲料缶が完成したときのイメージ図の作成を依頼し、デザイナーはそのイメージ図を作成する。またデザイナーはイメージ図を作成する際に、既存の色見本を表す色見本識別番号を用いて画像作成ソフトウェア上でイメージ図に色指定を行う。そしてデザイナーは、イメージ図を飲料物製造会社へ提示して飲料物製造会社の了解を得てから、印刷業者は金属缶にイメージ図の印刷を行う。ここで、立体構造物にイメージ図の図柄をコンピュータを用いてシミュレーションする従来の方法では、その図柄としてビットマップ(画面上において点の集合によりイメージの形や色を表現する方法)を用いている(例えば特許文献1参照。)。
【0003】
【特許文献1】
特開平6−231274号公報(第3−5頁)
【0004】
【発明が解決しようとする課題】
しかしながら、上述の従来技術においては、その図柄を拡大縮小する時に、あらかじめ拡大サイズに合ったイメージの解像度でイメージ図を作成しないと、図22のように図柄の品質を損なったり、無駄な高い解像度での図柄データを用意しなければならない。また、図柄の色を変更する時に図23のように指定した図柄が重なっている場合には、その色を変更したい図柄がどこまでの領域かを判断する作業が必要であり、また、もし図柄の一部が完全に閉じていないと図23のように他図柄の色も変更されてしまう。
また、従来の方法により製品に印刷する図柄(イメージ図)を作成する方法では、実際に製品となる立体構造物と図柄の色に当たる光の具合など製品の質感を考慮してイメージ図を作成していないので、製造された製品とイメージ図の間に、感覚的な色の見え方の差が出てしまう。そして、これにより、印刷業者は何度も色を変更してイメージ図に合った製品を製造しなければならなかった。
【0005】
そこでこの発明は、図柄を拡大縮小した時に図柄の品質を損なったり、その図柄の色を変更する際にどこまでが図柄の領域かを判断する作業が必要がないベクトル情報を用いた図柄と立体構造物とを合成したイメージ図をコンピュータ上でシュミレーションすることができ、また、そのイメージ図における立体構造物の色とそれに描かれた図柄の色を、製造した製品とほぼ同様の質感でコンピュータのディスプレイ装置へ表示させることができる機能を備えた、質感表現装置及び質感表現方法並びに合成方法を提供することを目的としている。
【0006】
【課題を解決するための手段】
本発明は、上述の課題を解決すべくなされたもので、立体構造物の形状を表す立体構造物情報を記憶する立体構造物情報記憶部と、図柄の形状を表す形状情報と前記図柄を構成する各部分の色に対応する色見本の色見本識別番号情報を保持した図柄情報を記憶する図柄情報記憶部と、前記立体構造物情報と前記図柄情報を合成し前記図柄が前記立体構造物に合成された形状を表す合成情報を作成する合成手段とを備えることを特徴とする質感表現装置である。
【0007】
上述の構成によれば、立体構造物情報記憶部に記憶する立体構造物情報と、図柄情報記憶部に記憶する図柄情報を、合成手段が合成し図柄が立体構造物に合成された形状を表す合成情報を作成する。
これにより、3次元の立体構造図と、2次元の図柄における各図形の座標情報を合成した合成情報を得る事ができ、またその合成情報を用いれば立体構造図とその立体構造図に投影する各図形の位置関係を把握することが可能となる。
【0008】
また、本発明は、上述した質感表現装置であって、前記色見本を特定の材質の媒体に着色して該媒体に所定の方向の光源からの光を照射し該光の反射光を所定の方向から観測したときの分光反射率を測定して得られる色見本情報であって、当該色見本の色見本識別番号情報と、前記光の照射方向と、当該材質の種類と、前記反射光の観測方向と、測定された分光反射率とを関連づけて保持される色見本情報を記憶する色見本情報記憶部と、前記立体構造物への光の照射方向と当該立体構造物の材質の種類と当該立体構造物の観測方向の選択を受付け、これら受付けた情報と、前記合成情報から得られる前記立体構造物の各部分に対応する色見本識別番号情報とに基づき、立体構造物の各部分に対応する分光反射率を前記色見本情報記憶部から読み出し、立体構造物の各部分の分光反射率を含む質感表現情報を作成する質感表現情報作成手段とをさらに備えることを特徴とする。
【0009】
上述の構成によれば、質感表現情報作成手段が、立体構造物への光の照射方向と、その立体構造物の材質の種類と、その立体構造物の観測方向の選択を受付け、これら受付けた情報と、合成情報から得られる立体構造物の各部分に対応する色見本識別番号情報とに基づき、立体構造物の各部分に対応する分光反射率を色見本情報記憶部から読み出し、立体構造物の各部分の分光反射率を含む質感表現情報を作成する。
これにより、立体構造物とそれに投影された図柄の色を実物とほぼ同様の質感で例えば出力装置へ表示させることができる。
【0010】
また、本発明は、上述した質感表現装置であって、出力装置の種類毎の表示特性情報を保持する表示特性情報記憶部と、出力装置の種類の選択を受付け、この選択された出力装置の表示特性情報を前記表示特性情報記憶部から読み出し、読み出された表示特性情報と前記質感表現情報から得られる前記立体構造物の各部分の分光反射率とに基づき、前記各部分の三刺激値を算出し、前記算出した三刺激値に前記表示特性情報を合わせた後の三刺激値を用いて前記出力装置へ色を出力する視覚特性変換手段とをさらに備えることを特徴とする。
【0011】
上述の構成によれば、表示特性情報記憶部が出力装置の種類毎の表示特性情報を保持し、視覚特性変換手段が、出力装置の種類の選択を受付け、この選択された出力装置の表示特性情報を表示特性情報記憶部から読み出す。そして視覚特性変換手段は、読み出された表示特性情報と前記質感表現情報から得られる立体構造物の各部分の分光反射率とに基づき、各部分の三刺激値を算出し、前記算出した三刺激値に表示特性情報を合わせた後の三刺激値を用いて出力装置へ色を出力する。
これにより質感表示装置は、質感表現情報から算出される三刺激値が出力装置の表示できる三刺激値の範囲を越えている場合でも、出力装置が表示できる色の特性に合わせた三刺激値を用いて出力装置へ色を出力する事ができる。
【0012】
また、本発明は、上述した質感表現装置であって、前記立体構造物情報記憶部が、立体構造物の形状を表す座標情報を記憶し、前記図柄情報記憶部は、図柄の形状を表す座標情報と前記図柄を構成する各部分の色に対応する色見本の色見本識別番号情報を保持した図柄情報を記憶し、前記合成手段は、前記立体構造物を平面展開した場合の形状を表す2次元の座標情報を立体構造物の形状を表す座標情報から作成し、前記立体構造物を平面展開した場合の形状を表す2次元の座標情報と前記図柄の形状を表す座標情報を合成することを特徴とする。
【0013】
また、本発明は、上述した質感表現装置であって、前記質感表現情報作成手段は、前記立体構造物の座標情報を座標変換して決定する立体構造物の表示位置の指定と、前記光源の座標と、前記観測を行なう観測点の座標との指定を受付ける表示環境受付け手段と、前記立体構造物の表面上の点における法線ベクトルを基準とした前記光源からの前記照射方向の角度と、前記観測方向の角度と、前記照射方向と前記観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度とを、前記表示環境受付け手段が受付けた表示位置と、光源の座標と、観測点の座標と、前記点の座標とに基づいて計算する角度計算手段と、前記合成情報に基づいて前記点における色見本識別番号を求める色見本識別番号情報把握手段と、前記材質の指定を受付けて、その受付けた材質と前記角度計算手段で計算した各角度との組合せと前記色見本識別番号把握手段で求められた色見本識別番号とに基づいて、前記立体構造物の表面を表す各座標における分光反射率を前記色見本情報記憶部に記憶する分光反射率から特定して読み出す分光反射率特定手段とを備え、前記分光反射率特定手段が特定して読み出した前記立体構造物の表面上の点毎の分光反射率からなる質感表現情報を作成することを特徴とする。
【0014】
また、本発明は、色見本の色見本識別番号情報と、前記光の照射方向と、当該材質の種類と、前記反射光の観測方向と、測定された分光反射率とを関連づけて保持される色見本情報を記憶する色見本情報記憶部を備えた質感表現装置における質感表現方法であって、前記質感表現装置の質感表現情報作成手段が、立体構造物への光の照射方向と当該立体構造物の材質の種類と当該立体構造物の観測方向の選択を受付け、これら受付けた情報と、前記合成情報から得られる前記立体構造物の各部分に対応する色見本識別番号情報とに基づき、立体構造物の各部分に対応する分光反射率を前記色見本情報記憶部から読み出し、立体構造物の各部分の分光反射率を含む質感表現情報を作成する質感表現作成過程を備えることを特徴とする質感表現方法である。
【0015】
また、本発明は、出力装置の種類毎の表示特性情報を保持する表示特性情報記憶部を備えた質感表現装置における質感表現方法であって、前記質感表現装置の視覚特性変換手段が、出力装置の種類の選択を受付け、この選択された出力装置の表示特性情報を前記表示特性情報記憶部から読み出し、読み出された表示特性情報と前記質感表現情報から得られる前記立体構造物の各部分の分光反射率とに基づき、前記各部分の三刺激値を算出し、前記算出した三刺激値に前記表示特性情報を合わせた後の三刺激値を用いて前記出力装置へ色を出力する視覚特性変換過程とをさらに備えることを特徴とする。
【0016】
また、本発明は、立体構造物の形状を表す立体構造物情報を記憶する立体構造物情報記憶部と、図柄の形状を表す形状情報と前記図柄を構成する各部分の色に対応する色見本の色見本識別番号情報を保持した図柄情報を記憶する図柄情報記憶部と、を備えた質感表現装置における前記立体構造物情報と前記図柄情報の合成方法であって、前記質感表現装置の合成手段が、前記立体構造物情報と前記図柄情報を合成し前記図柄が前記立体構造物に合成された形状を表す合成情報を作成する合成過程を備えることを特徴とする合成方法である。
【0017】
また、本発明は、上述した合成方法において、図柄全体の背景領域の縦横サイズを正規化した座標系での各図柄の位置および形状をベクトル情報で示す前記図柄情報と前記立体構造物情報とを合成し、前記図柄が前記立体構造物に合成された形状を表す合成情報を作成する合成過程を備えることを特徴とする。
上述の構成によれば、前記図柄の位置や形状などの座標情報を正規化したベクトル情報で処理するため、拡大縮小する場合には各図柄の座標情報を定数倍すればよいだけであり、図24のように従来の技術で問題であった拡大縮小による品質の劣化や無駄な高い解像度データを用意する必要はない。また、図柄毎の座標情報を保持しているため、色を変更する場合には、色を変更したい図柄がどこまでの領域かを判断する作業は不要であり、また、もし図柄の一部が完全に閉じていなくても図25のように他図柄の色も変更されてしまうことはない。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態による質感表現装置を図面を参照して説明する。
図1は、この発明の一実施形態による質感表現装置の構成を示す概略ブロック図である。
この図において符号1は質感表現装置である。2は図柄の印刷された立体構造物の質感を表現したイメージ図を表示する端末である。なお、この端末2はデザイナーが立体構造物に描く図柄の作成や、その立体構造物の立体構造図の作成を行なうためにも用いられる。そして端末2は、例えばPC(Personal Computer)などであり、モニタやマウスやキーボードを備えている。
そして11は、端末2からの指示に基づいて立体構造物に描く図柄の作成処理を行なう図柄作成処理部である。なお、この図柄作成処理部11はベクトルデータ(ベクトル情報)を用いて図柄の作成処理を行なう。12は製品(立体構造物)の立体構造図の作成処理を行なう立体構造図作成処理部である。13は図柄作成処理部11が作成した図柄の形状情報と、立体構造図作成処理部12が作成した立体構造物図情報とを合成した合成情報を作成する合成処理部(合成処理手段)である。
14は合成処理部13が作成した合成情報に基いて、立体構造物の質感とその立体構造物に描かれた図柄のイメージ図を表示部に表示する質感表現処理部(質感表現情報作成手段)である。なお、質感表現処理部14は、表示環境受付け手段と、角度計算手段と、色見本識別番号情報把握手段と、分光反射率情報特定手段とを備えている。
また15は端末2の表示部が表示できる色の特性に合わせて、出力する色の三刺激値を修正する視覚特性変換処理部(表示特性情報記憶部)である。また視覚特性変換処理部15は複数の端末2の表示特性情報(各端末2の表示部に表示できる三刺激値の範囲を表す情報)を、端末2毎に保持している。
【0019】
また16は図柄作成処理部11が作成した図柄に含まれる各図形を表した座標を形状情報として記憶する図柄データベース(図柄情報記憶部)である。17は立体構造図作成処理部12が作成した立体構造図を表した座標を立体構造図情報(立体構造物情報)として保持する立体構造図データベース(立体構造物情報記憶部)である。また18は、印刷業者が立体構造物に図柄を印刷する際に用いる色の色見本情報を複数保持する色見本データベース(色見本情報記憶部)である。
なお、色見本情報は、金属素材やプラスチック(例えばアルミニウムやPET(ポリエチレンテレフタレート))などのプレートに特定の色を着色し、そのプレートに光を照射して計測した分光反射率の情報である。そして、この色見本情報は図2の色見本データベース18におけるデータ構造のイメージを示す図のように、色見本の色を識別する色見本識別番号と、プレートに垂直な法線ベクトルを基準とした光の照射方向の角度(照射角度)及び、その光の反射率を計測する方向の角度(観測角度)と、照射方向と観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度と、着色したプレートの媒体材質との組合せ毎に分光反射率の情報を保持している。
なお、照射角度と観測角度は法線ベクトルを基準として0〜70度までの10度間隔での角度で設定され、また、照射方向と観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度は0度〜180度まで10度間隔の角度で設定されている。
ここで、分光反射率とは物体に白色光を当てた場合の反射率を示す数値であり、本実施の形態においては、400nmから700nmまでの10nm毎の波長の光で各色見本のプレートに光を照射して計測した反射率を示す数値である。
【0020】
そして、デザイナーが端末2上で立体構造物の立体構造図(例えば、3Dグラフィックのモデリング技法のひとつであるワイヤーフレームモデル(空間内の座標を直線で結んだデータ構造で形状を表す技法)で描かれた立体構造図)の作成と、その立体構造物に印刷する図柄の作成を行なう。なお図柄と立体構造図は質感表現装置1の図柄作成処理部11と立体構造図作成処理部12の機能により作成される。そして図柄作成処理部11が図柄の2次元の形状を表した座標の情報と、図柄に含まれる各図形の色の情報となる色見本識別番号を含む図柄情報を図柄データベース16に記録し、立体構造図作成処理部12が立体構造図の3次元の形状を表した座標の情報である立体構造図情報を図柄データベース16に記録する。
【0021】
そして、図3の質感表現装置1の処理フローに示すように、合成処理部13が図柄情報と立体構造図情報を読み込んで(1)、立体構造図情報の3次元の座標を2次元の座標へと変換し、その変換後の立体構造図情報の座標と2次元の図柄情報の座標とを合成した合成情報を作成する(2)。なお、合成情報は2次元の図柄情報に含まれる各図形の色見本識別番号も保持している。次に、質感表現処理部14が合成処理部13の作成した合成情報(3)と、立体構造物への光の照射角度(4)と、その立体構造物を観測する観測角度(5)と、照射方向と観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度(6)と、また、立体構造物が作成される媒体材質の媒体材質情報(7)に基づいて、色見本データベース18に記憶している色見本情報を決定し、その色見本情報を読み込む(8)。そして質感表現処理部14は、その色見本情報と合成情報を質感表現情報とする(9)。次に、視覚特性変換処理部15が質感表現情報を受付け(10)、端末2の表示部に図柄の合成された立体構造物を表示する際に、その色見本情報から得られる分光反射率情報を端末2の表示部の特性に合わせた表示情報を作成する(11)。そして視覚特性変換処理部15が表示情報を端末2の表示部などに表示する(12)。
なお、本発明において合成処理部13は3次元の立体構造を、行列を用いた座標変換により2次元に表すことのできる立体構造物の立体構造図情報と、その立体構造物に印刷する図柄の図柄情報の合成が可能である。
【0022】
次に上述した質感表現装置1の動作を図4〜図7を参照しながら詳細に説明する。図4は本実施形態における質感表現装置1の図柄作成処理部11と立体構造図作成処理部12の処理概要を示すフローチャートである。また図5は合成処理部13の処理概要を示すフローチャートである。図6は質感表現処理部14及び視覚特性変換処理部15の処理概要を示す第1のフローチャートである。図7は質感表現処理部14及び視覚特性変換処理部15の処理概要を示す第2のフローチャートである。
まず図4のフローチャートを参照しながら立体構造図作成処理部12の処理概要を説明する。デザイナーが端末2を用いて飲料缶に印刷する図柄を作成する。この図柄の作成は、デザイナーの端末2からの図柄の作成指示を図柄作成処理部11が受付けて図柄の作成処理を行なう(ステップS1)。デザイナーが作成した図柄を図8に示す。この図において、図形の数は「背景」「L」「O」「G」「O」「C」「A」「N」と「CANの文字の枠部分」の9点である。次に、デザイナーは上述の9点の図形に着色する色を表す色見本識別番号の選択をおこなう。この色見本識別番号の選択処理は、まず、図柄作成処理部11が色見本データベース18に記録されている全ての色見本識別番号を端末2に提示する。デザイナーが端末2に提示された色見本識別番号から図柄に示された各図形に着色する色の色見本識別番号を選定して、図柄作成処理部11がその選定を受付ける(ステップS2)。
【0023】
デザイナーがステップS2において、9つの各図形に着色する色を決定すると、図柄作成処理部11はその図形の形状情報(図形を座標により表現した情報(XY座標:Dx、Dy))および、上述の9つの図形毎に指定された色見本識別番号を、ポストスクリプト(登録商標)言語に代表されるページ記述言語形式でのベクトルデータ(例えば、直線における端点のXY座標の情報、または、ベジェ曲線の場合における端点と制御点のXY座標の情報)として図柄データベース16に保存し、また、図柄作成処理部11は、図柄の範囲(背景)の縦(Dh)と横(Dw)のサイズ情報(座標に表される情報(XY座標:Dx、Dy))を、上述の形状情報および色見本識別番号とともに図柄データベース16に保存する(ステップS3)。なお、1つの図柄に関する上述の形状情報、色見本識別番号、サイズ情報をあわせて図柄情報と呼ぶこととする。
そして、図柄情報のデータは、図柄を構成する各図形を表した座標情報と、その図形毎に対応付けられた色見本識別番号との組合せのテーブルである。そして、その図柄情報で表される各図柄が、例えば図9に示すように、図形C(長方形の図形)上に重ねられる図形B(楕円の図形)と、さらに図形C及び図形Bの上に重ねられる図形A(楕円の図形)で表される図柄の場合には、図柄情報のデータとなるテーブルには図柄の中で一番上に重ねられて着色される図形の情報から順に記録されている。そして、図9の図柄の場合には、図柄情報のデータとなるテーブルの上から順に、図形Aの座標情報とそれに対応する色見本識別番号が記録され、次に図形Bの座標情報とそれに対応する色見本識別番号が記録され、次に図形Cの座標情報とそれに対応する色見本識別番号が記録される。
なお、本実施形態においては形状情報、色見本識別番号、サイズ情報を図柄情報とするが、他の実施形態においては別の情報が含まれるか、またはこれら3つの情報のうち何れかの情報が無くても良い。
【0024】
次に、デザイナーは端末2の表示部にて、飲料缶の立体構造図を作成する。なお、デザイナーの端末2からの立体構造図の作成指示を立体構造図作成処理部12が受付けて立体構造図の作成処理を行なう(ステップS4)。ここでデザイナーは、図10に示す半径R、高さHの円柱形の飲料缶の立体構造図を作成する。そして、立体構造図作成処理部12は、デザイナーが作成した円柱の立体構造図に基づいて、その円柱の中心が座標系の原点となる3Dモデリング座標の情報(立体構造図情報)を立体構造図データベース17に記録する(ステップS5)。
【0025】
ここで図柄データベース16には図柄情報が記録され、また、立体構造図データベース17には円柱の3Dモデリング座標の情報(立体構造図情報)が記録されている。この状態で、デザイナーが端末2より合成指示を行なうと、合成処理部13が図柄情報と立体構造図情報の合成処理を行なう。
次に、合成処理部13が図柄情報と立体構造図情報を合成処理を行なう例を図5のフローチャートを用いて説明する。
まず、端末2からの合成指示を合成処理部13が受付けると、合成処理部13は図柄情報を図柄データベース16から読み込み、図柄情報からサイズ情報と形状情報を読み取る(ステップS6)。
次に、合成処理部13はステップS6で図柄情報から読み取った形状情報により表される9点の各図形のXY座標と、サイズ情報により表される背景の縦横の長さを表現するXY座標(Dx、Dy)を、[数1]の式を用いて長さ1に正規化したUpVp座標系(Upx、Vpy)に変換する(ステップS7)。なお、このUpVp座標系に変換した9点の各図形と背景の縦横の長さを表現する各座標を、変換後図柄座標と呼ぶとする。変換後図柄座標によって図柄を表現すると、図11に示すような図になる。
【0026】
【数1】
【0027】
また合成処理部13は、円柱の3Dモデリング座標を立体構造図データベース17から読み取る(ステップS8)。
そして、合成処理部13は読み取った3Dモデリング座標において、図12で示すように(X、Y、Z)=(0、Y、−Z)となるZ軸のマイナス方向に平行な面と円柱側面が重なる座標を検出し、その検出した座標に基づいて円柱側面を切断する(ステップS9)。そして、合成処理部13は図13で示すように、切断した円柱側面の(0、Y、−Z)の切断部分の軸をVc軸、円柱の底面の円に沿った軸をUc軸とする。また合成処理部13は、Vc軸における立体構造図の高さHを表す座標と、Uc軸における立体構造図の円周の長さを表現するXY座標を、長さ1に正規化したUcVc座標系(Ucx、Vcy)に変換する(ステップS10)。なお、このUcVc座標系に変換した立体構造図の高さHと円周を表現する各座標を変換後立体構造図座標と呼ぶとする。
【0028】
次に合成処理部13は、UpVp座標系で表される変換後図柄座標の数値を、UcVc座標系に代入する。これにより、UcVc座標系で表された円柱面に、UpVp座標系で表される変換後図柄座標の数値が代入され、図柄が円柱面に投影された合成図が作成される(ステップS11)。図柄が円柱面に投影された合成図のイメージを図14に示す。なお、変換後図柄座標と変換後立体構造図座標が重なって表現されたUcVc座標系の合成図の情報を合成情報とする。次に、合成処理部13は、図柄データベース16に記憶する図柄情報から色見本識別番号を読み取る(ステップS12)。
【0029】
次に、デザイナーが端末2において立体構造図の媒体の材質(例えば、アルミ、プラスチックなど)を指定する。ここで立体構造図は飲料缶を表しているので、デザイナーは「アルミ」の質感で立体構造図を表示するように指定し、その指定を合成処理部13が受付ける(ステップS13)。
すると、合成処理部13は、合成情報から円柱を表現する3Dモデリング座標を、端末2の表示部のワールド座標系(コンピュータ画面全体を表す座標系)に表示する(ステップS14)。なお、この時、合成処理部13はワールド座標系の原点に3Dモデリング座標の原点を合わせて表示する。
次に、デザイナーは端末2に表示された円柱に対して、端末2に備えられているマウスやキーボードを用いて拡大/縮小/平行移動/回転などの指示を行ない、その指示を合成処理部13が受付け、円柱の配置調整操作をする(ステップS15)。合成処理部13は配置調整操作を以下の座標変換行列(A)により行なって、図15に示す3Dモデリング座標値(x1、y1、z1)を図16に示すワールド座標値(wx1、wy1、wz1)に変換し、円柱の形状を端末2の画面に表示する。
【0030】
【数2】
【0031】
次に、質感表現処理部14の処理を説明する。
まず、デザイナーが端末2より、端末2の表示部のワールド座標系において、円柱に照射する照明の位置座標(WL)と、円柱を観察する視点の位置座標(WV)を指定すると、その指定を質感表現処理部14が受付ける(ステップS16)。照明の位置座標(WL)と円柱を観察する視点の位置座標(WV)の指定したイメージを図17に示す。
そして、デザイナーが端末2からレンダリング指示を行ない、その指示を質感表現処理部14が受付けて、質感表現処理部14がレンダリング処理を開始する(ステップS17)。
質感表現処理部14はレンダリング指示を受けると、端末2の表示部のワールド座標系における照明の位置座標WLと、視点の位置座標WVを[数1]の座標変換行列(A)の逆行列(Ainv)を用いて3Dモデリング座標系に変換する(ステップS18)。逆行列(Ainv)を[数3]に示す。
【0032】
【数3】
【0033】
なお、照明の位置座標WLの3Dモデリング座標系への変換後の座標をML、視点の位置座標WVの3Dモデリング座標系への変換後の座標をMVとする。そして、照明の位置座標WLの3Dモデリング座標系への変換後の座標のMLと視点の位置座標WVの3Dモデリング座標系への変換後の座標のMVのイメージを図18に示す。
【0034】
次に、質感表現処理部14は円柱側面の3Dモデリング座標のある定点(x1、y1、z1)における法線ベクトルNm((x1、y1、z1)に接する平面に垂直なベクトル)を以下の式により求める(ステップS19)。(図18参照)
【0035】
【数4】
【0036】
そして、質感表現処理部14は3Dモデリング座標系での照明の位置座標MLと、視点の位置座標MVと、法線ベクトルNmを、3Dモデリング座標の定点(x1、y1、z1)を原点としたローカル座標系(X’、Y’、Z’)に変換する(ステップS20)。(図19参照)
なお、照明の位置座標MLのローカル座標系への変換後の座標をL、視点の位置座標WVのローカル座標系への変換後の座標をView、法線ベクトルNmのローカル座標系への変換後の座標をNとする。また、ローカル座標系への座標変換は以下の式により行なわれる。
【0037】
【数5】
【0038】
次に、質感表現処理部14はステップS20で求めたローカル座標系の法線ベクトルNをローカル座標系のZ’軸と同じ方向に回転させるために、図20に示す法線ベクトルNとZ’軸の角度θZを求める。まず質感表現処理部14はZ’軸の単位ベクトルez(0、0、1)と法線ベクトルNの内積を求める(ステップS21)。Z’軸の単位ベクトルez(0、0、1)と法線ベクトルNの内積は以下の式で表される。
【0039】
【数6】
【0040】
次に、質感表現処理部14は、ステップS21で求めた内積<ez・N>から、以下の式により法線ベクトルNとZ’軸の角度θZを求める(ステップS22)。
【0041】
【数7】
【0042】
そして、質感表現処理部14は、ステップS22で求めたθZにより、法線ベクトルNをZ’軸と同じ方向にするためのY’軸を中心とした回転行列(B)を以下の行列に設定する(ステップS23)。
【0043】
【数8】
【0044】
次に、質感表現処理部14は、ステップS23で設定した回転行列(B)を用いて、法線ベクトルNをZ’軸と同じ方向に回転させるとともに、ステップS20で求めたローカル座標系での照明の位置座標Lと、視点の位置座標View、も同じく角度だけ回転させる(ステップS24)。なお、回転行列(B)を用いて回転させた後の法線ベクトルをN’、照明の位置座標をL’、 視点の位置座標ViewをView’とする。
【0045】
次に質感表現処理部14は、回転行列(B)を用いてステップS24で回転させた照明の位置座標L’とZ’軸(法線ベクトルN’)との天頂角度θL(図21参照)を以下の式により求める(ステップS25)。
【0046】
【数9】
【0047】
また質感表現処理部14は、回転行列(B)を用いてステップS24で回転させた視点の位置座標View’とZ’軸(法線ベクトルN’)との天頂角度θv(図21参照)を以下の式により求める(ステップS26)。
【0048】
【数10】
【0049】
次に、質感表現処理部14は回転行列(B)を用いてステップS24で回転させた照明の位置座標L’と視点の位置座標View’とをローカル座標系のX’Y’面に投影したLxyとViewxyとの間の角度Φ(図21参照)を求める(ステップS27)。角度Φは以下の式により求める事が出来る。
【0050】
【数11】
【0051】
次に、質感表現処理部14は、円柱面の3Dモデリング座標の定点(x1、y1、z1)に該当するUcVc座標値(Ucx、Vcy)を求める(ステップS28)。ここで、3Dモデリング座標における(0、y1、−R)を基準とした0〜2πまでの角度θにより、3Dモデリング座標値(X、Y、Z)を一般的に表現する式は以下の様になる。
【0052】
【数12】
【0053】
そして、定点(x1、y1、z1)に該当するθ、hのパラメータは以下の式で求めることができる。
【0054】
【数13】
【0055】
また、[数13]によるθとhのパラメータを用いて、UcVc座標値を求める式は以下の様な式となる。
【0056】
【数14】
【0057】
これにより、質感表現処理部14は、ステップS28で求めた円柱面の定点(x1、y1、z1)に該当するUcVc座標系の座標が、ステップS12で転送を受けた合成情報におけるUcVc座標系の変換後図柄座標に一致しているかどうかを判断する(ステップS29)。ここでモデリング座標系における円柱面の定点(x1、y1、z1)に該当するUcVc座標系の座標が、合成情報におけるUcVc座標系の変換後図柄座標の9つの図形内に当てはまる座標であれば、円柱面の定点(x1、y1、z1)に対応する色見本識別番号を、合成情報から把握する。
この時、質感表現処理部14は円柱面の定点(x1、y1、z1)の座標が図柄の中のどの図形の座標情報に含まれるのかを、合成情報に含まれる図柄情報のテーブルから把握する。そして、質感表現処理部14はそのテーブルにデータとして記録されている図形毎の座標情報をテーブルの上から下に向かって順に円柱面の定点の座標が含まれるかどうかを確認し、最初に定点の座標が含まれる図形の座標情報に対応して同じテーブル内に記録されている色見本識別番号を、その定点における色見本識別番号とする。そして、当該円柱面の定点に該当する色見本識別番号の色が着色されることとなる。
【0058】
そして、質感表現処理部14はモデリング座標系の円柱面を覆う各座標において、ステップS29の処理を行なう。このステップS29の処理により質感表現処理部14は、モデリング座標系の円柱面の各点における、座標と、照射角度と、観測角度と、照射方向と観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度と、その座標における色識別番号と、媒体材質情報とを記憶する。そして質感表現処理部14は、モデリング座標系の円柱面の各座標における分光反射率を、各座標における照射角度と、監視角度と、照射方向と観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度と、その座標における色識別番号と、媒体材質情報の組合せに基づいて色見本データベース18から読み取る。ここで、モデリング座標系の円柱面の全ての座標と、その座標に対応付けられた分光反射率の情報を質感表現情報と呼ぶ。
そして、質感表現処理部14は、質感表現情報を視覚特性変換処理部15へ転送する(ステップS30)。
【0059】
次に、視覚特性変換処理部15は、端末2の端末種類を把握するために端末2から端末種類の指定を受付ける(ステップS31)。そして視覚特性変換処理部15は端末2からの端末指定に基づいて、記憶している表示特性情報の中から、該当する端末2の表示特性情報を読み取る。この表示特性情報は端末2の表示部に表示できる三刺激値の範囲の情報を保持している。次に、視覚特性変換処理部15は、ステップS30で転送を受けた質感表現情報に基づいて、モデリング座標系の円柱面を表す各座標における分光反射率を光源色に変換したときの三刺激値(例えばCIEXYZの値)を算出する。尚、分光反射率から三刺激値を導き出す過程は公知の技術であるので、三刺激値の値を算出する過程とその過程に用いる数式は省略する。そして、視覚特性変換処理部15は算出した三刺激値の範囲を、端末2の表示特性情報で把握できる三刺激値の範囲にあわせた表示情報を作成する(ステップS32)。例えば視覚特性変換処理部15は、端末2の表示部が表示可能な三刺激値の範囲が狭い場合には、上述の質感表現情報の三刺激値の範囲の尺度を端末2の表示部の特性に合わせた表示情報を作成する。そして、視覚特性変換処理部15が表示情報を端末2の表示部に表示する(ステップS33)。
【0060】
なお、上述の質感表現装置1は内部に、コンピュータシステムを有している。そして、上述した質感表現装置1における各過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
【0061】
【発明の効果】
以上説明したように、本発明によれば、立体構造物情報記憶部に記憶する立体構造物情報と、図柄情報記憶部に記憶する図柄情報を、合成手段が合成し図柄が立体構造物に合成された形状を表す合成情報を作成する。これにより、3次元の立体構造図と、2次元の図柄における各図形の座標情報を合成した合成情報を得る事ができ、またその合成情報を用いれば立体構造図とその立体構造図に投影する各図形の位置関係を把握することが可能となる。
【0062】
また、本発明によれば、質感表現情報作成手段が、立体構造物への光の照射方向と、その立体構造物の材質の種類と、その立体構造物の観測方向の選択を受付け、これら受付けた情報と、合成情報から得られる立体構造物の各部分に対応する色見本識別番号情報とに基づき、立体構造物の各部分に対応する分光反射率を色見本情報記憶部から読み出し、立体構造物の各部分の分光反射率を含む質感表現情報を作成する。これにより、立体構造物とそれに投影された図柄の色を実物の物とほぼ同様の質感で例えば出力装置へ表示させることができる。
【0063】
また、本発明によれば、表示特性情報記憶部が出力装置の種類毎の表示特性情報を保持し、視覚特性変換手段が、出力装置の種類の選択を受付け、この選択された出力装置の表示特性情報を表示特性情報記憶部から読み出す。そして視覚特性変換手段は、読み出された表示特性情報と前記質感表現情報から得られる立体構造物の各部分の分光反射率とに基づき、各部分の三刺激値を算出し、前記算出した三刺激値に表示特性情報を合わせた後の三刺激値を用いて出力装置へ色を出力する。
これにより質感表示装置は、質感表現情報から算出される三刺激値が出力装置の表示できる三刺激値の範囲を越えている場合でも、出力装置が表示できる色の特性に合わせた三刺激値を用いて出力装置へ色を出力する事ができる。
【0064】
また、本発明によれば、合成手段が図柄全体の背景領域の縦横サイズを正規化した座標系での各図柄の位置および形状をベクトル情報で示す前記図柄情報と前記立体構造物情報とを合成し、前記図柄が前記立体構造物に合成された形状を表す合成情報を作成する。
これにより、図柄の位置や形状などの座標情報を正規化したベクトル情報で処理するため、拡大縮小する場合には各図柄の座標情報を定数倍すればよいだけであり、従来の技術で問題であった拡大縮小による品質の劣化や無駄な高い解像度データを用意する必要はない。また、図柄毎の座標情報を保持しているため、色を変更する場合には、色を変更したい図柄がどこまでの領域かを判断する作業は不要であり、また、もし図柄の一部が完全に閉じていなくても他図柄の色も変更されてしまうことはない。
【図面の簡単な説明】
【図1】本実施形態における質感表現装置1の構成を示す概略ブロック図である。
【図2】本実施形態における色見本データベースのデータ構造のイメージを示す図である。
【図3】本実施形態における質感表現装置1の処理フローを示す図である。
【図4】本実施形態における質感表現装置1の図柄作成処理部11と立体構造図作成処理部12の処理概要を示すフローチャートである。
【図5】本実施形態における合成処理部13の処理概要を示すフローチャートである。
【図6】本実施形態における質感表現処理部14及び視覚特性変換処理部15の処理概要を示す第1のフローチャートである。
【図7】本実施形態における質感表現処理部14及び視覚特性変換処理部15の処理概要を示す第2のフローチャートである。
【図8】本実施形態におけるデザイナーが作成した図柄のイメージを示す図である。
【図9】本実施形態における図柄に含まれる各図形が重ねられて着色されるという状態を示した図である。
【図10】本実施形態における図柄を長さ1に正規化しUpVp座標系に変換した際のイメージを示す図である。
【図11】本実施形態における半径R、高さHの円柱形の飲料缶の立体構造図のイメージを示す図である。
【図12】本実施形態における円柱の3Dモデリング座標において、円柱側面を切断した際のイメージを示す図である。
【図13】本実施形態における切断した円柱側面の切断部分のVc軸と円柱の底面の円に沿ったUc軸のイメージを示す図である。
【図14】本実施形態における図柄が円柱面に投影された合成図のイメージを示す図である。
【図15】本実施形態における3Dモデリング座標値(X、Y、Z)のイメージを示す図である。
【図16】本実施形態におけるワールド座標値(wx、wy、wz)のイメージを示す図である。
【図17】本実施形態における照明の位置座標(WL)と円柱を観察する視点の位置座標(WV)をデザイナーが指定した際のイメージを示す図である。
【図18】本実施形態における照明の位置座標(ML)と、視点の位置座標(MV)と法線ベクトルNmのイメージを示す図である。
【図19】本実施形態におけるローカル座標系の、照明の位置座標Lと、視点の位置座標Viewと、法線ベクトルNのイメージを示す図である。
【図20】本実施形態におけるローカル座標系の法線ベクトルNをローカル座標系のZ’軸と同じ方向に回転した際のイメージを示す図である。
【図21】本実施形態における天頂角度θLと、天頂角度θvと、LxyとViewxyとの間の角度Φのイメージを示す図である。
【図22】従来のビットマップを用いた図形の拡大・縮小を示す図である。
【図23】従来のビットマップを用いた図形の色変更を示す図である。
【図24】本実施形態におけるベクトルデータを用いた図形の拡大・縮小を示す頭である。
【図25】本実施形態におけるベクトルデータを用いた図形の色変更を示す図である。
【符号の説明】
1 質感表現装置
2 端末
11 図柄作成処理部
12 立体構造図作成処理部
13 合成処理部
14 質感表現処理部
15 視覚特性変換処理部
16 図柄データベース
17 立体構造図データベース
18 色見本データベース[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a computer system, and more particularly to a texture expression device, a texture expression method, and a synthesis method.
[0002]
[Prior art]
Conventionally, when manufacturing a product in which a pattern is printed on a three-dimensional structure, a designer first draws an image diagram of the completed product (a diagram in which the pattern is drawn on the three-dimensional structure) using, for example, image creation software provided in a computer. I'm drawing. Then, when the color designation for the image diagram is performed by the image creation software, the designer checks the color sample of the color material used when printing the design on the product, and the color sample identification number representing the color sample. Is selected on the image creation software and the color is specified in the image diagram. Then, the image diagram is presented to the client of the product, and after the client confirms the color of the product, the printing company prints the symbol of the image on the three-dimensional structure to manufacture the product.
Here, for example, if the product is a beverage can and the client of the product is a beverage manufacturer, the beverage manufacturer first asks the designer to create an image diagram when the beverage can is completed, and the designer Creates the image diagram. Further, when creating the image diagram, the designer designates the color on the image diagram on the image creation software using the color sample identification number representing the existing color sample. Then, the designer presents the image diagram to the beverage manufacturer and obtains the consent of the beverage manufacturer, and then the printing company prints the image diagram on the metal can. Here, in a conventional method of simulating a design of an image diagram on a three-dimensional structure using a computer, a bitmap (a method of expressing the shape and color of an image by a set of points on a screen) is used as the design ( For example, see
[0003]
[Patent Document 1]
JP-A-6-231274 (pages 3-5)
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional technology, when the design is scaled up or down, unless the image diagram is created in advance with the resolution of the image that matches the enlarged size, the quality of the design is impaired as shown in FIG. Must prepare the pattern data of In addition, when the designated colors are overlapped as shown in FIG. 23 when changing the color of the symbol, it is necessary to determine the area of the symbol whose color is to be changed. If a part is not completely closed, the color of another symbol will be changed as shown in FIG.
Further, in a method of creating a design (image diagram) to be printed on a product by a conventional method, an image diagram is not created in consideration of a texture of a product such as a three-dimensional structure to be an actual product and a degree of light corresponding to the color of the design. Therefore, there is a difference in the perceived color appearance between the manufactured product and the image diagram. As a result, the printing company had to change the color many times to produce a product that matches the image diagram.
[0005]
Therefore, the present invention provides a design and a three-dimensional structure using vector information that do not require the work of judging the extent of the design area when changing the color of the design or losing the quality of the design when the design is enlarged or reduced. You can simulate on a computer an image diagram that combines the object with the object, and the color of the three-dimensional structure in the image diagram and the color of the design drawn on it are displayed on a computer display device with almost the same texture as the manufactured product. It is an object of the present invention to provide a texture expression device, a texture expression method, and a synthesis method having a function capable of displaying.
[0006]
[Means for Solving the Problems]
The present invention has been made to solve the above-described problem, and has a three-dimensional structure information storage unit that stores three-dimensional structure information representing the shape of a three-dimensional structure, and includes shape information that represents the shape of a symbol and the symbol. A symbol information storage unit that stores symbol information that holds color sample identification number information of a color sample corresponding to the color of each part to be synthesized, and combines the three-dimensional structure information and the symbol information so that the symbol becomes the three-dimensional structure. A synthesis unit for generating synthesis information representing the synthesized shape.
[0007]
According to the above-described configuration, the three-dimensional structure information stored in the three-dimensional structure information storage unit and the design information stored in the design information storage unit are combined by the combining unit to represent a shape in which the design is combined with the three-dimensional structure. Create composite information.
As a result, it is possible to obtain synthetic information obtained by synthesizing the three-dimensional three-dimensional structure diagram and the coordinate information of each figure in the two-dimensional pattern, and to project the three-dimensional structure diagram and the three-dimensional structure diagram by using the synthesized information. It is possible to grasp the positional relationship between the figures.
[0008]
Further, the present invention is the texture expression device described above, wherein the color sample is colored on a medium of a specific material, the medium is irradiated with light from a light source in a predetermined direction, and reflected light of the light is converted into a predetermined light. Color sample information obtained by measuring the spectral reflectance when observed from the direction, the color sample identification number information of the color sample, the irradiation direction of the light, the type of the material, and the reflected light Observation direction, a color sample information storage unit that stores color sample information held in association with the measured spectral reflectance, the direction of light irradiation on the three-dimensional structure and the type of material of the three-dimensional structure Based on the selection of the observation direction of the three-dimensional structure, based on the received information and the color sample identification number information corresponding to each part of the three-dimensional structure obtained from the synthetic information, The corresponding spectral reflectance is obtained from the color sample information storage unit. Look out, and further comprising a texture representation information creating means for creating a texture representation information including the spectral reflectance of each portion of the three-dimensional structure.
[0009]
According to the above-described configuration, the texture expression information creating unit accepts the selection of the irradiation direction of the light to the three-dimensional structure, the type of the material of the three-dimensional structure, and the observation direction of the three-dimensional structure. Based on the information and the color sample identification number information corresponding to each part of the three-dimensional structure obtained from the synthesis information, the spectral reflectance corresponding to each part of the three-dimensional structure is read from the color sample information storage unit, and the three-dimensional structure The texture expression information including the spectral reflectance of each part is created.
As a result, the three-dimensional structure and the color of the design projected on the three-dimensional structure can be displayed on, for example, an output device with substantially the same texture as the real thing.
[0010]
Further, the present invention is the texture expression device described above, wherein a display characteristic information storage unit that holds display characteristic information for each type of output device, and a selection of the type of output device is received, and the selected output device is The display characteristic information is read from the display characteristic information storage unit, and based on the read display characteristic information and the spectral reflectance of each part of the three-dimensional structure obtained from the texture expression information, a tristimulus value of each part. And visual characteristic conversion means for outputting a color to the output device using the tristimulus value obtained by adjusting the display characteristic information to the calculated tristimulus value.
[0011]
According to the above configuration, the display characteristic information storage unit holds the display characteristic information for each type of output device, the visual characteristic conversion unit receives the selection of the type of the output device, and displays the display characteristic of the selected output device. The information is read from the display characteristic information storage unit. Then, the visual characteristic conversion means calculates tristimulus values of each part based on the read display characteristic information and the spectral reflectance of each part of the three-dimensional structure obtained from the texture expression information. A color is output to an output device using the tristimulus values after the display characteristic information is matched with the stimulus values.
Thereby, even when the tristimulus value calculated from the texture expression information exceeds the range of the tristimulus value that can be displayed by the output device, the texture display device can display the tristimulus value that matches the characteristic of the color that can be displayed by the output device. Can be used to output colors to an output device.
[0012]
Further, the present invention is the texture expression device described above, wherein the three-dimensional structure information storage unit stores coordinate information representing a shape of the three-dimensional structure, and the symbol information storage unit stores coordinates representing the shape of the symbol. Information and design information which holds color sample identification number information of a color sample corresponding to the color of each part constituting the design, wherein the synthesizing means indicates a shape when the three-dimensional structure is developed in a plane. Creating three-dimensional coordinate information from coordinate information representing the shape of the three-dimensional structure, and combining two-dimensional coordinate information representing the shape when the three-dimensional structure is developed on a plane and coordinate information representing the shape of the symbol. Features.
[0013]
Further, the present invention is the texture expression device described above, wherein the texture expression information creation means specifies a display position of the three-dimensional structure determined by performing coordinate conversion on the coordinate information of the three-dimensional structure, and Coordinates, display environment receiving means for receiving designation of the coordinates of the observation point for performing the observation, and the angle of the irradiation direction from the light source with respect to a normal vector at a point on the surface of the three-dimensional structure, The angle of the observation direction, the angle between the irradiation direction and the direction formed by projecting the observation direction on a plane perpendicular to the normal vector, the display position received by the display environment receiving means, the coordinates of the light source And, the coordinates of the observation point, an angle calculating means for calculating based on the coordinates of the point, a color sample identification number information grasping means for obtaining a color sample identification number at the point based on the synthesis information, Based on the combination of the received material and each angle calculated by the angle calculation means and the color sample identification number obtained by the color sample identification number grasping means, the surface of the three-dimensional structure is received. Spectral reflectance specifying means for specifying and reading the spectral reflectance at each coordinate to be represented from the spectral reflectance stored in the color sample information storage unit, wherein the three-dimensional structure specified and read by the spectral reflectance specifying means Is characterized in that texture expression information composed of spectral reflectances for each point on the surface is created.
[0014]
Further, according to the present invention, color sample identification number information of a color sample, the irradiation direction of the light, the type of the material, the observation direction of the reflected light, and the measured spectral reflectance are held in association with each other. A texture expression method in a texture expression device including a color sample information storage unit that stores color sample information, wherein the texture expression information creation means of the texture expression device includes: a light irradiation direction to the three-dimensional structure; Based on the type of material of the object and the selection of the observation direction of the three-dimensional structure, based on the received information and the color sample identification number information corresponding to each part of the three-dimensional structure obtained from the synthetic information, A texture expression creating step of reading out the spectral reflectance corresponding to each part of the structure from the color sample information storage unit and creating texture expression information including the spectral reflectance of each part of the three-dimensional structure. How to express texture It is.
[0015]
Also, the present invention is a texture expression method in a texture expression device including a display characteristic information storage unit for holding display characteristic information for each type of output device, wherein the visual characteristic conversion means of the texture expression device comprises an output device. Of the three-dimensional structure obtained from the read display characteristic information and the texture expression information is read out from the display characteristic information storage unit. Based on the spectral reflectance, a visual characteristic of calculating a tristimulus value of each portion and outputting a color to the output device using the tristimulus value obtained by adjusting the display characteristic information to the calculated tristimulus value. And a conversion step.
[0016]
Also, the present invention provides a three-dimensional structure information storage unit for storing three-dimensional structure information representing the shape of the three-dimensional structure, a shape sample representing the shape of the design, and a color sample corresponding to the color of each part constituting the design. A symbol information storage unit for storing symbol information holding the color sample identification number information of the three-dimensional structure information and the symbol information in the texture expression device, wherein the synthesis means of the texture expression device However, there is provided a synthesizing method including a synthesizing step of synthesizing the three-dimensional structure information and the symbol information and creating synthesizing information representing a shape in which the symbol is synthesized with the three-dimensional structure.
[0017]
Further, the present invention, in the above-described synthesizing method, the symbol information and the three-dimensional structure information indicating the position and shape of each symbol in a coordinate system in which the vertical and horizontal sizes of the background region of the entire symbol are normalized by vector information. A combining step of combining and creating combination information representing a shape in which the symbol is combined with the three-dimensional structure.
According to the configuration described above, since coordinate information such as the position and shape of the symbol is processed with normalized vector information, when scaling up or down, the coordinate information of each symbol need only be multiplied by a constant. It is not necessary to prepare quality degradation and useless high-resolution data due to enlargement / reduction, which are problems in the conventional technology as in the case of FIG. In addition, since the coordinate information for each symbol is retained, when changing the color, it is not necessary to determine the area of the symbol whose color is to be changed, and if a part of the symbol is completely 25, the colors of the other symbols are not changed as shown in FIG.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a texture expression device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing a configuration of a texture expression device according to an embodiment of the present invention.
In this figure,
[0019]
The color sample information is information on spectral reflectance measured by coloring a plate made of a metal material or plastic (for example, aluminum or PET (polyethylene terephthalate)) with a specific color and irradiating the plate with light. The color sample information is based on a color sample identification number for identifying the color of the color sample and a normal vector perpendicular to the plate as shown in the image of the data structure in the
The irradiation angle and the observation angle are set at angles of 10 degrees from 0 to 70 degrees with respect to the normal vector, and the irradiation direction and the observation direction are projected on a plane perpendicular to the normal vector. The angles formed by these directions are set at angles of 10 degrees from 0 to 180 degrees.
Here, the spectral reflectance is a numerical value indicating the reflectance when white light is applied to an object. In the present embodiment, the light having a wavelength of 10 nm from 400 nm to 700 nm is applied to the plate of each color sample. Is a numerical value indicating the reflectance measured by irradiating.
[0020]
Then, the designer draws a three-dimensional structure diagram of the three-dimensional structure on the terminal 2 (for example, a wire frame model (a technique of representing a shape by a data structure connecting coordinates in a space with a straight line) which is one of 3D graphic modeling techniques). And a design to be printed on the three-dimensional structure. The symbol and the three-dimensional structure diagram are created by the functions of the symbol
[0021]
Then, as shown in the processing flow of the
Note that, in the present invention, the
[0022]
Next, the operation of the
First, the processing outline of the three-dimensional structure diagram
[0023]
When the designer determines the colors to be colored for each of the nine figures in step S2, the pattern
The data of the symbol information is a table of a combination of the coordinate information representing each graphic constituting the symbol and the color sample identification number associated with each graphic. Then, as shown in FIG. 9, for example, as shown in FIG. 9, each symbol represented by the symbol information has a graphic B (an elliptical graphic) superimposed on a graphic C (a rectangular graphic) and a graphic B (an elliptical graphic). In the case of a pattern represented by the figure A (elliptical figure) to be superimposed, the table of the pattern information data is recorded in order from the information of the figure superimposed and colored on the top of the pattern. I have. In the case of the design of FIG. 9, the coordinate information of the graphic A and the corresponding color sample identification number are recorded in order from the top of the table serving as the data of the design information. The color sample identification number is recorded, and then the coordinate information of the graphic C and the corresponding color sample identification number are recorded.
In the present embodiment, the shape information, the color sample identification number, and the size information are used as the symbol information. However, in other embodiments, other information is included, or any one of these three pieces of information is included. You don't have to.
[0024]
Next, the designer creates a three-dimensional structure diagram of the beverage can on the display unit of the
[0025]
Here, symbol information is recorded in the
Next, an example in which the synthesizing
First, when the
Next, the synthesizing
[0026]
(Equation 1)
[0027]
Further, the
Then, in the read 3D modeling coordinates, the combining
[0028]
Next, the
[0029]
Next, the designer specifies the material (for example, aluminum, plastic, or the like) of the medium of the three-dimensional structure diagram on the
Then, the
Next, the designer gives instructions such as enlargement / reduction / translation / rotation to the cylinder displayed on the
[0030]
(Equation 2)
[0031]
Next, the processing of the texture
First, in the world coordinate system of the display unit of the
Then, the designer issues a rendering instruction from the
Upon receiving the rendering instruction, the texture
[0032]
[Equation 3]
[0033]
Note that the coordinates after conversion of the illumination position coordinates WL into the 3D modeling coordinate system are ML, and the viewpoint position coordinates W V Is the coordinate after conversion into the 3D modeling coordinate system V And Then, the ML of the coordinates after the conversion of the illumination position coordinates WL to the 3D modeling coordinate system and the viewpoint position coordinates W V Of coordinates after conversion to 3D modeling coordinate
[0034]
Next, the texture
[0035]
(Equation 4)
[0036]
Then, the texture
Note that the coordinates of the illumination position coordinates ML after conversion to the local coordinate system are L, and the viewpoint position coordinates W V Is the view after the transformation of the normal vector Nm into the local coordinate system, and N is the coordinate after the transformation of the normal vector Nm into the local coordinate system. The coordinate conversion to the local coordinate system is performed by the following equation.
[0037]
(Equation 5)
[0038]
Next, in order to rotate the normal vector N of the local coordinate system obtained in step S20 in the same direction as the Z ′ axis of the local coordinate system, the texture
[0039]
(Equation 6)
[0040]
Next, from the inner product <ez · N> determined in step S21, the texture
[0041]
(Equation 7)
[0042]
Then, the texture
[0043]
(Equation 8)
[0044]
Next, the texture
[0045]
Next, the texture
[0046]
(Equation 9)
[0047]
The texture
[0048]
(Equation 10)
[0049]
Next, the texture
[0050]
[Equation 11]
[0051]
Next, the texture
[0052]
(Equation 12)
[0053]
The parameters of θ and h corresponding to the fixed points (x1, y1, z1) can be obtained by the following equations.
[0054]
(Equation 13)
[0055]
The equation for calculating the UcVc coordinate value using the parameters of θ and h according to [Equation 13] is as follows.
[0056]
[Equation 14]
[0057]
Thereby, the texture
At this time, the texture
[0058]
Then, the texture
Then, the texture
[0059]
Next, the visual characteristic
[0060]
The
[0061]
【The invention's effect】
As described above, according to the present invention, the three-dimensional structure information stored in the three-dimensional structure information storage unit and the design information stored in the design information storage unit are combined by the combining unit, and the design is combined with the three-dimensional structure. Create composite information representing the shape that was created. As a result, it is possible to obtain synthetic information obtained by synthesizing the three-dimensional three-dimensional structure diagram and the coordinate information of each figure in the two-dimensional pattern, and to project the three-dimensional structure diagram and the three-dimensional structure diagram by using the synthesized information. It is possible to grasp the positional relationship between the figures.
[0062]
Further, according to the present invention, the texture expression information creating means receives the selection of the direction of light irradiation on the three-dimensional structure, the type of the material of the three-dimensional structure, and the observation direction of the three-dimensional structure. Based on the obtained information and the color sample identification number information corresponding to each part of the three-dimensional structure obtained from the synthetic information, the spectral reflectance corresponding to each part of the three-dimensional structure is read from the color sample information storage unit, and the three-dimensional structure is read. Texture expression information including the spectral reflectance of each part of the object is created. Thereby, the three-dimensional structure and the color of the design projected on the three-dimensional structure can be displayed on, for example, an output device with almost the same texture as the real thing.
[0063]
Further, according to the present invention, the display characteristic information storage unit holds display characteristic information for each type of output device, and the visual characteristic conversion means receives selection of the type of output device, and displays the selected output device. The characteristic information is read from the display characteristic information storage unit. Then, the visual characteristic conversion means calculates tristimulus values of each part based on the read display characteristic information and the spectral reflectance of each part of the three-dimensional structure obtained from the texture expression information. A color is output to an output device using the tristimulus values after the display characteristic information is matched with the stimulus values.
Thereby, even when the tristimulus value calculated from the texture expression information exceeds the range of the tristimulus value that can be displayed by the output device, the texture display device can display the tristimulus value that matches the characteristic of the color that can be displayed by the output device. Can be used to output colors to an output device.
[0064]
Further, according to the present invention, the synthesizing unit synthesizes the symbol information and the three-dimensional structure information indicating the position and shape of each symbol in the coordinate system in which the vertical and horizontal sizes of the background area of the entire symbol are normalized by vector information. Then, synthesis information representing a shape in which the symbol is synthesized with the three-dimensional structure is created.
As a result, coordinate information such as the position and shape of a symbol is processed using normalized vector information. Therefore, when scaling up or down, it is only necessary to multiply the coordinate information of each symbol by a constant. There is no need to prepare quality degradation or useless high-resolution data due to scaling. In addition, since the coordinate information for each symbol is retained, when changing the color, it is not necessary to determine the area of the symbol whose color is to be changed, and if a part of the symbol is completely Even if it is not closed, the color of other symbols will not be changed.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram illustrating a configuration of a
FIG. 2 is a diagram illustrating an image of a data structure of a color sample database according to the embodiment.
FIG. 3 is a diagram showing a processing flow of the
FIG. 4 is a flowchart showing an outline of processing of a symbol
FIG. 5 is a flowchart illustrating an outline of processing of a
FIG. 6 is a first flowchart illustrating a processing outline of a texture
FIG. 7 is a second flowchart showing an outline of processing of a texture
FIG. 8 is a diagram showing an image of a symbol created by a designer in the embodiment.
FIG. 9 is a diagram showing a state in which each figure included in a symbol according to the embodiment is superimposed and colored.
FIG. 10 is a diagram showing an image when a symbol in this embodiment is normalized to
FIG. 11 is a diagram showing an image of a three-dimensional structure diagram of a cylindrical beverage can having a radius R and a height H in the present embodiment.
FIG. 12 is a diagram showing an image when a side surface of a cylinder is cut in 3D modeling coordinates of the cylinder in the embodiment.
FIG. 13 is a diagram illustrating an image of a Vc axis of a cut portion of a cut cylinder side surface and a Uc axis along a circle of a bottom surface of the cylinder in the embodiment.
FIG. 14 is a diagram illustrating an image of a composite diagram in which a symbol according to the present embodiment is projected on a cylindrical surface.
FIG. 15 is a diagram showing an image of 3D modeling coordinate values (X, Y, Z) in the present embodiment.
FIG. 16 is a diagram illustrating an image of world coordinate values (wx, wy, wz) in the present embodiment.
FIG. 17 shows the position coordinates (WL) of the illumination and the position coordinates (W) of the viewpoint for observing the cylinder in this embodiment. V FIG. 12 is a diagram showing an image when the designer designates ()).
FIG. 18 shows the position coordinates (ML) of the illumination and the position coordinates (M) of the viewpoint in this embodiment. V ) And an image of a normal vector Nm.
FIG. 19 is a diagram illustrating an image of a position coordinate L of an illumination, a position coordinate View of a viewpoint, and an image of a normal vector N in a local coordinate system according to the present embodiment.
FIG. 20 is a diagram illustrating an image when a normal vector N of the local coordinate system according to the present embodiment is rotated in the same direction as the Z ′ axis of the local coordinate system.
FIG. 21 shows a zenith angle θL, a zenith angle θv, and L in the present embodiment. xy And View xy FIG. 7 is a diagram showing an image of an angle Φ between the angle.
FIG. 22 is a diagram illustrating enlargement / reduction of a graphic using a conventional bitmap.
FIG. 23 is a diagram showing a conventional color change of a graphic using a bitmap.
FIG. 24 is a diagram illustrating the enlargement / reduction of a graphic using vector data according to the present embodiment.
FIG. 25 is a diagram illustrating color change of a graphic using vector data in the present embodiment.
[Explanation of symbols]
1 Texture expression device
2 terminal
11 Symbol creation processing unit
12 3D structure drawing processing unit
13 Compositing processing unit
14 Texture Expression Processing Unit
15 Visual characteristics conversion processing unit
16 Design Database
17 3D Structure Database
18 Color sample database
Claims (9)
図柄の形状を表す形状情報と前記図柄を構成する各部分の色に対応する色見本の色見本識別番号情報を保持した図柄情報を記憶する図柄情報記憶部と、
前記立体構造物情報と前記図柄情報を合成し前記図柄が前記立体構造物に合成された形状を表す合成情報を作成する合成手段と、
を備えることを特徴とする質感表現装置。A three-dimensional structure information storage unit that stores three-dimensional structure information representing a shape of the three-dimensional structure;
A symbol information storage unit that stores symbol information that holds shape information representing the shape of the symbol and color sample identification number information of a color sample corresponding to the color of each part configuring the symbol,
Synthesizing means for synthesizing the three-dimensional structure information and the symbol information and creating synthesis information representing a shape in which the symbol is synthesized with the three-dimensional structure,
A texture expression device comprising:
前記立体構造物への光の照射方向と当該立体構造物の材質の種類と当該立体構造物の観測方向の選択を受付け、これら受付けた情報と、前記合成情報から得られる前記立体構造物の各部分に対応する色見本識別番号情報とに基づき、立体構造物の各部分に対応する分光反射率を前記色見本情報記憶部から読み出し、立体構造物の各部分の分光反射率を含む質感表現情報を作成する質感表現情報作成手段と、
をさらに備えることを特徴とする請求項1に記載の質感表現装置。The color sample is obtained by coloring a medium of a specific material, irradiating the medium with light from a light source in a predetermined direction, and measuring the spectral reflectance when the reflected light of the light is observed from a predetermined direction. The color sample information, which holds the color sample identification number information of the color sample, the irradiation direction of the light, the type of the material, the observation direction of the reflected light, and the measured spectral reflectance in association with each other. A color sample information storage unit for storing color sample information
Selection of the irradiation direction of light to the three-dimensional structure, the type of material of the three-dimensional structure, and the observation direction of the three-dimensional structure is accepted, and the received information and each of the three-dimensional structures obtained from the synthetic information are received. Based on the color sample identification number information corresponding to the part, the spectral reflectance corresponding to each part of the three-dimensional structure is read from the color sample information storage unit, and the texture expression information including the spectral reflectance of each part of the three-dimensional structure Means for creating texture expression information for creating
The texture expression device according to claim 1, further comprising:
出力装置の種類の選択を受付け、この選択された出力装置の表示特性情報を前記表示特性情報記憶部から読み出し、読み出された表示特性情報と前記質感表現情報から得られる前記立体構造物の各部分の分光反射率とに基づき、前記各部分の三刺激値を算出し、前記算出した三刺激値に前記表示特性情報を合わせた後の三刺激値を用いて前記出力装置へ色を出力する視覚特性変換手段と、
をさらに備えることを特徴とする請求項2に記載の質感表現装置。A display characteristic information storage unit that holds display characteristic information for each type of output device,
Receiving the selection of the type of output device, reading the display characteristic information of the selected output device from the display characteristic information storage unit, each of the three-dimensional structure obtained from the read display characteristic information and the texture expression information Based on the spectral reflectance of the portion, the tristimulus value of each portion is calculated, and a color is output to the output device using the tristimulus value obtained by adjusting the display characteristic information to the calculated tristimulus value. Visual characteristic conversion means,
The texture expression device according to claim 2, further comprising:
前記図柄情報記憶部は、図柄の形状を表す座標情報と前記図柄を構成する各部分の色に対応する色見本の色見本識別番号情報を保持した図柄情報を記憶し、
前記合成手段は、前記立体構造物を平面展開した場合の形状を表す2次元の座標情報を立体構造物の形状を表す座標情報から作成し、前記立体構造物を平面展開した場合の形状を表す2次元の座標情報と前記図柄の形状を表す座標情報を合成する
ことを特徴とする請求項1に記載の質感表現装置。The three-dimensional structure information storage unit stores coordinate information indicating a shape of the three-dimensional structure,
The symbol information storage unit stores symbol information that holds coordinate information indicating a shape of the symbol and color sample identification number information of a color sample corresponding to the color of each part configuring the symbol,
The synthesizing unit creates two-dimensional coordinate information representing a shape when the three-dimensional structure is planarly developed from coordinate information representing a shape of the three-dimensional structure, and represents a shape when the three-dimensional structure is planarly developed. The texture expression device according to claim 1, wherein two-dimensional coordinate information and coordinate information representing the shape of the symbol are synthesized.
前記立体構造物の座標情報を座標変換して決定する立体構造物の表示位置の指定と、前記光源の座標と、前記観測を行なう観測点の座標との指定を受付ける表示環境受付け手段と、
前記立体構造物の表面上の点における法線ベクトルを基準とした前記光源からの前記照射方向の角度と、前記観測方向の角度と、前記照射方向と前記観測方向を法線ベクトルに対し垂直な平面上に投影したそれら方向が成す角度とを、前記表示環境受付け手段が受付けた表示位置と、光源の座標と、観測点の座標と、前記点の座標とに基づいて計算する角度計算手段と、
前記合成情報に基づいて前記点における色見本識別番号を求める色見本識別番号情報把握手段と、
前記材質の指定を受付けて、その受付けた材質と前記角度計算手段で計算した各角度との組合せと前記色見本識別番号把握手段で求められた色見本識別番号とに基づいて、前記立体構造物の表面を表す各座標における分光反射率を前記色見本情報記憶部に記憶する分光反射率から特定して読み出す分光反射率特定手段と、
を備え、
前記分光反射率特定手段が特定して読み出した前記立体構造物の表面上の点毎の分光反射率からなる質感表現情報を作成する
ことを特徴とする請求項2に記載の質感表現装置。The texture expression information creating means,
A display environment receiving means for receiving designation of a display position of the three-dimensional structure determined by performing coordinate conversion on the coordinate information of the three-dimensional structure, coordinates of the light source, and coordinates of an observation point for performing the observation;
The angle of the irradiation direction from the light source with respect to the normal vector at a point on the surface of the three-dimensional structure, the angle of the observation direction, and the irradiation direction and the observation direction perpendicular to the normal vector. The angle formed by the directions projected on the plane, the display position received by the display environment receiving means, the coordinates of the light source, the coordinates of the observation point, the angle calculation means to calculate based on the coordinates of the point, ,
Color sample identification number information grasping means for obtaining a color sample identification number at the point based on the synthesis information,
Upon receiving the specification of the material, based on the combination of the received material and each angle calculated by the angle calculation means and the color sample identification number obtained by the color sample identification number grasping means, the three-dimensional structure Spectral reflectance specifying means for specifying and reading out the spectral reflectance at each coordinate representing the surface from the spectral reflectance stored in the color sample information storage unit,
With
The texture expression device according to claim 2, wherein texture expression information is created from the spectral reflectance for each point on the surface of the three-dimensional structure that is specified and read by the spectral reflectance specifying unit.
前記質感表現装置の質感表現情報作成手段が、立体構造物への光の照射方向と当該立体構造物の材質の種類と当該立体構造物の観測方向の選択を受付け、これら受付けた情報と、前記合成情報から得られる前記立体構造物の各部分に対応する色見本識別番号情報とに基づき、立体構造物の各部分に対応する分光反射率を前記色見本情報記憶部から読み出し、立体構造物の各部分の分光反射率を含む質感表現情報を作成する質感表現作成過程
を備えることを特徴とする質感表現方法。Color sample information of a color sample, color irradiation information of the light, the type of the material, the observation direction of the reflected light, and the color sample information stored in association with the measured spectral reflectance are stored. A texture expression method in a texture expression device including a color sample information storage unit,
The texture expression information creating means of the texture expression device accepts selection of the direction of light irradiation on the three-dimensional structure, the type of material of the three-dimensional structure, and the observation direction of the three-dimensional structure, and the received information, Based on the color sample identification number information corresponding to each part of the three-dimensional structure obtained from the synthesis information, the spectral reflectance corresponding to each part of the three-dimensional structure is read from the color sample information storage unit, and the three-dimensional structure A texture expression method comprising a texture expression creation step of creating texture expression information including spectral reflectance of each part.
前記質感表現装置の視覚特性変換手段が、出力装置の種類の選択を受付け、この選択された出力装置の表示特性情報を前記表示特性情報記憶部から読み出し、読み出された表示特性情報と前記質感表現情報から得られる前記立体構造物の各部分の分光反射率とに基づき、前記各部分の三刺激値を算出し、前記算出した三刺激値に前記表示特性情報を合わせた後の三刺激値を用いて前記出力装置へ色を出力する視覚特性変換過程と、
をさらに備えることを特徴とする請求項7に記載の質感表現方法。A texture expression method in a texture expression device including a display characteristic information storage unit that holds display characteristic information for each type of output device,
The visual characteristic conversion means of the texture expression device receives the selection of the type of the output device, reads display characteristic information of the selected output device from the display characteristic information storage unit, and reads the read display characteristic information and the texture. Based on the spectral reflectance of each part of the three-dimensional structure obtained from the expression information, the tristimulus value of each part is calculated, and the tristimulus value after adjusting the display characteristic information to the calculated tristimulus value A visual characteristic conversion step of outputting a color to the output device using
The texture expression method according to claim 7, further comprising:
前記質感表現装置の合成手段が、前記立体構造物情報と前記図柄情報を合成し前記図柄が前記立体構造物に合成された形状を表す合成情報を作成する合成過程を備えることを特徴とする合成方法。A three-dimensional structure information storage unit for storing three-dimensional structure information representing the shape of the three-dimensional structure, shape information representing the shape of the design, and color sample identification number information of a color sample corresponding to the color of each part constituting the design A symbol information storage unit that stores symbol information holding, and a method for synthesizing the three-dimensional structure information and the symbol information in a texture expression device including:
A combining step of combining the three-dimensional structure information and the symbol information to create combined information representing a shape in which the symbol is combined with the three-dimensional structure, wherein the combining means of the texture expression device includes a combining step. Method.
を備えることを特徴とする請求項8に記載の合成方法。The symbol information and the three-dimensional structure information indicating the position and shape of each symbol in the coordinate system in which the vertical and horizontal sizes of the background area of the entire symbol are normalized by vector information are combined, and the symbol is converted to the three-dimensional structure. 9. The synthesizing method according to claim 8, further comprising a synthesizing step of generating synthesizing information representing the synthesized shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002273358A JP2004110519A (en) | 2002-09-19 | 2002-09-19 | Texture expression device, texture expression method, and synthesis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002273358A JP2004110519A (en) | 2002-09-19 | 2002-09-19 | Texture expression device, texture expression method, and synthesis method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004110519A true JP2004110519A (en) | 2004-04-08 |
Family
ID=32270135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002273358A Pending JP2004110519A (en) | 2002-09-19 | 2002-09-19 | Texture expression device, texture expression method, and synthesis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004110519A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007108041A1 (en) * | 2006-03-15 | 2007-09-27 | Matsushita Electric Industrial Co., Ltd. | Video image converting method, video image converting device, server client system, mobile apparatus, and program |
US7340098B2 (en) | 2006-03-15 | 2008-03-04 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for image conversion |
WO2010150545A1 (en) * | 2009-06-24 | 2010-12-29 | パナソニック株式会社 | Graphics drawing device, graphics drawing method, graphics drawing program, storage medium having graphics drawing program stored, and integrated circuit |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129794A (en) * | 1993-11-04 | 1995-05-19 | Toyota Central Res & Dev Lab Inc | Computer graphic device having image depth control function |
JPH09138859A (en) * | 1995-11-15 | 1997-05-27 | Matsushita Electric Ind Co Ltd | Image synthesis device |
JPH1173521A (en) * | 1997-08-29 | 1999-03-16 | Sanyo Electric Co Ltd | Texture recording method |
JP2000067263A (en) * | 1993-06-10 | 2000-03-03 | Namco Ltd | Image synthesis device and game device using the same |
JP2000207577A (en) * | 1999-01-13 | 2000-07-28 | Sumitomo Electric Ind Ltd | 3D map display device |
JP2000285254A (en) * | 1999-03-29 | 2000-10-13 | Sumitomo Electric Ind Ltd | Shade setting device and display control device |
JP2001084288A (en) * | 1999-07-13 | 2001-03-30 | Shinko Kenzai Ltd | Method for deciding input parameter of optical simulation, method for transferring image data and computer-readable recording medium with their programs recorded thereon |
JP2001117962A (en) * | 1999-10-20 | 2001-04-27 | Gunze Ltd | Design supporting device and computer readable recording medium recording design support program |
JP2001258047A (en) * | 2000-03-10 | 2001-09-21 | Toppan Printing Co Ltd | Colorimetric image conversion method, colorimetric image conversion device, and computer-readable information recording medium storing colorimetric image conversion program |
JP2002074380A (en) * | 2000-06-13 | 2002-03-15 | Dainippon Ink & Chem Inc | Color designation system, color designation method, and computer-readable recording medium |
JP2002090222A (en) * | 2000-06-16 | 2002-03-27 | Dainichiseika Color & Chem Mfg Co Ltd | CCM calculation system, CCM calculation method and recording medium |
-
2002
- 2002-09-19 JP JP2002273358A patent/JP2004110519A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000067263A (en) * | 1993-06-10 | 2000-03-03 | Namco Ltd | Image synthesis device and game device using the same |
JPH07129794A (en) * | 1993-11-04 | 1995-05-19 | Toyota Central Res & Dev Lab Inc | Computer graphic device having image depth control function |
JPH09138859A (en) * | 1995-11-15 | 1997-05-27 | Matsushita Electric Ind Co Ltd | Image synthesis device |
JPH1173521A (en) * | 1997-08-29 | 1999-03-16 | Sanyo Electric Co Ltd | Texture recording method |
JP2000207577A (en) * | 1999-01-13 | 2000-07-28 | Sumitomo Electric Ind Ltd | 3D map display device |
JP2000285254A (en) * | 1999-03-29 | 2000-10-13 | Sumitomo Electric Ind Ltd | Shade setting device and display control device |
JP2001084288A (en) * | 1999-07-13 | 2001-03-30 | Shinko Kenzai Ltd | Method for deciding input parameter of optical simulation, method for transferring image data and computer-readable recording medium with their programs recorded thereon |
JP2001117962A (en) * | 1999-10-20 | 2001-04-27 | Gunze Ltd | Design supporting device and computer readable recording medium recording design support program |
JP2001258047A (en) * | 2000-03-10 | 2001-09-21 | Toppan Printing Co Ltd | Colorimetric image conversion method, colorimetric image conversion device, and computer-readable information recording medium storing colorimetric image conversion program |
JP2002074380A (en) * | 2000-06-13 | 2002-03-15 | Dainippon Ink & Chem Inc | Color designation system, color designation method, and computer-readable recording medium |
JP2002090222A (en) * | 2000-06-16 | 2002-03-27 | Dainichiseika Color & Chem Mfg Co Ltd | CCM calculation system, CCM calculation method and recording medium |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007108041A1 (en) * | 2006-03-15 | 2007-09-27 | Matsushita Electric Industrial Co., Ltd. | Video image converting method, video image converting device, server client system, mobile apparatus, and program |
US7340098B2 (en) | 2006-03-15 | 2008-03-04 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for image conversion |
WO2010150545A1 (en) * | 2009-06-24 | 2010-12-29 | パナソニック株式会社 | Graphics drawing device, graphics drawing method, graphics drawing program, storage medium having graphics drawing program stored, and integrated circuit |
US8537173B2 (en) | 2009-06-24 | 2013-09-17 | Panasonic Corporation | Graphics rendering apparatus, graphics rendering method, Recording medium having recorded therein graphics rendering program, and integrated circuit for rendering a high-quality image using a scaling coefficient |
JP5432258B2 (en) * | 2009-06-24 | 2014-03-05 | パナソニック株式会社 | Graphics drawing apparatus, graphics drawing method, graphics drawing program, recording medium recording graphics drawing program, integrated circuit |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6124858A (en) | Raster image mapping | |
US20200349758A1 (en) | Method and System for the 3D Design and Calibration of 2D Substrates | |
AU2009209293B2 (en) | Representing flat designs to be printed on curves of a 3-dimensional product | |
EP0950988B1 (en) | Three-Dimensional image generating apparatus | |
US5903270A (en) | Method and apparatus for mapping a two-dimensional texture onto a three-dimensional surface | |
EP3462383B1 (en) | A data processing system and method for processing an image of an object | |
US6867787B1 (en) | Character generator and character generating method | |
JP5299173B2 (en) | Image processing apparatus, image processing method, and program | |
US10748327B2 (en) | Method and system for the 3D design and calibration of 2D substrates | |
JP5615041B2 (en) | Image processing apparatus and image processing method | |
JPS6237778A (en) | Package pattern creator | |
JPH07282293A (en) | 3D image generation method | |
WO2005073909A1 (en) | Makeup simulation program, makeup simulation device, and makeup simulation method | |
JPH11513508A (en) | Method and system for manipulating images of floor coverings or other textiles | |
JP7492240B2 (en) | Analytical device and analytical method | |
WO2005024728A1 (en) | Form changing device, object action encoding device, and object action decoding device | |
Ganovelli et al. | Introduction to computer graphics: A practical learning approach | |
US6556198B1 (en) | Polyhedron generating method and apparatus thereof, and storage medium for storing the method | |
JPH06325151A (en) | Animation editing device | |
US8081185B2 (en) | Information processing apparatus and information processing method | |
EP3923245A2 (en) | Surface material pattern finish simulation device and surface material pattern finish simulation method | |
JPH10507858A (en) | Method and apparatus for automatically and quickly drawing on a photographic real surface on a three-dimensional wireframe | |
JP2004110519A (en) | Texture expression device, texture expression method, and synthesis method | |
Arpa et al. | Perceptual 3D rendering based on principles of analytical cubism | |
JP2011215709A (en) | Apparatus, method and program for assisting cartoon creation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080304 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080520 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080924 |