JPH08263683A - User interface device using display of human body image - Google Patents
User interface device using display of human body imageInfo
- Publication number
- JPH08263683A JPH08263683A JP7065794A JP6579495A JPH08263683A JP H08263683 A JPH08263683 A JP H08263683A JP 7065794 A JP7065794 A JP 7065794A JP 6579495 A JP6579495 A JP 6579495A JP H08263683 A JPH08263683 A JP H08263683A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- unit
- person
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000014509 gene expression Effects 0.000 claims abstract description 113
- 230000009471 action Effects 0.000 claims abstract description 58
- 238000012986 modification Methods 0.000 claims abstract description 15
- 230000004048 modification Effects 0.000 claims abstract description 15
- 230000033001 locomotion Effects 0.000 claims description 86
- 238000012545 processing Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 29
- 230000000694 effects Effects 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 239000000203 mixture Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 238000013500 data storage Methods 0.000 claims 1
- 238000012805 post-processing Methods 0.000 abstract description 2
- 230000003993 interaction Effects 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 19
- 238000010586 diagram Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002715 modification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 235000012976 tarts Nutrition 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、計算機システムあるい
は計算機を内蔵する装置のユーザインタフェースに関
し、特に動作や表情を伴う人物像を利用者に提示して利
用者と計算機との対話を行う人物像表示によるユーザイ
ンタフェース装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interface of a computer system or an apparatus incorporating a computer, and more particularly to a human image for presenting a human image accompanied by motions and facial expressions to the user and having a dialogue between the user and the computer. A user interface device by display.
【0002】[0002]
【従来の技術】人物の動作や表情を用いるユーザインタ
フェースの技術に関しては、コンピュータグラフィック
ス(以下、CG)のテクスチャマッピングで生成した顔
の表情を利用して、計算機との対話を自然にさせる方法
(人工知能学会研究会資料、SIG−SLUD−920
4−2,pp.9−16,1992年)や、顔の表情以
外にも、イラストで描かれた人間の姿勢、例えば、聞き
姿勢やしゃべり姿勢などを利用して、計算機との対話を
円滑化する方法(第8回,Human Interfa
ceシンポジウム,pp.105−110,1992
年)があった。2. Description of the Related Art Regarding the technique of a user interface that uses a person's movements and facial expressions, a facial expression generated by texture mapping of computer graphics (CG) is used to make a dialogue with a computer natural. (Artificial Intelligence Society Study Group materials, SIG-SLUD-920
4-2, pp. 9-16, 1992) or a facial expression other than facial expression, such as a listening attitude or a talking attitude, for facilitating dialogue with a computer (8th. Times, Human Interfa
ce symposium, pp. 105-110, 1992
Years).
【0003】[0003]
【発明が解決しようとする課題】利用者が計算機システ
ムや計算機を内蔵する装置と対話(入出力)を行う際に
は、その対話部分であるユーザインタフェースの特性や
品質がシステムや装置全体の使い勝手を左右する。ユー
ザインタフェースに画像情報を利用すればテキスト情報
だけの対話に比べて提示される情報の一覧性や視認性、
直感的な理解を助けるなど、作業効率の向上が期待でき
る。この画像情報に人物像を用いることで、計算機との
対話を日常場面での人間同士の対話により近づけられ、
計算機の操作に不慣れな利用者や計算機の利用に抵抗感
を持つ利用者によって抵抗感が低く受け入れられやすい
ユーザインタフェースを提供できる。また、人物像を介
したコマンドや情報の入出力は、計算機に対して命令を
伝えたり情報を受け取る窓口を人物像へ一本化すること
にもつながり、利用者は計算機とのやり取りに際して人
物像の部分に対して重点的に注意を払うだけで済むよう
になる。このようなユーザインタフェースの特性は、例
えば、システムや装置の扱いに不慣れな利用者にとって
は、まずは人物像が情報の入出力に関係している事を直
感的に理解できるので、一種の操作ガイダンスとしても
機能する。When a user has a dialogue (input / output) with a computer system or a device incorporating a computer, the characteristics and quality of the user interface, which is the dialogue part, are convenient for the system and the entire device. Influence. When image information is used for the user interface, the listability and visibility of the information presented can be improved compared to the dialog using only text information.
It can be expected to improve work efficiency by helping intuitive understanding. By using a person image for this image information, the dialogue with the computer can be made closer to the dialogue between humans in everyday situations,
It is possible to provide a user interface that has low resistance and is easily accepted by a user who is unfamiliar with the operation of the computer or who is uncomfortable with using the computer. In addition, inputting / outputting commands and information via a person image also leads to unifying the windows for transmitting commands to computers and receiving information to the computer. You only need to pay attention to the part of. For example, a user who is unfamiliar with the handling of a system or device can intuitively understand that a human image is related to input / output of information. Also works as.
【0004】人物像としてどの表示形式を選択するかに
よっても、利用者のユーザインタフェースに対する印象
が大きく変わる。例えば、単純な形式から構成された無
機質的なCGの人物像を表示した場合には、その人物像
との対話はコンピュータらしさや記号的な情報のやり取
りを利用者に連想させやすい。また、実写による人物像
を表示した場合には人間同士との対話のような、双方向
的で自然言語によるやり取りが行えるような印象を与え
る。従って、作業の種類や目的、利用者やその周囲の環
境、システムや装置の動作状態などに応じて人物像の表
示形式を自由に選択できることが望ましい。The user's impression of the user interface greatly changes depending on which display format is selected as the person image. For example, when an inorganic CG human image composed of a simple format is displayed, the dialogue with the human image easily reminds the user of computer-likeness and exchange of symbolic information. In addition, when a real image of a person is displayed, it gives an impression that bidirectional and natural language exchange can be performed, such as a dialogue with humans. Therefore, it is desirable to be able to freely select the display format of the person image according to the type and purpose of the work, the user and the surrounding environment, the operating state of the system and the device, and the like.
【0005】ところが、上述した従来の技術では人物像
の表情や姿勢、あるいは、人物像の表現形式を動的にか
つ自由に変更することができず、用途や状況に応じた柔
軟な表現を提供できない問題がある。単調で不適切な人
物像の提示は利用者に違和感を印象づけ、操作性が低下
するだけでなく、システムや装置に対する印象や評価を
下げ利用意欲を減退させるため、その結果として作業効
率まで低下してしまうという問題がある。However, the above-mentioned conventional techniques cannot change the expression and posture of a human figure or the expression form of a human figure dynamically and freely, and provide a flexible expression according to the use and situation. There is a problem that cannot be done. The monotonous and inappropriate presentation of a person's image not only makes the user feel uncomfortable and deteriorates the operability, but also lowers the impression and evaluation of the system or device and reduces the user's willingness to use, resulting in a decrease in work efficiency. There is a problem that it will end up.
【0006】また従来、人物像の表示をユーザインタフ
ェースとして用いる際には、人物像の表示形式に依存し
た設計を行う必要があった。さらに、異なる表示形式の
人物像の間には互いに関連性が無く、出力する情報の意
味内容は同じままで表示形式だけを変更することはでき
なかった。例えば、人物像としてイラスト画像を表示す
るようにアプリケーションプログラムを設計してしまう
と、人物像をポリゴン表示によるCG画像や実写画像に
切替えたり合成を行うためには、アプリケーションプロ
グラム毎にCGや実写画像を処理するサブルーチンや関
数を追加したり、また、そのために必要な人物像のデー
タを個別に作成する必要があり、表示形式の変更は簡単
には行えなかった。このようなアプリケーションプログ
ラム毎にまちまちなユーザインタフェースを構築する
と、同じような人物像を表示するプログラムであっても
その動作や表示の意味に統一性が無くなり、アプリケー
ションプログラムの作成効率が悪いだけでなく、複数種
類の完成プログラムを利用する利用者を混乱させる一因
ともなる。Further, conventionally, when the display of a human figure is used as a user interface, it has been necessary to design depending on the display format of the human figure. Furthermore, there is no relation between the human images in different display formats, and the meaning and content of the information to be output remains the same, and the display format alone cannot be changed. For example, if an application program is designed to display an illustration image as a person image, in order to switch the person image to a CG image or a photographed image by polygon display, or to synthesize the person image, the CG or photographed image is required for each application program. It was not possible to change the display format easily, because it was necessary to add a subroutine and a function for processing, and to individually create the image data of the person necessary for that. If different user interfaces are constructed for each application program like this, even programs that display similar human figures lose uniformity in the meaning of their operation and display, and not only the efficiency of creating application programs is poor. , It also contributes to confuse users who use multiple types of completed programs.
【0007】本発明の目的は、利用者や計算機システム
の動作状況に応じて、多様な表示形式の人物像を、動作
や表情を伴いながら表示させることができるようにし、
かつ、それら人物像表示を装置のユーザインタフェース
として簡単に設計し利用できるようにすることで、人物
像表示を利用するユーザインタフェースに一貫性や統一
性を持たせ、効果的でかつ快適な装置操作性を実現する
ことにある。An object of the present invention is to make it possible to display human images in various display formats while accommodating actions and facial expressions in accordance with the operating conditions of the user and the computer system.
In addition, by making it possible to easily design and use these person image displays as the user interface of the device, the user interface that uses the person image display has consistency and unity, and effective and comfortable device operation is possible. To realize the sex.
【0008】[0008]
【課題を解決するための手段】本発明、第1の発明は、
計算機の画面上に表示する人物像の種類や動作の指定、
動作の手順等が記載された動作表現スクリプトを作成
し、前記動作表現スクリプトによって、前記人物像の表
示制御を行い、利用者との対話を行う計算機に用いられ
る人物像表示によるユーザインタフェース装置におい
て、前記動作表示スクリプトを解析して表示する人物像
の動作を指定する動作情報と人物像の属性や種類や演出
効果などの動作以外の要素を指定する表現情報とを生成
し出力する動作表現スクリプト解析部と、数値または記
号により人物の動作をモデル化した動作パターンと前記
動作情報との対応関係を定義した動作パターンデータベ
ースと、前記動作パターンデータベースを照合して前記
動作情報に基づき動作パターン情報を生成する動作パタ
ーン生成部と、前記利用者に関する情報を収集しユーザ
情報として出力または格納を行うユーザ情報収集部と、
前記計算機の動作状態を調べ装置状態情報として出力ま
たは格納を行う装置状態情報収集部と、前記装置状態情
報と前記ユーザ情報をもとに前記動作パターン情報に対
して修飾や調整を加える場合の対応関係を定義した動作
パラメータ修飾ルールと、前記動作パラメータ修飾ルー
ルと前記装置状態情報や前記ユーザ情報を参照し、前記
動作パターン情報に修飾や調整を加え、処理後の動作パ
ターン情報を出力する動作パラメータ修飾部と、前記ユ
ーザ情報または前記装置状態情報もしくは前記表現情報
と表示する人物像の種類や属性や表示形式との対応関係
を定義した表現形式ルールと、前記表現形式ルールと前
記ユーザ情報と前記装置状態情報を参照し、前記表現情
報に基づき表示する人物像の種類や属性や表示方法を決
定し、表示制御情報を生成し出力する表現形式選択部
と、前記処理後の動作パターン情報と前記表示制御情報
とに基づいて指定された人物像を生成し映像信号として
出力する人物像生成部とを備えることを特徴とする。The present invention, the first invention,
Specifying the type and movement of the person displayed on the computer screen,
In a user interface device by a human figure display used for a computer that creates a behavioral expression script in which an operation procedure and the like are described, controls the display of the human figure by the behavioral expression script, and interacts with a user. Action expression script analysis that generates and outputs action information that specifies the action of a person image to be displayed by analyzing the action display script and expression information that specifies elements other than the action such as the attributes and types of the person image and effect effects Section, a motion pattern database that defines a correspondence between a motion pattern that models a motion of a person by numerical values or symbols, and the motion information, and the motion pattern database is collated to generate motion pattern information based on the motion information. And an operation pattern generation unit that collects information about the user and outputs it as user information. And user information collection unit that performs a paid,
A device state information collecting unit that checks the operation state of the computer and outputs or stores it as device state information, and a case of modifying or adjusting the operation pattern information based on the device state information and the user information An operation parameter modification rule that defines a relationship, an operation parameter that refers to the operation parameter modification rule and the device state information or the user information, modifies or adjusts the operation pattern information, and outputs the processed operation pattern information. A modification unit, an expression format rule defining a correspondence relationship between the user information or the apparatus state information or the expression information and the type or attribute of the person image to be displayed or the display format, the expression format rule, the user information, and By referring to the device status information, the type and attributes of the person image to be displayed and the display method are determined based on the expression information, and the display control information is determined. And a person image generation unit that generates a person image specified based on the processed operation pattern information and the display control information and outputs the person image as a video signal. And
【0009】また、第2の発明は、第1の発明におい
て、前記人物像生成部が、前記動作パターン情報と前記
表示制御情報とに基づいて画像の生成と画像出力処理の
制御を行う人物像生成制御部と、コンピュータグラフィ
クスの表現形式による人物像の情報が動作パターン毎に
格納されているCG人物像情報格納部と、イラストの表
現形式による人物像の情報が動作パターン毎に格納され
ているイラスト人物像情報格納部と、実写の表現形式に
よる人物像の情報が動作パターン毎に格納されている実
写人物像情報格納部と、前記人物像生成制御部の制御に
従い前記CG人物像情報格納部を参照してコンピュータ
グラフィクスの表現形式による人物像の映像信号を生成
するCG画像生成部と、前記人物像生成制御部の制御に
従い前記イラスト人物像情報格納部を参照してイラスト
の表現形式による人物像の映像信号を生成するイラスト
画像生成部と、前記人物像生成制御部の制御に従い前記
実写人物像情報格納部を参照して実写の表現形式による
人物像の映像信号を生成するイラスト画像生成部と、前
記人物像生成制御部の制御に従い前記表示制御情報によ
って指定された人物像の映像信号を人物像出力部へ出力
する人物像出力処理部とから構成されることを特徴とす
る。According to a second aspect of the present invention, in the first aspect of the present invention, the human image generation unit controls the image generation and the image output processing based on the motion pattern information and the display control information. A generation control unit, a CG person image information storage unit in which information on a human image in the expression form of computer graphics is stored for each operation pattern, and information on a human image in the expression form for an illustration is stored for each operation pattern. An illustration person image information storage unit, a photographed person image information storage unit in which information of a person image in an expression form of a photograph is stored for each operation pattern, and the CG person image information storage unit under the control of the person image generation control unit. And a CG image generation unit for generating a video signal of a human image in a computer graphics expression format, and the illustration person under the control of the human image generation control unit. An illustration image generation unit that generates a video signal of a human image in an expression format of an illustration with reference to the image information storage unit, and an actual image representation with reference to the actual image information storage unit under the control of the human image generation control unit. An illustration image generation unit that generates a video signal of a human image in a format, and a human image output process that outputs a video signal of a human image specified by the display control information to a human image output unit under the control of the human image generation control unit. It is characterized in that it is composed of a section.
【0010】また、第3の発明は、第2の発明におい
て、前記人物像出力処理部が、前記CG画像生成部また
は前記イラスト画像生成部もしくは前記実写画像生成部
から送られてきた映像信号に修正や調整あるいは特殊効
果の付加を行う画像処理部と、前記画像処理部から送ら
れてきた映像信号の切替または合成を行う画像合成切替
部と、前記画像合成切替部から送られてきた映像信号に
修正や調整あるいは特殊効果の付加を行う終段画像処理
部とから構成されることを特徴とする。According to a third aspect of the present invention, in the second aspect, the person image output processing section applies to a video signal sent from the CG image generating section, the illustration image generating section or the photographed image generating section. An image processing unit that corrects or adjusts or adds a special effect, an image composition switching unit that switches or combines the video signals sent from the image processing unit, and a video signal sent from the image composition switching unit And a final-stage image processing unit for making corrections, adjustments, or adding special effects.
【0011】また、第4の発明は、第2または第3の発
明において、前記人物像生成部が、音声情報を格納した
音声情報格納部と、音声情報格納部を参照し前記人物像
生成制御部の制御に従い音声信号を生成する音声生成部
とをさらに備えて構成され、前記人物像生成制御部が、
音声の生成と音声出力処理の制御をさらに行うことを特
徴とする。According to a fourth aspect of the present invention, in the second or third aspect, the person image generation unit refers to the voice information storage unit storing voice information and the voice information storage unit, and the person image generation control is performed. And a voice generation unit that generates a voice signal according to the control of the unit, wherein the person image generation control unit is
It is characterized by further performing control of voice generation and voice output processing.
【0012】[0012]
【実施例】以下の説明において、「対話」とは利用者と
装置との間の情報のやり取り、つまり、情報の入出力の
ことを指す。CGまたはCG画像とは座標値をもとに画
像を生成したものを指す。イラスト(ILLUST)ま
たはイラスト画像とはスタイラスペンやマウス、デジタ
イザ、キーボード等の入力装置を使い描画用のソフトウ
ェアを用いて画素の集合として作成した画像、または、
ペンや筆などの描画手段を用いて描いた絵をスキャナや
カメラなどの入力手段で取り込み画素の集合へと変換し
たもの(例えばビットマップデータとして表現されたも
の)を指す。実写(IMAGE)または実写画像とは、
カメラなどを用いて実際の空間を撮影し画素やラスタの
集合へと変換したものを指す。イラストと実写との違い
は画像の内容が人間の手によって描画されたものである
か否かの違いによる。また、映像信号は電流または電圧
の振幅や位相、周波数といった物理量の変動として表さ
れる場合(例えば、NTSC規格による映像信号など)
の他に、数値や記号といった論理的な情報として表され
る場合(例えば、離散的な階調として表されたRGB値
による画像表現などがこれにあたる。また、与えられた
ベクトル値に基づいて描画を行うような表示装置に出力
する場合には描画のために必要なベクトルの座標値やベ
クトル量など)も含まれる。また、以下では計算機シス
テムあるいは計算機を内蔵する装置は単に「計算機」と
呼ぶことにする。本発明の実施にあたっては計算機の他
に、動作表現スクリプトを手動で入力し出力する装置
や、あるいは、あらかじめ動作表現スクリプトを記憶・
格納しその動作表現スクリプトを再生・出力が行えるよ
うな装置に対しても実施することができる。後者の例と
してはメモリ上に動作表現スクリプトを記憶しておき何
らかのトリガにより順次出力する装置(メモリカードや
磁気カードなどから情報を読み出す装置)が挙げられ、
特定の人物像のみを表示するような用途や特定の情報を
多数に提示するような用途(例えば人物像の動画表示を
伴う宣伝広告など)に対しても有効である。DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description, "dialogue" refers to the exchange of information between a user and a device, that is, the input / output of information. The CG or CG image refers to an image generated based on coordinate values. An illustration (ILLUST) or an illustration image is an image created as a set of pixels by using drawing software with an input device such as a stylus pen, mouse, digitizer, or keyboard, or
A picture drawn by using a drawing means such as a pen or a brush and converted into a set of pixels by an input means such as a scanner or a camera (for example, expressed as bitmap data). What is a live-action (IMAGE) or live-action image?
It refers to an image of the actual space captured by a camera and converted into a set of pixels and rasters. The difference between the illustration and the live-action image is the difference in whether or not the content of the image is drawn by a human hand. Also, when the video signal is represented as fluctuations in physical quantities such as current or voltage amplitude, phase, and frequency (for example, video signals according to the NTSC standard)
In addition, when represented as logical information such as a numerical value or a symbol (for example, this is an image representation by RGB values represented as discrete gradations. Also, drawing based on a given vector value. In the case of outputting to a display device that performs the above, the vector coordinate value and vector amount necessary for drawing are also included. Further, in the following, a computer system or a device incorporating a computer will be simply referred to as a "computer". In carrying out the present invention, in addition to a computer, a device for manually inputting and outputting a motion expression script, or storing and storing the motion expression script in advance
It can also be implemented for a device that can store and reproduce / output the action expression script. An example of the latter is a device (a device that reads information from a memory card, magnetic card, etc.) that stores an action expression script in memory and sequentially outputs it by some trigger.
It is also effective for a purpose of displaying only a specific person image and a purpose of presenting a large number of specific information (for example, a publicity advertisement accompanied by displaying a moving image of a person image).
【0013】まず、本発明における人物像やその動作の
扱いについて説明する。本発明では人物像の処理や制
御、管理は人物像の「属性」と「動作」とに区別して行
う。属性とは、例えば性別、年齢、職業、体格や外観の
特徴、といったものを表す。動作は動作パターンによっ
て定義、管理される。つまり、人物像の動作は、動作パ
ターンの組み合わせや各動作パターンのパラメータを設
定することで表現される。動作パターンとは人間の代表
的な動作を有限種類に区分、分類したものである。具体
的には人体の各部位が変位する方向や量、また、それら
変位の時間変化として表現される。特に、動作の量や速
度、時間変化などの動作の量的な要素を数値的に表した
部分を動作パラメータと呼ぶ。つまり、動作パターンは
動作の種類と動作パラメータとによって記述される。動
作の種類とは例えば、「首を振る」「手を挙げる」「立
ち上がる」「目を閉じる」「笑う」といった具合に動作
を区分したものである。従って、動作パターンとは、
「手を移動する 上へ 10」といった具合に人間の動
作を記述したものである。図6の例では「HEAD F
ORWARD 0.3」という一文が一つの動作パター
ンを形成している。体の別の部位を同時に動作させる場
合には、複数の動作パターンを括弧で一まとまりにくく
る、といった記述方法により表すことができる。動作パ
ターンは処理しやすいように数字や記号により抽象的な
表現を用いることが望ましいが、これはあくまで一例で
あり、色々な表現が可能である。実際の人体の部位に関
する情報は人物像生成部の内部に格納してあり、動作パ
ターンと映像信号として生成される人物像やその動作と
が対応づけられている。用意する動作パターンの種類や
動作として記述する身体の部位は作業の内容や用途に応
じて設定される。これは人体の動作は複雑なので人間が
行う動作を全て提供し再現することは困難であり、ま
た、人物像を生成するのに必要な情報が膨大になってし
まうためである。場面や用途を限定することで、動作パ
ターンの種類や人物像の画像情報を減らすことができ、
限られた資源(例えば記憶領域や情報処理能力など)で
目的とする人物像の動きを自然に表現できるようにな
る。複数種類の人物像を利用する場合にも、動作パター
ンは共通に設定される。また、種類が異なる人物像のそ
れぞれが各動作パターンの情報を備えている。資源が豊
富にあり、かつ、処理能力が高い場合には、多数の動作
パターンを登録しておく方が、より自然で多様な人物像
の表示を行うことができ効果的である。First, the handling of a person image and its operation in the present invention will be described. In the present invention, processing, control, and management of a human image are performed by distinguishing between "attribute" and "motion" of the human image. The attributes represent, for example, sex, age, occupation, characteristics of physique and appearance. Actions are defined and managed by action patterns. That is, the motion of the person image is expressed by setting a combination of motion patterns and parameters of each motion pattern. A motion pattern is a typical motion of a human being classified and classified into a finite type. Specifically, it is expressed as the direction and amount of displacement of each part of the human body, and the time change of those displacements. In particular, a part that numerically represents the quantitative elements of the operation such as the amount of operation, the speed, and the change with time is called an operation parameter. That is, the operation pattern is described by the type of operation and the operation parameter. The types of motions are, for example, motions classified into "swing head", "raise hands", "stand up", "close eyes", and "laugh". Therefore, the operation pattern is
It is a description of a human motion such as "moving your hand up 10". In the example of FIG. 6, “HEAD F
The sentence "ORWARD 0.3" forms one motion pattern. When different parts of the body are operated at the same time, a plurality of operation patterns can be expressed by a description method such that parentheses are difficult to group together. It is desirable to use an abstract expression with numbers and symbols so that the operation pattern can be easily processed, but this is just an example, and various expressions are possible. Information about the actual part of the human body is stored inside the person image generation unit, and the movement pattern is associated with the person image generated as a video signal and the movement thereof. The type of motion pattern to be prepared and the body part described as a motion are set according to the content and purpose of the work. This is because it is difficult to provide and reproduce all human motions because the human motions are complicated, and the amount of information required to generate a human figure becomes enormous. By limiting the scenes and uses, it is possible to reduce the types of motion patterns and the image information of human images,
It becomes possible to naturally express the movement of a desired human figure with limited resources (for example, storage area and information processing ability). The operation patterns are set in common even when a plurality of types of person images are used. Further, each of the different types of person images has information on each operation pattern. When the resources are abundant and the processing capability is high, it is more effective to register a large number of motion patterns so that a more natural and diverse human image can be displayed.
【0014】ここで、動作表現スクリプトについて説明
する。動作表現スクリプトは計算機の画面上に表示する
人物像の種類や動作の指定、動作の手順などを記述した
一連の文字または記号情報である。動作の指定は、人体
の働きを直接指定する表現、例えば「手を挙げる」とい
った動作パターンと一対一で対応する記述から、「挨拶
をする」「謝る」「高らかに笑う」といった、より複雑
な表現を記述することもできる(複雑な表現を用いるた
めには動作パターンデータベースにおいて動作パターン
との対応付けがなされる)。動作表現スクリプトの一例
を図5に示す。VAR_STARTとVAR_ENDで
囲まれる部分は、人物像の表示動作を制御するための変
数を定義するブロック(つまり、文字情報のかたまり)
である。METHOD_TYPEとは、動作や表情の表
現形式、たとえば、CGとILLUST(イラスト)と
IMAGE(実写)との何れの表現形式を用いるか、あ
るいは、ユーザやシステムの状態を参照し動的に表現形
式を決めるか、などを定義する変数である。MODEL
_TYPEは表示する人物像の種類や、その種類を動的
に変更したり選択したりするかどうかを定める定数であ
る。図5では変数MODEL_TYPEの値がDYNA
MICに設定した例だが、これは、人物像の属性をユー
ザ情報や装置状態情報に基づいて動的に決定するように
指示するコマンドである。この部分を人物像の属性を具
体的に記述した場合(例えば、AGED_WOMAN、
BOY、SECRETARYなど)には記述した内容が
優先的に扱われてユーザ情報や装置状態情報を加味しな
がら人物像の属性が決定される。より具体的に細かく人
物像の属性を指定したい場合には、このブロック内つま
り動作表現スクリプトに表現情報と同じレベルの詳細さ
をもつ情報を記述できるようにする。MOTION_S
TARTとMOTION_ENDで囲まれるブロック
は、動作の種類を定義する部分である。この中に、動作
の種類(TYPE)、動作の時間(TIME)の定義が
含まれる。また、動作表現スクリプトに動作パターンを
直接記述する方法もある。動作パターンを記述する方法
は、アプリケーションソフト側で表示する人物像の動き
を細かく指定し制御するような場合において有効であ
る。動作表現スクリプトは、このようなブロックとして
表示する人物像の動作や属性が順に記述される。動作表
現スクリプトには表示する人物像の動作や人物像の種類
だけでなく、人物像を表示する事の目的や表示の際に加
える演出効果、人物像の動きに合わせて音声を出力する
場合には音声出力に関する情報を記述することができ
る。Here, the action expression script will be described. The action expression script is a series of character or symbol information describing the type of person image displayed on the screen of the computer, the designation of the action, the procedure of the action, and the like. The action designation is based on expressions that directly specify the actions of the human body, for example, a description that corresponds one-to-one with a motion pattern such as "raising a hand", and then a more complicated action such as "greeting,""apologizing," or "highly laughing" It is also possible to describe an expression (in order to use a complicated expression, it is associated with an operation pattern in an operation pattern database). An example of the action expression script is shown in FIG. The part surrounded by VAR_START and VAR_END is a block that defines a variable for controlling the display operation of the human figure (that is, a block of character information).
Is. METHOD_TYPE is an expression format of motions and facial expressions, for example, which expression format of CG, ILLUST (illustration) and IMAGE (actual image) is used, or the expression format is dynamically determined by referring to the state of the user or the system. It is a variable that defines or decides. MODEL
_TYPE is a constant that determines the type of person image to be displayed and whether or not the type is dynamically changed or selected. In FIG. 5, the value of the variable MODEL_TYPE is DYNA.
This is an example of setting in the MIC, but this is a command for instructing to dynamically determine the attributes of a person image based on user information and device state information. When the attribute of the person image is specifically described in this part (for example, AGED_WOMAN,
The written content is preferentially handled in (BOY, SECRETARY, etc.), and the attribute of the person image is determined in consideration of the user information and the device state information. When it is desired to specify the attributes of a person image in more detail, information having the same level of detail as expression information can be described in this block, that is, in the action expression script. MOTION_S
The block enclosed by TART and MOTION_END is a part that defines the type of operation. This includes the definition of the type of action (TYPE) and the time of action (TIME). There is also a method of directly describing the motion pattern in the motion expression script. The method of describing the motion pattern is effective in the case of finely specifying and controlling the motion of the human image displayed on the application software side. In the action expression script, actions and attributes of the person image displayed as such a block are described in order. In the action expression script, not only the action of the person image to be displayed and the type of the person image, but also the purpose of displaying the person image, the effect to be added at the time of displaying, and the sound output in accordance with the movement of the person image Can describe information about audio output.
【0015】動作表現スクリプトにより人物像の表示を
記述することで、特にプログラマは人物像の表示を表現
形式や属性の違いを意識することなく行うことができる
ようになる。つまり、プログラマは表現形式や属性を細
かく指示することで人物像の表示が行えるだけでなく、
表現形式や属性の決定は本発明にまかせ、人物像の表示
目的や大まかな動作、用途や目的を動作表現スクリプト
により指示、記述するだけで適切な人物像が表示される
ようになる。また、表現形式が異なる人物像の表示指示
を動作表現スクリプトという単一の記述形式で行うこと
ができるようになり、プログラムの作成に際しての負担
を軽減できる。By describing the display of the human figure by the action expression script, the programmer can particularly display the human figure without being aware of the difference in the expression format and the attributes. In other words, the programmer can not only display a person's image by finely specifying the expression format and attributes, but also
The determination of the expression format and attributes is left to the present invention, and an appropriate person image can be displayed only by instructing and describing the purpose of displaying the person image, the general operation, and the purpose and purpose with the action expression script. In addition, it becomes possible to give an instruction to display a person image having a different expression format in a single description format called an action expression script, and it is possible to reduce the load when creating a program.
【0016】次に、第1の発明の実施例について説明す
る。図1に本発明の一実施例を構成図で示す。計算機側
で生成された動作表現スクリプト112を動作表現スク
リプト解析部101が解析し、動作情報113と表現情
報116を生成し、動作情報113は動作パターン生成
部102へ、また、表現情報116は表現形式選択部1
06へ送られる。動作パターン生成部102は動作パタ
ーンデータベース103を参照して動作情報113に基
づき動作パターン情報114を生成し動作パラメータ修
飾部104へ送る。動作パラメータ修飾部104は動作
パラメータ修飾ルール105とユーザ情報収集部108
において生成されたユーザ情報119や装置状態情報収
集部109において生成された装置状態情報120を参
照し動作パターン情報114に修飾や調整を加え、処理
後の動作パターン情報115を人物像生成部110へ送
る。表現形式選択部106は表現情報116に基づき表
現形式ルール107とユーザ情報119や装置状態情報
120を参照して表示制御情報117を生成し人物像生
成部110へ送る。人物像生成部110は処理後の動作
パターン情報115と表示制御情報117に基づき指定
された人物像の映像信号118を生成し人物像出力部1
11へ送る。人物像出力部111は利用者に対して人物
像の表示を行う。Next, an embodiment of the first invention will be described. FIG. 1 is a block diagram showing an embodiment of the present invention. The motion expression script analysis unit 101 analyzes the motion expression script 112 generated on the computer side to generate motion information 113 and expression information 116. The motion information 113 is expressed by the motion pattern generation unit 102, and the expression information 116 is expressed by the expression information 116. Format selection section 1
It is sent to 06. The motion pattern generation unit 102 refers to the motion pattern database 103, generates motion pattern information 114 based on the motion information 113, and sends it to the motion parameter modification unit 104. The operation parameter modification unit 104 includes an operation parameter modification rule 105 and a user information collection unit 108.
The operation pattern information 114 is modified or adjusted by referring to the user information 119 generated in (1) and the device status information 120 generated in the device status information collection unit 109, and the processed operation pattern information 115 is sent to the person image generation unit 110. send. The expression format selection unit 106 refers to the expression format rule 107, the user information 119 and the device status information 120 based on the expression information 116 to generate the display control information 117 and sends it to the person image generation unit 110. The person image generation unit 110 generates a video signal 118 of a person image designated based on the processed operation pattern information 115 and the display control information 117, and outputs the person image output unit 1
Send to 11. The person image output unit 111 displays the person image to the user.
【0017】動作表現スクリプト解析部について説明す
る。一例として図5に示すような動作表現スクリプトを
受け取った場合について説明すると、動作表現スクリプ
ト解析部はまず人物像の特性や属性を記述したVAR_
STARTのブロックにある変数の定義の解析を行い初
期化(例えば計算機や本発明の内部で管理している特定
の変数のクリアや初期値の設定など)を実行し、解析結
果である表現情報を表現形式選択部へ送る。次に、動作
を記述しているブロックであるMOTION_STAR
Tの部分を解析して、動作の種類とその動作を実行する
時間を読み出し動作情報を生成して動作パターン生成部
へ送る。The action expression script analysis unit will be described. As an example, the case where the action expression script as shown in FIG. 5 is received will be described. The action expression script analysis unit first describes VAR_ that describes the characteristics and attributes of the human image.
The definition of the variables in the START block is analyzed and initialized (for example, clearing of specific variables managed by the computer or the present invention and setting of initial values) are executed, and the expression information as the analysis result is displayed. Send to the expression format selection section. Next, MOTION_STAR, which is a block describing the operation
The T portion is analyzed, the type of operation and the time to execute the operation are read out, and operation information is generated and sent to the operation pattern generation unit.
【0018】表現情報の一例としては、動作表現スクリ
プトの中から属性を記述したブロックの内容を抽出しデ
ータ書式や形式を整えたものが挙げられる。同様に動作
情報の一例には、動作表現スクリプトの中から動作を記
述したブロックの内容を抽出し、データ書式や形式を整
えたものが挙げられる。動作情報や表現情報の生成にあ
たっては別の言語体系や表記方法へと変換する方法を用
いてもかまわない。As an example of the expression information, there is one in which the content of the block in which the attribute is described is extracted from the action expression script and the data format and format are adjusted. Similarly, as an example of the motion information, the contents of the block in which the motion is described are extracted from the motion expression script and the data format and format are prepared. A method of converting to another language system or notation may be used in the generation of motion information or expression information.
【0019】動作パターンデータベースについて説明す
る。動作パターンデータベースには図6に示すように、
一つの動作に対して、必要な身体の各部の動き、つま
り、指定された動作を実現するために必要な動作パター
ンが定義してある。図6の例では、GREETINGと
いう動作が、HEAD(頭部)とNECK(首)とWA
IST(腹部)との動作パターンの組み合わせによって
定義されている。また、図6の例ではHEADが動作の
部位、FORWARDがその部位の動作方向の指定、
0.3が動作量を表すパラメータである。ここで定義さ
れている動作パラメータは、動作として一般的な数値、
すなわち動作のデフォルト値が定義してある。動作パラ
メータの調整は動作パラメータ修飾部において行われ
る。The operation pattern database will be described. In the motion pattern database, as shown in FIG.
The movement of each part of the body required for one movement, that is, the movement pattern necessary for realizing the designated movement is defined. In the example of FIG. 6, the operation of GREETING is HEAD (head), NECK (neck), and WA.
It is defined by a combination of motion patterns with IST (abdomen). Further, in the example of FIG. 6, HEAD is the part of the motion, FORWARD is the designation of the motion direction of the part,
0.3 is a parameter indicating the operation amount. The operation parameters defined here are general numerical values for operation,
That is, the default value of the operation is defined. The adjustment of the operation parameter is performed in the operation parameter modifier.
【0020】ユーザ情報収集部およびユーザ情報につい
て説明する。ユーザ情報とは利用者の名前や年齢、性
別、計算機の操作の作業に関する熟練度、過去の装置操
作履歴、利用者の嗜好や身体的特性といった利用者に関
する情報のことを指す。利用者の情報入力行動などもユ
ーザ情報に含まれる。ユーザ情報は一度登録してしまえ
ば変更や更新の必要が生じない静的な情報と、計算機を
利用している間は常に変化する動的な情報とがある。静
的な情報はテキスト情報として計算機やユーザ情報収集
部にあらかじめ登録され、必要に応じてユーザ情報とし
て出力される。動的な情報の例には利用者の入力行動や
現在位置、姿勢や動作などのリアルタイムな計測値が挙
げられる。動的な情報の収集はあらかじめ設定しておい
た一定時間間隔で測定する場合と、ユーザ情報の参照が
ある毎に測定する場合とがある。動的な情報を収集する
ために、ユーザ情報収集部または計算機に収集する情報
の特性に応じて各種センサを接続し利用者の情報の収集
を行う。The user information collecting unit and the user information will be described. The user information refers to information about the user such as the user's name, age, sex, skill level regarding computer operation work, past device operation history, user preference and physical characteristics. User information input behaviors are also included in the user information. User information includes static information that does not need to be changed or updated once registered, and dynamic information that constantly changes while using the computer. The static information is registered in advance in the computer or the user information collecting unit as text information, and is output as user information as needed. Examples of dynamic information include real-time measurement values such as the user's input action, current position, posture, and motion. Dynamic information collection may be measured at preset fixed time intervals or may be measured every time user information is referenced. In order to collect dynamic information, various sensors are connected to the user information collecting unit or the computer according to the characteristics of the collected information to collect the user information.
【0021】装置状態情報収集部および装置状態情報に
ついて説明する。装置状態情報とは計算機や本発明の動
作状況や動作状態を示す情報である。例えば、計算機や
プログラムの使用時間、作業の経過時間、起動実行中の
プロセスやプログラム名、CPUのレジスタやメモリや
情報処理能力などの計算機資源に関する情報、通信バッ
ファやI/Oポートなどへの情報の入力や各種割り込み
要求の有無、周辺機器の接続状況を含む計算機の動作チ
ェックに関する情報などがある。装置状態情報収集部は
これら情報の収集を行い、装置状態情報として表し格納
したり、要求に応じて情報の出力を行う。The device status information collecting unit and the device status information will be described. The device status information is information indicating the operating status or operating status of a computer or the present invention. For example, the usage time of a computer or program, the elapsed time of work, the name of a process or program being started and executed, information about computer resources such as CPU registers or memory, information processing capacity, information about communication buffers or I / O ports, etc. Input information, presence / absence of various interrupt requests, and information regarding computer operation check including the connection status of peripheral devices. The device status information collecting unit collects these pieces of information, represents and stores them as device status information, and outputs the information in response to a request.
【0022】動作パラメータ修飾部について説明する。
動作パラメータ修飾部は、受け取った動作パターン情報
から動作パラメータを抽出し、ユーザ情報や装置状態情
報を参照して動作パラメータに修飾(または修正、調
整)を加え、動作パターン情報の動作パラメータの部分
を修飾後の数値に置換し動作パターン情報を構成し直し
て人物像生成部へ出力する。例えば、装置状態情報に人
物像の画面表示サイズの情報を含めて参照を行う場合に
おいて、この画面への出力サイズの情報を用いて、動作
の振舞を大きくしたり小さくしたりするパラメータの設
定を行うことができる。実際の修飾の一例を示すと、も
との動作パラメータをM、新しい動作パラメータをN、
装置状態情報から取得した人物像を画面へ出力する面積
をSとし、 N=M{2−(S/B)2 } といった具合に修飾後の数値Nを算出する。ただし、B
は装置状態情報などから取得した全スクリーンのサイズ
を表す。この計算(修飾方法)では、スクリーン全体の
中に人物像の表示領域が占める割合によって、動作の幅
を変えて見やすさを改善している。つまり、人物像の表
示が小さければ人物像の動きを大きくすることになる。The operation parameter modifier will be described.
The operation parameter modification unit extracts the operation parameter from the received operation pattern information, modifies (or modifies or adjusts) the operation parameter by referring to the user information and the device status information, and modifies the operation parameter portion of the operation pattern information. Substituting the modified numerical value for reconstructing the motion pattern information and outputting it to the person image generating unit. For example, when referring to the device status information including the screen display size information of a person, the output size information on this screen can be used to set parameters for increasing or decreasing the behavior of the operation. It can be carried out. As an example of the actual modification, the original operation parameter is M, the new operation parameter is N,
Let S be the area where the person image obtained from the device state information is output to the screen, and calculate the modified numerical value N such as N = M {2- (S / B) 2 }. However, B
Represents the size of all screens acquired from device status information and the like. In this calculation (modification method), the width of motion is changed depending on the ratio of the display area of the human image in the entire screen to improve the visibility. That is, if the display of the person image is small, the movement of the person image is increased.
【0023】表現形式選択部について説明する。図5に
示す動作表現スクリプトにおいて表現形式(METHO
D_TYPE)がCG、ILLUST、またはIMAG
Eといった具合に具体的に指定してあれば、その指定は
表現情報に変換され表現形式選択部へ送られてくる。表
現形式選択部では表現情報に従い指定された形式の表示
を行うように指示した表示制御情報を生成する。また、
表現形式としてDYNAMICという属性を動的に選択
決定する指定があれば、表現形式選択部はユーザ情報と
装置状態情報を参照し、表現形式ルールに基づいて人物
像の表現形式を決定する。The expression format selection unit will be described. In the action expression script shown in FIG. 5, the expression format (METHO
D_TYPE) is CG, ILLUST, or IMAG
If a specific designation such as E is specified, the designation is converted into expression information and sent to the expression format selection unit. The expression format selection unit generates display control information instructing to display the specified format according to the expression information. Also,
If there is a designation to dynamically select and determine the attribute DYNAMIC as the expression format, the expression format selection unit refers to the user information and the device state information and determines the expression format of the person image based on the expression format rule.
【0024】表現形式ルールについて説明する。表現形
式ルールは表現情報と表示制御情報との対応関係、ある
いは、ユーザ情報や装置状態情報と表示制御情報との対
応関係を定義する。図7に表現形式ルールにおける定義
の一例を示す。Rule1は、利用者の年齢(USER
_AGE)が15才以下であれば、人物像の表現形式と
してイラストを選択するというルールの記述例である。
Rule2は、利用者の性別(USER_SEX)が女
性である場合に、CGと実写とを選択するルールであ
る。Rule3は、装置状態情報の一例として利用者が
装置を使用している経過時間(USER_TIME)と
表示形式との対応を定義した例である。この例では利用
時間が10分以内の場合には表現形式としてイラストを
選択することを示している。The expression format rule will be described. The expression format rule defines the correspondence between the expression information and the display control information, or the correspondence between the user information or the device state information and the display control information. FIG. 7 shows an example of the definition in the expression format rule. Rule1 is the age of the user (USER
If _AGE) is 15 years old or younger, this is a description example of a rule that an illustration is selected as a representational form of a human figure.
Rule 2 is a rule for selecting CG and live action when the gender (USER_SEX) of the user is female. Rule 3 is an example in which the correspondence between the elapsed time (USER_TIME) in which the user is using the device and the display format is defined as an example of the device status information. In this example, when the usage time is within 10 minutes, the illustration is selected as the expression format.
【0025】表示制御情報について説明する。表示制御
情報とは表示する人物像の表現形式や種類、属性などの
映像信号を生成する際に参照するデータを指定する情報
が含まれる。さらに、生成された映像信号に対する調整
や演出効果の付加の指示といった表示方法を指定する情
報も含まれる。同じ表現形式、例えば、表現形式はイラ
ストであっても、異なる人物像のデータを備えている場
合には、イラスト表現されているどの人物像のデータを
用いて映像信号を生成するかを指定する。The display control information will be described. The display control information includes information that specifies data to be referred when generating a video signal such as an expression format, a type, and an attribute of a person image to be displayed. Further, it also includes information for designating a display method such as an instruction to make adjustments to the generated video signal or add effect effects. If the same expression format, for example, the expression format is an illustration, but data with different person images is provided, specify which image data of the person image represented is used to generate the video signal. .
【0026】人物像生成部について説明する。人物像生
成部は処理後の動作パターン情報と表示制御情報に従い
人物像の映像を生成する。人物像生成部の内部には映像
信号を生成するために必要な人物像のデータが動作パタ
ーンと対応づけられて格納されており、また、その人物
像のデータを読み出し映像信号を生成する機能とが備わ
っている。例えば、CGの人物像の表示を行う場合には
人物像のデータが座標値またはポリゴンなどの情報とし
て動作パターン毎に対応づけて格納してあり、表示制御
情報に従いCGの、かつ、指定のあった人物像の情報を
処理後の動作パターン情報に従い順次読み出し人物像で
ある映像信号の生成を行う。生成された映像信号は人物
像出力部へ出力されるが、映像信号がCRTや液晶ディ
スプレイの信号入力端子へ直接出力される場合と、I/
Oや計算機内部の表示用メモリ領域(例えばVRAM)
などへ出力する場合とがあるため、人物像生成部はそれ
ぞれの出力先の信号入力形態に応じた映像信号を生成す
るように設計される。The person image generator will be described. The person image generation unit generates a person image based on the processed operation pattern information and display control information. Data of a human image necessary for generating a video signal is stored in the human image generation unit in association with an operation pattern, and a function of reading the data of the human image and generating a video signal is provided. Is equipped with. For example, in the case of displaying a CG person image, the person image data is stored as information such as coordinate values or polygons in association with each operation pattern, and the CG image is designated according to the display control information. The information of the human image is sequentially read in accordance with the processed operation pattern information to generate a video signal which is a human image. The generated video signal is output to the person image output unit, but when the video signal is directly output to the signal input terminal of the CRT or the liquid crystal display,
O or display memory area inside the computer (eg VRAM)
In some cases, the person image generator is designed to generate a video signal according to the signal input form of each output destination.
【0027】次に、第2の発明の実施例について説明す
る。図2に本発明の一実施例を構成図で示す。第1の発
明の人物像生成部110において、処理後の動作パター
ン情報115と表示制御情報117が人物像生成制御部
201において解析され人物像生成部110の各部を制
御するための制御信号209,211,213,215
が生成され各部へ送られる。CG画像生成部202はC
G人物像情報格納部205を参照し制御信号209に従
い指定されたCG形式の人物像である映像信号を生成す
る。イラスト画像生成部203はイラスト人物像情報格
納部206を参照し制御信号211に従い指定されたイ
ラスト形式の人物像である映像信号を生成する。実写画
像生成部204は実写人物像情報格納部207を参照し
制御信号213に従い指定された実写形式の人物像であ
る映像信号を生成する。人物像出力処理部208では制
御信号215の制御に従い、CG画像生成部202また
はイラスト画像生成部203または実写画像生成部20
4から出力された映像信号のうち指定された映像信号を
人物像出力部111へ出力する。表現形式はCGとイラ
ストと実写の全てを備えている必要はなく、必要に応じ
て単独あるいは組み合わせて構成される。例えば、CG
のみや、CGとイラスト、実写とイラストといった具合
に実施される。Next, an embodiment of the second invention will be described. FIG. 2 is a block diagram showing an embodiment of the present invention. In the human figure generation unit 110 of the first invention, the processed operation pattern information 115 and the display control information 117 are analyzed by the human figure generation control unit 201, and a control signal 209 for controlling each unit of the human image generation unit 110, 211, 213, 215
Is generated and sent to each part. The CG image generation unit 202 uses C
The G person image information storage unit 205 is referred to, and a video signal which is a designated CG image of a person is generated in accordance with the control signal 209. The illustration image generation unit 203 refers to the illustration person image information storage unit 206 and generates a video signal which is a person image in an illustration format designated according to the control signal 211. The photographed image generation unit 204 refers to the photographed person image information storage unit 207 and generates a video signal which is a photographed person image specified according to the control signal 213. In the portrait image output processing unit 208, according to the control of the control signal 215, the CG image generating unit 202, the illustration image generating unit 203, or the photographed image generating unit 20.
The specified video signal of the video signals output from the No. 4 is output to the person image output unit 111. The expression format does not need to include all of CG, illustration, and live-action, and may be configured alone or in combination as necessary. For example, CG
It will be carried out in a chisel, CG and illustration, live-action and illustration.
【0028】人物像生成制御部について説明する。人物
像生成制御部では処理後の動作パターン情報と表示制御
情報との解析を行い、実際に生成する人物像を具体的に
決定する。例えば、表示制御情報から、「生成するのは
CG形式の画像で男性で年齢は30歳前後、身長は17
0cm程度でやせ形、服装は背広、日本人」といった人物
像の属性が決定される。このような細かな人物像の属性
の指定は表現形式選択部106において指定する場合
と、人物像生成制御部201において決定する場合とが
ある。後者の場合には、表示制御情報から人物像の細か
な属性を決定するための情報やルールが人物像生成制御
部にあらかじめ内蔵される。表示する人物像の属性を指
定する情報は数値、記号化されて指定された画像生成部
へと送られる。具体的には人物像情報格納部に格納され
ている人物像の情報を指定するためのインデックスやア
ドレス情報、ポインタ情報などとして送られる。これら
情報は制御信号として指定された表現形式の画像生成部
へ送られるが、複数の表現形式の画像を合成する場合に
は、合成のもととなる画像を生成する複数の画像生成部
へ送る。処理後の動作パターン情報は表示制御情報で指
定された画像生成部へ制御信号に変換または含められて
送られる。また、人物像生成制御部は人物像出力制御部
の制御、例えば、映像信号の送出や調整、信号形式の変
換などの制御を行う。The person image generation controller will be described. The person image generation control unit analyzes the processed operation pattern information and the display control information to specifically determine the person image to be actually generated. For example, from the display control information, "the image to be generated is a CG image, male, age 30 years old, height 17
The attributes of the person's image are determined, such as a slim figure at 0 cm, a suit, and a Japanese. There are cases where such a detailed human image attribute is specified by the expression format selection unit 106 and cases where it is determined by the human image generation control unit 201. In the latter case, information and rules for determining the detailed attributes of the person image from the display control information are built in the person image generation control unit in advance. The information designating the attribute of the person image to be displayed is numerically and symbolically transmitted to the designated image generation unit. Specifically, it is sent as an index, address information, pointer information, etc. for designating the information of the person image stored in the person image information storage unit. These pieces of information are sent as control signals to the image generation unit of the specified expression format, but when combining images of a plurality of expression formats, they are sent to a plurality of image generation units that generate the images that are the basis of the combination. . The operation pattern information after the processing is converted into a control signal or included in the control signal and sent to the image generation unit specified by the display control information. The person image generation control unit controls the person image output control unit, for example, controls such as sending and adjusting a video signal and converting a signal format.
【0029】画像生成部および人物像情報格納部につい
て説明する。画像生成部では制御信号に従い人物像情報
格納部に格納されている人物像の情報を参照し映像信号
である人物像の生成を行う。格納されている人物像の情
報は各表現形式毎に固有の形式により格納される。人物
像の属性や動作パターンについての情報を含む制御信号
は、各表現形式の人物像の情報の保存状態に従い、各画
像生成部において人物像情報格納部から情報を読み出す
ために必要な情報(例えば、メモリのアドレス値、人体
の部位のパーツ名称や番号、ファイル名やファイル番
号、フィールドやフレームの番号、インデックス番号、
タイムスタンプ情報など)へと変換される。人体の情報
は人体全体や半身などを一つの単位として管理し格納す
る場合と、体の部位を細かく分割して情報を格納する場
合とがある。分割する場合とは例えば、頭部や胸部、
首、顔の各部位(目、鼻、口、眉など)、手(指、甲な
ど)、腕、胴部、足といった具合に分割し管理、格納す
る。また、これら人物像の情報は、異なる属性の人物像
毎に格納される。属性に関する情報から具体的な人物像
の情報の参照を容易にするために、属性と人物像情報と
の対応付けを定義しておく。例えばこの定義をテーブル
情報として画像生成部または人物像情報格納部に格納し
ておき、必要に応じて参照するといった方法がとられる
こと等が考えられる。The image generation unit and the person image information storage unit will be described. The image generation unit refers to the information of the human image stored in the human image information storage unit according to the control signal to generate a human image as a video signal. The information on the stored person image is stored in a unique format for each expression format. The control signal including information about the attributes and motion patterns of the human image is information necessary for reading information from the human image information storage unit in each image generation unit according to the storage state of the information of the human image of each expression format (for example, , Memory address value, part name and number of human body part, file name and file number, field and frame number, index number,
Time stamp information etc.). The information of the human body may be stored by managing the entire human body or the half body as one unit and storing the information by dividing the body part into fine pieces. When dividing, for example, the head or chest,
Neck, each part of the face (eyes, nose, mouth, eyebrows, etc.), hands (fingers, backs, etc.), arms, torso, legs, etc. are divided and managed and stored. In addition, the information of these person images is stored for each person image having different attributes. In order to make it easy to refer to specific information about a person from the information about the attribute, the correspondence between the attribute and the person image information is defined. For example, it is conceivable that this definition may be stored as table information in the image generation unit or the person image information storage unit and referred to as necessary.
【0030】例えば、表現形式がCGの場合には、CG
人物像情報格納部に格納される人物像の情報や点や線分
やポリゴンなどの座標値の集合として、さらには、ポリ
ゴンに張り付けるテクスチャ情報などとして表される。
人物像の動きを表す場合には各座標値の変位やその時間
変動に関する情報(例えば、速度や加速度など)として
格納される。それら座標値などをもとにCG画像生成部
ではコンピュータグラフィクスとして人物像を生成す
る。For example, when the expression format is CG, CG
It is represented as information of a human image stored in the human image information storage unit, a set of coordinate values of points, line segments, polygons, and the like, and texture information attached to the polygon.
When representing the movement of a person image, it is stored as information (for example, velocity or acceleration) regarding the displacement of each coordinate value and its time variation. The CG image generation unit generates a person image as computer graphics based on the coordinate values.
【0031】また、例えば、表現形式がイラストの場合
には、イラスト人物像情報格納部に格納される人物像の
情報は平面画像を単位とした集合として表される。例え
ば、ビットマップ形式やJPEG形式(あるいはTIF
FやMAGといった平面画像を記述できる情報形式)平
面画像の集合として人物像が格納される。MJPEGや
MPEG形式のように動画像のための形式であっても良
い。それら平面画像の情報がイラスト画像生成部から順
に読み出され映像信号が生成される。Further, for example, when the expression format is an illustration, the information of the human image stored in the illustration human image information storage section is represented as a set in units of planar images. For example, bitmap format, JPEG format (or TIF
Information format capable of describing a plane image such as F or MAG) A person image is stored as a set of plane images. It may be a format for moving images such as MJPEG or MPEG format. The information of these plane images is sequentially read from the illustration image generation unit to generate a video signal.
【0032】また、例えば、表現形式が実写の場合に
は、実写人物像情報格納部に格納される人物像の情報
は、イラストの場合と同様に平面画像の集合として格納
されるが、MJPEGやMPEG形式のような記録媒体
上へファイル形式として保存することを意識した記録形
式の他に、フレームまたはフィールドといったラスタス
キャンを意識した形式で保存する場合とがある。後者で
は、例えば磁気テープや磁気ディスク、光ディスクなど
へアナログ信号として画像情報を格納する場合が挙げら
れる。これら画像の情報が実写画像生成部から順に読み
出され人物像が生成される。Further, for example, when the expression format is a live-action image, the information of the human image stored in the real-imaged human image information storage section is stored as a set of planar images as in the case of the illustration, but MJPEG or In addition to the recording format that is intended to be saved as a file format on a recording medium such as the MPEG format, there is a case where it is saved in a format that is aware of raster scanning such as frames or fields. In the latter case, the image information may be stored as an analog signal on a magnetic tape, a magnetic disk, an optical disk, or the like. Information of these images is sequentially read from the photographed image generation unit to generate a person image.
【0033】画像生成部における動作パターンや動作パ
ラメータの扱いについてさらに説明する。表現形式がC
Gの場合には、図6に示した動作パターンの情報を例に
とると、表示制御情報に基づき数値情報やポリゴンデー
タにより構成された人物像のモデルが呼び出され、その
モデルにおいて頭部(HEAD)を前方(FORWAR
D)へ動作パラメータである0.3だけ変位させる画像
が生成される。また、画像は変位を段階的に行いながら
生成する場合(例えば、0から0.3まで変位を0.0
5間隔で行いその各段階毎に画像を生成する場合など)
と、直ちに変位させた画像を生成する場合(例えば、
0.3だけ変位した画像のみを生成する場合)とがあ
り、人物像の動きを滑らかに表現する場合には前者の方
法がとられる。動作パラメータ(この場合には0.3と
いう数値)の意味は、例えば人物像のモデルにおいて頭
部としてグルーピングされた座標点や、頭部の重心を
0.3という変位量だけ移動させるという意味付けがな
される。この場合の0.3という数値はモデルを構成す
る座標系の単位に依存した数値とする場合と、人物像を
観察する利用者の主観に依存した数値と定義する場合と
がある。イラストや実写形式との共通のパラメータとす
る場合には後者の定義を用いる方が適している。例え
ば、頭部の可動範囲を考える場合に、基準点から限界稼
働点までの段階を0から1という具合に定義しておき、
その段階を指定するパラメータを位置づける方法が挙げ
られる。頭部の場合を例にとると、頭部をまっすぐにし
ている状態を0、完全に曲げた状態を1といった具合に
定義する。The handling of operation patterns and operation parameters in the image generator will be further described. Expression format is C
In the case of G, taking the information of the motion pattern shown in FIG. 6 as an example, a model of a human image composed of numerical information and polygon data is called based on the display control information, and the head (HEAD ) To the front (FORWAR
An image is generated which displaces to D) by the operating parameter 0.3. Further, when the image is generated while performing the displacement stepwise (for example, the displacement from 0.0 to 0.3 is 0.0
(For example, when performing at 5 intervals and generating an image for each step)
And when generating an image that is immediately displaced (for example,
In the case of generating only an image displaced by 0.3), the former method is used when the motion of the human image is smoothly expressed. The meaning of the motion parameter (in this case, the numerical value of 0.3) means, for example, that the coordinate points grouped as the head in the model of the human image and the center of gravity of the head are moved by a displacement of 0.3. Is done. In this case, the value of 0.3 may be defined as a value depending on the unit of the coordinate system forming the model, or may be defined as a value depending on the subjectivity of the user who observes the human image. It is more appropriate to use the latter definition when the parameters are common to the illustration and the live-action format. For example, when considering the movable range of the head, the stage from the reference point to the limit operating point is defined as 0 to 1,
There is a method of locating a parameter designating the stage. Taking the case of the head as an example, the state in which the head is straight is defined as 0, the state in which the head is completely bent is defined as 1, and so on.
【0034】表示形式がイラストの場合を、人物像の情
報が画像ファイルとしてイラスト人物像情報格納部に保
存されて送られてきたのが図6に示した動作パターンの
情報である場合を例にとり説明する。イラスト画像生成
部は頭部を前方へ動作させる画像ファイルをイラスト人
物像情報格納部から順に読み出し画像を生成する。この
場合に、人物像全体を更新する方法と、基準となる画像
をまず読み出し、動作が生じる部分だけを順に上書きし
ていく方法とがある。例えば、頭部だけを描いた画像を
全身画像の上に次々に上書きしていくといった方法をと
る。このような部分的な描画更新方法では、格納すべき
人物像の情報の量を少なくすることができ、また、上書
きの描画部分が少ないため描画を高速に行うことがで
き、滑らかなアニメーション画像が生成できる点で有効
である。また、イラスト画像で複数の部位、例えば、頭
部と腰部を同時に動かすような場合には、頭部と腰部を
同時に動かす人物像の情報をあらかじめ用意しておく
か、または、頭部と腰部との部分を同時に上書きしてい
く方法などがとられる。動作パラメータは、読み出す画
像ファイルの選択時に反映され、動作量が大きいほど、
大きな動きを示す画像ファイルが読み出される。このた
め、イラスト人物像情報格納部に動作パラメータによっ
て設定可能な範囲の動作を表現できる人物像の情報をあ
らかじめ全て格納しておくか、動作パラメータに従い基
準となるイラスト画像をもとに動作パラメータの表す画
像を補間または変形、拡大、縮小といった画像処理によ
り生成できるようにしておく。また、動作パラメータが
動作の速度を表す場合には、画像ファイルを読み出した
りその情報を描画する時間間隔の調整に用いる。Taking the case where the display format is an illustration as an example, it is assumed that the information of the person image is stored as an image file in the illustration person image information storage section and is sent to the operation pattern information shown in FIG. explain. The illustration image generation unit sequentially reads image files for moving the head forward from the illustration person image information storage unit and generates an image. In this case, there are a method of updating the entire human figure and a method of first reading out a reference image and sequentially overwriting only the portion where the operation occurs. For example, a method is used in which images depicting only the head are overwritten on the whole-body image one after another. With such a partial drawing update method, it is possible to reduce the amount of information on the human image to be stored, and since there are few overwritten drawing portions, it is possible to perform drawing at high speed, resulting in a smooth animation image. It is effective because it can be generated. Also, in the case of moving a plurality of parts in the illustration image, for example, the head and the waist at the same time, information on a person image that moves the head and the waist at the same time is prepared in advance, or The method of overwriting the part of is taken at the same time. The operation parameters are reflected when selecting the image file to read.
An image file showing a large movement is read. For this reason, all the information of the human image that can express the motion within the range that can be set by the operation parameter is stored in the illustration human image information storage unit in advance, or the operation parameter The image to be represented should be able to be generated by image processing such as interpolation or transformation, enlargement, reduction. Further, when the operation parameter represents the speed of the operation, it is used for adjusting the time interval for reading the image file and drawing the information.
【0035】表現形式が実写の場合に、実写人物像情報
格納部に保存されている情報がイラストと同様のファイ
ル形式である場合には、動作パターンや動作パラメータ
についてもイラスト形式の場合と同じように扱うことが
できる。一方、実写人物像情報格納部において磁気テー
プや磁気ディスク、光ディスクなどにアナログ映像信号
として実写人物像の画像を記録しているような場合に
は、部分的な描画、例えば全身画面をまず描き、頭部だ
けを後から上書き描画するといったことが行い難く、ま
た、そのような画像の部分的な上書き合成を実写表現形
式で行うと描画位置のずれなどが目立ち利用者に違和感
を感じさせる場合がある。その際には、動作パターンや
動作パラメータで指定可能な画像を全て格納しておく方
法が有効である。When the expression format is a live-action image and the information stored in the live-action portrait image information storage section is in the same file format as the illustration, the operation patterns and operation parameters are the same as in the illustration format. Can be treated to. On the other hand, in the case where an image of a live-action portrait image is recorded as an analog video signal on a magnetic tape, a magnetic disk, an optical disk, etc. in the live-action portrait image information storage unit, a partial drawing, for example, a whole-body screen is drawn first, It may be difficult to overdraw and draw only the head later, and if partial overwriting and combining of such images is performed in the live-action representation format, the drawing position may be noticeable and the user may feel discomfort. is there. In that case, it is effective to store all the images that can be specified by the operation pattern and operation parameters.
【0036】人物像出力処理部について説明する。人物
像出力処理部の最も簡単な処理は、CG画像生成部また
はイラスト画像生成部または実写画像生成部から送られ
てきた映像信号の切替動作である。人物像生成制御部か
ら送られてきた制御信号に従い、指定された映像信号が
人物像出力部へ送られるように映像信号のスイッチング
を行うことで実現される。人物像出力処理部ではスイッ
チングの他に、映像信号の調整、例えば、明るさやコン
トラスト、色合い、映像同期信号の調整、映像解像度の
変換、映像サイズや表示位置、表示タイミングの調整、
さらには、映像に対して特殊効果を施すといった機能を
持たせることができる。また、人物像出力部が入力する
信号形式に合わせて出力する映像信号の形式を変更する
機能を備える場合もある。また、CG画像生成部とイラ
スト画像生成部と実写画像生成部とが出力する映像信号
の形式が異なる場合には、同一の人物像出力部の信号入
力形式へと変換する機能を備える。The person image output processing section will be described. The simplest process of the person image output processing unit is a switching operation of video signals sent from the CG image generation unit, the illustration image generation unit, or the photographed image generation unit. This is realized by switching the video signal so that the designated video signal is sent to the human image output unit in accordance with the control signal sent from the human image generation control unit. In the person image output processing unit, in addition to switching, adjustment of video signals, for example, brightness, contrast, hue, video sync signal adjustment, video resolution conversion, video size and display position, display timing adjustment,
Furthermore, it is possible to have a function of applying a special effect to an image. Further, there may be a case where a function of changing the format of the video signal output according to the signal format input by the person image output unit is provided. Further, when the formats of the video signals output by the CG image generation section, the illustration image generation section, and the photographed image generation section are different, the CG image generation section, the illustration image generation section, and the photographed image generation section are provided with a function of converting into the same signal input format of the same person image output section.
【0037】第3の発明の実施例について説明する。図
3に本発明の一実施例を構成図で示す。第2の発明の人
物像出力処理部208において、CG画像生成部または
イラスト画像生成部または実写画像生成部が生成した映
像信号210または212または214が画像処理部3
01または302または303に入力され人物像生成制
御部から出力された制御信号215に従い各映像信号に
対して修正や調整あるいは特殊効果の付加が行われる。
処理後の映像信号は画像合成切替部304へ送られ人物
像生成制御部201の制御に従い映像信号の切替や合成
が施される。処理後の画像は終段画像処理部305へ送
られ人物像生成制御部の制御に従い最終的な映像信号の
修正や調整、特殊効果の付加が施され、処理後の映像信
号118が人物像出力部へと送られる。An embodiment of the third invention will be described. FIG. 3 is a block diagram showing an embodiment of the present invention. In the person image output processing unit 208 of the second invention, the video signal 210, 212 or 214 generated by the CG image generating unit, the illustration image generating unit or the photographed image generating unit is the image processing unit 3.
According to the control signal 215 input to 01, 302, or 303 and output from the person image generation control unit, correction or adjustment or addition of a special effect is performed on each video signal.
The processed video signal is sent to the image composition switching unit 304, and the video signal is switched or combined under the control of the person image generation control unit 201. The processed image is sent to the final stage image processing unit 305, where the final image signal is corrected or adjusted and special effects are added under the control of the human image generation control unit, and the processed image signal 118 is output as a human image. Sent to the department.
【0038】画像処理部では、送られてきた映像信号に
対する修正や調整あるいは特殊効果の付加が行われる。
修正や調整としては、明るさやコントラスト、色合い、
色相、ガンマ補正のように各種映像機器の特性に依存し
た補正やそれに関する補正あるいはそれら補正の解除、
映像同期信号の調整、映像解像度の変換を含む映像信号
型式の変換、映像サイズや表示位置、表示タイミングの
調整などが挙げられる。特殊効果とは、画像の縮小や拡
大、変形、切り出し、反転、ワイプやモザイクなどの映
像信号や各種映像信号用のエフェクタ機能やフィルタの
適用などが挙げられる。The image processing unit corrects or adjusts the sent video signal or adds a special effect.
As corrections and adjustments, brightness, contrast, hue,
Corrections such as hue and gamma corrections that depend on the characteristics of various video equipment and related corrections or cancellation of those corrections,
Examples include adjustment of video synchronization signals, conversion of video signal types including conversion of video resolution, adjustment of video size, display position, and display timing. The special effects include reduction, enlargement, deformation, cutout, inversion of images, application of effector functions and filters for video signals such as wipe and mosaic, and various video signals.
【0039】画像合成切替部は、制御信号に従い、入力
された複数の映像信号の中から指定された映像信号を出
力するように切り替えを行う。切り替えは、瞬時に切り
替える場合と、オーバーラップやワイプといった段階的
に映像の切り替えを行う場合とがある。複数の映像の合
成を行う場合には、キーとなる映像信号をもとに画像の
合成を行う場合(例えば、色成分をキーとしたクロマキ
ー合成や、明るさ情報をキーとした合成)や、オーバー
ラップやミキシング手法のように複数の画像全体を同時
に加算表示するのに用いる場合や、窓分割やワイプなど
を利用し基準となる画面に別の画面をはめ込み合成する
場合などがある。The image composition switching unit performs switching so as to output a designated video signal from a plurality of input video signals according to the control signal. Switching may be instantaneous, or video may be switched in stages, such as overlap or wipe. When synthesizing multiple images, when synthesizing images based on the video signal that is a key (for example, chroma key synthesizing using a color component as a key or synthesizing using brightness information as a key), There are cases where it is used to simultaneously add and display a plurality of images as in the case of overlapping and mixing methods, and cases where window splitting and wipes are used to embed another screen on a reference screen and synthesize.
【0040】終段画像処理部は、制御信号215の制御
に従い、画像処理部と同じような送られてきた映像信号
に対する修正や調整あるいは特殊効果の付加を行う。ま
た、必要に応じて画像出力部側の映像信号形式へ映像信
号を変換する機能を備える。Under the control of the control signal 215, the final stage image processing unit performs correction and adjustment or addition of special effects to the sent video signal in the same manner as the image processing unit. It also has a function of converting a video signal into a video signal format on the image output unit side, if necessary.
【0041】第4の発明の実施例について説明する。図
4に本発明の一実施例を構成図で示す。第2または第3
の発明の人物像生成部において、人物像生成制御部20
1の制御に従い音声生成部401が音声情報格納部40
2を参照して音声信号404を生成し人物像出力部11
1へと送る。映像と音声とを利用者に提示する場合に
は、人物像出力部には画像出力部の他に音声出力部を備
える。An embodiment of the fourth invention will be described. FIG. 4 is a block diagram showing an embodiment of the present invention. Second or third
In the human figure generation unit of the invention, the human figure generation control unit 20
According to the control of No. 1, the voice generation unit 401 causes the voice information storage unit 40 to
2, the audio signal 404 is generated and the human image output unit 11 is generated.
Send to 1. When presenting video and audio to the user, the person image output unit includes an audio output unit in addition to the image output unit.
【0042】第4の発明は人物像の表示と一緒に音声を
利用者に出力する装置である。本発明における音声とは
人物が発する声だけでなく、自然界に存在する音や機械
が発する音、効果音といった音情報全般を含む。出力す
る音声の選択は人物像生成部から制御信号が出力され、
その制御信号に基づき、音声生成部が音声情報から必要
な音声情報を読み出し音声を出力する。音声出力の指定
は、人物像生成制御部において、処理後の動作パターン
情報と表示制御情報とから決定されるが、その他、動作
表現スクリプトに音声の出力を指示する内容を記述しそ
れを表現情報や表示制御情報として人物像生成制御部ま
で送り、人物像生成制御部において音声の出力制御に関
する処理内容を定義しておくことで実現される。また、
表現形式選択部において人物像の表示に関する演出効果
の決定を行う場合に音声の出力を選択し表示制御情報と
して指示を出すこともできる。音声として言葉を出力す
る場合に、出力する内容をテキスト情報として動作表現
スクリプトに記述する方法も可能である。その場合に
は、テキスト情報が音声生成部まで送られ、音声生成部
において音声化される。定型的な音や言葉を出力する場
合には、出力する音声情報に番号や記号を付加して管理
し、その番号は記号を指定することで音声情報を呼び出
すことができる。音声情報は音声情報格納部に格納され
るが、情報の格納形式は音声生成部の音声生成方法に依
存する。例えば、音声生成部がPCMのような音声生成
方法をとるならば、音声情報はコード化された音声波形
として記録される。また、FM音源のように各種パラメ
ータを指定して音を生成する場合には、それらパラメー
タが格納される。人の声を生成する音声合成装置であれ
ば、テキスト情報や音韻や抑揚、人の声の特性などに関
する情報が格納される。また、動作パラメータや表示制
御情報を参照して音量や音の高さといった生成する音声
の調整や修正、演出効果の種類や効果の深さなどを決定
することができる。A fourth invention is a device for outputting a voice to a user together with the display of a human figure. The voice in the present invention includes not only a voice emitted by a person but also general sound information such as a sound existing in nature, a sound emitted by a machine, and a sound effect. A control signal is output from the person image generation unit to select the audio to be output,
Based on the control signal, the voice generation unit reads necessary voice information from the voice information and outputs the voice. The specification of the voice output is determined in the human figure generation control unit from the post-processing action pattern information and the display control information. Or display control information to the person image generation control unit, and the person image generation control unit defines the processing content related to the output control of voice. Also,
It is also possible to select an output of voice and issue an instruction as display control information when the effect for displaying a human figure is determined by the expression format selection unit. When outputting a word as a voice, a method of describing the output content as text information in the action expression script is also possible. In that case, the text information is sent to the voice generation unit and converted into voice in the voice generation unit. When outputting a typical sound or word, a number or a symbol is added to the voice information to be output and managed, and the voice information can be called by specifying the symbol for the number. The voice information is stored in the voice information storage unit, and the storage format of the information depends on the voice generation method of the voice generation unit. For example, if the voice generation unit adopts a voice generation method such as PCM, the voice information is recorded as a coded voice waveform. Further, when a sound is generated by designating various parameters like the FM sound source, those parameters are stored. In the case of a speech synthesizer that generates a human voice, text information, phoneme, intonation, and information regarding the characteristics of a human voice are stored. Further, by referring to the operation parameter and the display control information, it is possible to adjust and correct the generated sound such as volume and pitch, and determine the type of effect and the depth of effect.
【0043】人物像の動きに合わせて音声を出力する場
合には動作パターンや動作パラメータの解析結果や画像
生成部の画像生成状況が人物像生成部から音声生成部へ
制御信号として送られ、音声信号を生成し出力するタイ
ミングがとられる。In the case of outputting a voice in accordance with the movement of a human image, the analysis result of the operation pattern and the operation parameter and the image generation status of the image generating unit are sent from the human image generating unit to the voice generating unit as a control signal, and the voice is generated. Timing is generated to generate and output a signal.
【0044】人物像と一緒に音声を出力することの有効
性を説明する。人間の行動には必ず音声や物音の発声が
伴う。また、映画やテレビなどの演出手法にみられるよ
うに、映像と一緒に効果音を同時に提示することで、動
きの意味付けや強調、演出を加えることができる。この
場合には映像と音声とを連動させて出力する必要がある
が、映像と音声の出力を人物像生成制御部において一元
的に管理することで容易に映像と音声との同期をとるこ
とができる。また、音声の出力により、視覚だけでなく
聴覚のチャネルもユーザインタフェースとして用いるこ
とができ、常に人物像に注意を向けている必要性を軽減
することができる。また、人物像をディスプレイ上で平
面画像として表示する場合にも、音声を出力、特にステ
レオなどの立体音響手法を用いて音声を出力すること
で、人物像の存在感やユーザインタフェースの臨場感を
増すことができる。このように映像と音声を一緒に出力
することで、効果的で応用範囲の広いユーザインタフェ
ースが提供できる。The effectiveness of outputting a voice together with a person image will be described. Human behavior is always accompanied by the utterance of voice and noise. In addition, as is the case with production techniques such as movies and television, by presenting sound effects together with video, it is possible to add meaning, emphasis, and production of motion. In this case, it is necessary to output the video and audio in conjunction with each other, but by centrally managing the output of the video and audio in the person image generation control unit, the video and audio can be easily synchronized. it can. Further, by outputting voice, not only visual channels but also auditory channels can be used as a user interface, and it is possible to reduce the need for always paying attention to the human figure. In addition, even when a person image is displayed as a two-dimensional image on the display, the presence of the person image and the realism of the user interface can be enhanced by outputting the sound, particularly by using the stereophonic method such as stereo. Can be increased. By thus outputting the video and audio together, an effective and versatile user interface can be provided.
【0045】[0045]
【発明の効果】以上説明したとおり、本発明が提供する
人物像表示によるユーザインタフェース装置により、利
用者や計算機システムの動作状況に応じて、多様な表示
形式の人物像を、動作や表情を伴いながら表示させるこ
とができるようになり、かつ、それら人物像表示を装置
のユーザインタフェースとして簡単に設計し利用できる
ようになる。また、人物像表示を利用するユーザインタ
フェースに一貫性や統一性が生まれ、効果的でかつ快適
な装置操作性が実現される。As described above, according to the user interface device for displaying a human image provided by the present invention, a human image of various display formats can be displayed in accordance with the operation status of the user or the computer system, along with the motions and facial expressions. It becomes possible to display them while displaying them, and these person image displays can be easily designed and used as the user interface of the apparatus. In addition, consistency and uniformity are created in the user interface that uses the person image display, and effective and comfortable device operability is realized.
【図1】第1の発明の人物像表示によるユーザインタフ
ェース装置の構成の一実施例を示す図である。FIG. 1 is a diagram showing an embodiment of a configuration of a user interface device for displaying a human figure of the first invention.
【図2】第2の発明の人物像表示によるユーザインタフ
ェース装置の構成の一実施例を示す図である。FIG. 2 is a diagram showing an embodiment of a configuration of a user interface device for displaying a human figure of the second invention.
【図3】第3の発明の人物像表示によるユーザインタフ
ェース装置の構成の一実施例を示す図である。FIG. 3 is a diagram showing an embodiment of a configuration of a user interface device for displaying a human figure of the third invention.
【図4】第4の発明の人物像表示によるユーザインタフ
ェース装置の構成の一実施例を示す図である。FIG. 4 is a diagram showing an embodiment of a configuration of a user interface device for displaying a human figure of a fourth invention.
【図5】本発明の動作表現スクリプトの一例を示す図で
ある。FIG. 5 is a diagram showing an example of an action expression script according to the present invention.
【図6】本発明の動作パターンデータベースに格納され
る情報の一例を示す図である。FIG. 6 is a diagram showing an example of information stored in an operation pattern database of the present invention.
【図7】本発明の表現形式ルールにおける定義の一例を
示す図である。FIG. 7 is a diagram showing an example of definitions in the expression format rule of the present invention.
101 動作表現スクリプト解析部 102 動作パターン生成部 103 動作パターンデータベース 104 動作パラメータ修飾部 105 動作パラメータ修飾ルール 106 表現形式選択部 107 表現形式ルール 108 ユーザ情報収集部 109 装置状態情報収集部 110 人物像生成部 111 人物像出力部 112 動作表現スクリプト 113 動作情報 114 動作パターン情報 115 処理後の動作パターン情報 116 表現情報 117 表示制御情報 118 人物像の映像信号 119 ユーザ情報 120 装置状態情報 201 人物像生成制御部 202 CG画像生成部 203 イラスト画像生成部 204 実写画像生成部 205 CG人物像情報格納部 206 イラスト人物像情報格納部 207 実写人物像情報格納部 208 人物像出力処理部 209,211,213,215,403 制御信号 210,212,214 映像信号 301,302,303 画像処理部 304 画像合成切替部 305 終段画像処理部 401 音声生成部 402 音声情報格納部 404 音声信号 405 映像出力部 406 音声出力部 101 Behavior Expression Script Analysis Unit 102 Behavior Pattern Generation Unit 103 Behavior Pattern Database 104 Behavior Parameter Modification Unit 105 Behavior Parameter Modification Rule 106 Expression Format Selection Unit 107 Expression Format Rule 108 User Information Collection Unit 109 Device State Information Collection Unit 110 Human Image Generation Unit 111 person image output unit 112 action expression script 113 action information 114 action pattern information 115 action pattern information after processing 116 expression information 117 display control information 118 person image signal 119 user information 120 device state information 201 person image generation control unit 202 CG image generation unit 203 Illustration image generation unit 204 Real image generation unit 205 CG person image information storage unit 206 Illustration person image information storage unit 207 Real image person image information storage unit 208 Person image output processing unit 209, 211, 213, 215, 403 Control signal 210, 212, 214 Video signal 301, 302, 303 Image processing unit 304 Image synthesis switching unit 305 Final stage image processing unit 401 Audio generation unit 402 Audio information storage unit 404 Audio signal 405 Video output unit 406 Audio output unit
Claims (4)
動作の指定、動作の手順等が記載された動作表現スクリ
プトを作成し、前記動作表現スクリプトによって、前記
人物像の表示制御を行い、利用者との対話を行う計算機
に用いられる人物像表示によるユーザインタフェース装
置において、 前記動作表示スクリプトを解析して表示する人物像の動
作を指定する動作情報と人物像の属性や種類や演出効果
などの動作以外の要素を指定する表現情報とを生成し出
力する動作表現スクリプト解析部と、 数値または記号により人物の動作をモデル化した動作パ
ターンと前記動作情報との対応関係を定義した動作パタ
ーンデータベースと、 前記動作パターンデータベースを照合して前記動作情報
に基づき動作パターン情報を生成する動作パターン生成
部と、 前記利用者に関する情報を収集しユーザ情報として出力
または格納を行うユーザ情報収集部と、 前記計算機の動作状態を調べ装置状態情報として出力ま
たは格納を行う装置状態情報収集部と、 前記装置状態情報と前記ユーザ情報をもとに前記動作パ
ターン情報に対して修飾や調整を加える場合の対応関係
を定義した動作パラメータ修飾ルールと、 前記動作パラメータ修飾ルールと前記装置状態情報や前
記ユーザ情報を参照し、前記動作パターン情報に修飾や
調整を加え、処理後の動作パターン情報を出力する動作
パラメータ修飾部と、 前記ユーザ情報または前記装置状態情報もしくは前記表
現情報と表示する人物像の種類や属性や表示形式との対
応関係を定義した表現形式ルールと、 前記表現形式ルールと前記ユーザ情報と前記装置状態情
報を参照し、前記表現情報に基づき表示する人物像の種
類や属性や表示方法を決定し、表示制御情報を生成し出
力する表現形式選択部と、 前記処理後の動作パターン情報と前記表示制御情報とに
基づいて指定された人物像を生成し映像信号として出力
する人物像生成部とを備えることを特徴とする人物像表
示によるユーザインタフェース装置。1. A motion expression script in which a type of a human image to be displayed on a computer screen, an operation, a procedure of the operation, and the like are described, and the display of the human image is controlled by the operation expression script. In a user interface device for displaying a human image used in a computer that interacts with a user, motion information that specifies the motion of the human image to be displayed by analyzing the motion display script, the attribute and type of the human image, and effect effects Action expression script analysis unit that generates and outputs expression information that specifies elements other than actions, and an operation pattern that defines the correspondence between the operation pattern that models the action of a person by numerical values or symbols and the action information. A motion pattern raw for generating a motion pattern information based on the motion information by collating the database with the motion pattern database Unit, a user information collecting unit that collects information about the user and outputs or stores it as user information, a device state information collecting unit that checks the operating state of the computer and outputs or stores it as device state information, and the device Based on the state information and the user information, the operation parameter modification rule that defines the correspondence when modifying or adjusting the operation pattern information, the operation parameter modification rule and the device state information and the user information. With reference to the operation pattern information, the operation parameter modification unit that modifies or adjusts the operation pattern information and outputs the processed operation pattern information, and the user information or the device state information or the expression information and the type or attribute of the person image to be displayed. And an expression format rule defining a correspondence relationship with a display format, the expression format rule, the user information, and Referring to the placement state information, the type and attributes of the person image to be displayed based on the expression information and determining the display method, the expression format selection unit that generates and outputs display control information, the operation pattern information after the processing and the A user image device for displaying a human image, comprising: a human image generation unit that generates a human image designated based on display control information and outputs the image as a video signal.
画像の生成と画像出力処理の制御を行う人物像生成制御
部と、 コンピュータグラフィクスの表現形式による人物像の情
報が動作パターン毎に格納されているCG人物像情報格
納部と、 イラストの表現形式による人物像の情報が動作パターン
毎に格納されているイラスト人物像情報格納部と、 実写の表現形式による人物像の情報が動作パターン毎に
格納されている実写人物像情報格納部と、 前記人物像生成制御部の制御に従い前記CG人物像情報
格納部を参照してコンピュータグラフィクスの表現形式
による人物像の映像信号を生成するCG画像生成部と、 前記人物像生成制御部の制御に従い前記イラスト人物像
情報格納部を参照してイラストの表現形式による人物像
の映像信号を生成するイラスト画像生成部と、 前記人物像生成制御部の制御に従い前記実写人物像情報
格納部を参照して実写の表現形式による人物像の映像信
号を生成するイラスト画像生成部と、 前記人物像生成制御部の制御に従い前記表示制御情報に
よって指定された人物像の映像信号を人物像出力部へ出
力する人物像出力処理部とから構成されることを特徴と
する請求項1に記載の人物像表示によるユーザインタフ
ェース装置。2. A person image generation control section for controlling the generation of an image and an image output process based on the motion pattern information and the display control information, and a person in a computer graphics expression format. CG person image information storage unit in which image information is stored for each motion pattern, illustration person image information storage unit in which image information in an expression form for each motion pattern is stored, and live-action expression form A person image in a computer graphics representation format with reference to the CG person image information storage unit under the control of the person image generation control unit A CG image generation unit that generates a video signal of the image, and an illustration table with reference to the illustration person image information storage unit under the control of the person image generation control unit. An illustration image generating unit for generating a video signal of a human image in a format, and an illustration for generating a video signal of a human image in an expression form of a live image by referring to the real image data storage unit under the control of the human image generation control unit. An image generation unit and a person image output processing unit that outputs a video signal of a person image designated by the display control information to a person image output unit under the control of the person image generation control unit. The user interface device according to claim 1, wherein the user image is displayed.
くは前記実写画像生成部から送られてきた映像信号に修
正や調整あるいは特殊効果の付加を行う画像処理部と、 前記画像処理部から送られてきた映像信号の切替または
合成を行う画像合成切替部と、 前記画像合成切替部から送られてきた映像信号に修正や
調整あるいは特殊効果の付加を行う終段画像処理部とか
ら構成されることを特徴とする請求項2に記載の人物像
表示によるユーザインタフェース装置。3. An image process in which the person image output processing unit performs correction, adjustment, or addition of a special effect to a video signal sent from the CG image generation unit, the illustration image generation unit, or the photographed image generation unit. Section, an image composition switching section that performs switching or composition of the video signal sent from the image processing section, and an end that performs correction, adjustment, or addition of special effects to the video signal sent from the image composition switching section. The user interface device for displaying a human image according to claim 2, wherein the user interface device comprises a step image processing unit.
音声情報格納部と、音声情報格納部を参照し前記人物像
生成制御部の制御に従い音声信号を生成する音声生成部
とをさらに備えて構成され、前記人物像生成制御部が、
音声の生成と音声出力処理の制御をさらに行うことを特
徴とする請求項2または3に記載の人物像表示によるユ
ーザインタフェース装置。4. The person image generation unit further includes a voice information storage unit that stores voice information, and a voice generation unit that refers to the voice information storage unit and generates a voice signal under the control of the person image generation control unit. And the human image generation control unit,
The user interface device for displaying a human image according to claim 2 or 3, further comprising controlling voice generation and voice output processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7065794A JP2723070B2 (en) | 1995-03-24 | 1995-03-24 | User interface device with human image display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7065794A JP2723070B2 (en) | 1995-03-24 | 1995-03-24 | User interface device with human image display |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08263683A true JPH08263683A (en) | 1996-10-11 |
JP2723070B2 JP2723070B2 (en) | 1998-03-09 |
Family
ID=13297302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7065794A Expired - Fee Related JP2723070B2 (en) | 1995-03-24 | 1995-03-24 | User interface device with human image display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2723070B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013113966A (en) * | 2011-11-28 | 2013-06-10 | Toyota Motor Corp | Interaction device, interaction method, interactive program |
CN111192575A (en) * | 2019-03-29 | 2020-05-22 | 码赫镭(上海)数字科技有限公司 | Integrated control system for multimedia digital exhibition |
CN115512017A (en) * | 2022-10-19 | 2022-12-23 | 深圳市诸葛瓜科技有限公司 | Animation image generation system and method based on character characteristics |
-
1995
- 1995-03-24 JP JP7065794A patent/JP2723070B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013113966A (en) * | 2011-11-28 | 2013-06-10 | Toyota Motor Corp | Interaction device, interaction method, interactive program |
CN111192575A (en) * | 2019-03-29 | 2020-05-22 | 码赫镭(上海)数字科技有限公司 | Integrated control system for multimedia digital exhibition |
CN115512017A (en) * | 2022-10-19 | 2022-12-23 | 深圳市诸葛瓜科技有限公司 | Animation image generation system and method based on character characteristics |
CN115512017B (en) * | 2022-10-19 | 2023-11-28 | 邝文武 | Cartoon image generation system and method based on character features |
Also Published As
Publication number | Publication date |
---|---|
JP2723070B2 (en) | 1998-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766777B (en) | Method and device for generating virtual image, electronic equipment and storage medium | |
US6999084B2 (en) | Method and apparatus for computer graphics animation utilizing element groups with associated motions | |
Pearce et al. | Speech and expression: A computer solution to face animation | |
KR102386640B1 (en) | Creation of transform special effect program file package and method and apparatus for generating transform special effect | |
US6677944B1 (en) | Three-dimensional image generating apparatus that creates a three-dimensional model from a two-dimensional image by image processing | |
CA2239402C (en) | Method for generating photo-realistic animated characters | |
US20020024519A1 (en) | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character | |
CN110874557A (en) | Video generation method and device for voice-driven virtual human face | |
US5649086A (en) | System and method for parameter-based image synthesis using hierarchical networks | |
JP2002298155A (en) | Emotion-oriented three-dimensional computer graphics expression model forming system | |
WO2005024728A1 (en) | Form changing device, object action encoding device, and object action decoding device | |
CN111724457A (en) | Realistic virtual human multi-modal interaction implementation method based on UE4 | |
WO2024244666A1 (en) | Animation generation method and apparatus for avatar, and electronic device, computer program product and computer-readable storage medium | |
CN112673400A (en) | Avatar animation | |
CN115049016A (en) | Model driving method and device based on emotion recognition | |
Thórisson | ToonFace: A system for creating and animating interactive cartoon faces | |
JP6672414B1 (en) | Drawing program, recording medium, drawing control device, drawing control method | |
JP2002304638A (en) | Facial expression animation generating apparatus and facial expression animation generating method | |
JP2723070B2 (en) | User interface device with human image display | |
JP7273752B2 (en) | Expression control program, recording medium, expression control device, expression control method | |
KR20020049384A (en) | System for generating character animation and method for generating character animation using the same | |
JP3153141B2 (en) | Virtual pseudo person image generation system and virtual pseudo person image generation method | |
JPH11175765A (en) | Method and device for generating three-dimensional model and storage medium | |
Watlington | Synthetic movies | |
JP7145359B1 (en) | Inference model construction method, inference model construction device, program, recording medium, configuration device and configuration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19971028 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071128 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081128 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081128 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091128 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091128 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101128 Year of fee payment: 13 |
|
LAPS | Cancellation because of no payment of annual fees |