JP2003085571A - Coloring book toy - Google Patents
Coloring book toyInfo
- Publication number
- JP2003085571A JP2003085571A JP2001271573A JP2001271573A JP2003085571A JP 2003085571 A JP2003085571 A JP 2003085571A JP 2001271573 A JP2001271573 A JP 2001271573A JP 2001271573 A JP2001271573 A JP 2001271573A JP 2003085571 A JP2003085571 A JP 2003085571A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- player
- moving
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 仮想的環境の中で遊戯者自身が色を塗るとい
う現実の感覚を体感させることにより、面白みを高める
ことができる塗り絵玩具を提供する。
【解決手段】 塗り絵玩具は、遊戯者を撮像して動画デ
ータを出力する撮像手段3と、動画データを基に、遊戯
者の動作を動作情報として認識する動作認識手段19
と、動作情報を基に遊戯者の動作を反映したコンピュー
タグラフィック(CG)によるCG動画データを作成す
るCG動画作成手段32と、塗り絵の基となる図柄を含
む図柄画像データを出力する図柄画像出力手段13と、
図柄画像データにCG動画データを合成させる画像合成
手段34と、合成された合成画像データを表示装置5に
出力して合成画像を表示させる表示制御手段35とを具
備する。つまり、遊戯者の動作を反映したCG動画によ
り塗り絵を行わせる。
(57) [Summary] [Problem] To provide a coloring toy that can enhance the fun by experiencing the real sense that a player paints a color in a virtual environment. SOLUTION: A coloring toy includes an image pickup means 3 for picking up an image of a player and outputting moving image data, and an action recognition means 19 for recognizing a player's movement as operation information based on the moving image data.
CG moving image creation means 32 for creating CG moving image data by computer graphics (CG) reflecting the player's movement based on the movement information, and symbol image output that outputs the symbol image data including the symbol that is the basis of the coloring book Means 13;
The image combining means 34 for combining the CG moving image data with the design image data and the display control means 35 for outputting the combined image data to the display device 5 and displaying the combined image are provided. That is, the coloring is performed by a CG moving image reflecting the player's action.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、塗り絵玩具に関
し、特に、遊戯者の動作を反映させたコンピュータグラ
フィック(CG)動画を用いて、表示装置に表示された
図柄に色を塗ることが可能な塗り絵玩具に関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coloring toy, and in particular, it is possible to apply a color to a design displayed on a display device by using a computer graphic (CG) moving image that reflects the motion of a player. It concerns coloring toys.
【0002】[0002]
【従来の技術】従来より、コンピュータを用いた塗り絵
玩具として、表示装置に表示された図柄の内部を、任意
の色で塗り潰すことができるようにしたものが知られて
いる。具体的には、マウスやタッチペン等のポインティ
ングデバイスを用いて、色見本の中から所望の色が選択
され、その後、画面上に表示された図柄の内部、すなわ
ち輪郭線で囲まれた所望の領域が選択されると、その領
域を選択された色で塗り潰すものである。2. Description of the Related Art Heretofore, as a coloring toy using a computer, there has been known a coloring toy in which the inside of a design displayed on a display device can be filled with an arbitrary color. Specifically, using a pointing device such as a mouse or touch pen, a desired color is selected from the color sample, and then, inside the pattern displayed on the screen, that is, a desired area surrounded by a contour line. When is selected, the area is filled with the selected color.
【0003】また、画面上に表示された図柄に対して、
ポインティングデバイスを操作することにより、ポイン
ティングデバイスの軌跡に沿って、線状に着色を行える
ようにした塗り絵玩具も知られている。[0003] Further, for the design displayed on the screen,
There is also known a coloring toy in which linear coloring can be performed along the trajectory of the pointing device by operating the pointing device.
【0004】[0004]
【発明が解決しようとする課題】しかし、これらの塗り
絵玩具では、遊戯者がポインティングデバイスを手で持
ち、領域毎に所望の色を選択しながら色を塗り上げてい
くものであり、面白みに欠けていた。つまり、表示装置
に表示された静止画に対して、順に色を塗るという単純
操作を繰返すのみであることから、コンピュータを利用
しているにも拘わらず、表示画面や操作内容について
は、遊戯者を満足させることができなかった。However, in these coloring toys, the player holds the pointing device by hand and paints the color while selecting a desired color for each area, which is not interesting. Was there. In other words, since a simple operation of sequentially applying colors to the still images displayed on the display device is repeated, the display screen and the operation contents can be changed by the player even though the computer is used. Could not be satisfied.
【0005】また、従来の塗り絵玩具は、塗られた色に
ついて評価が行われないことから、正しい色を塗った際
の喜びを遊戯者に与えることができず、また最後まで塗
り終えても何ら変化がないことから、ゲーム感覚を向上
させることができなかった。Further, in the conventional coloring toys, since the applied color is not evaluated, the joy of applying the correct color cannot be given to the player, and even if the application is completed to the end. Since there is no change, it was not possible to improve the game feeling.
【0006】そこで、本発明は、上記の実情に鑑み、仮
想的環境の中で遊戯者自身が色を塗るという現実の感覚
を体感させることにより、面白みを高めることができ、
しかも、選択した色に対して評価することによりゲーム
感覚を向上させることができる玩具を提供するものであ
る。Therefore, in view of the above situation, the present invention makes it possible to enhance the fun by making the player feel the reality of painting a color in a virtual environment.
Moreover, the present invention provides a toy that can improve the game feeling by evaluating the selected color.
【0007】[0007]
【課題を解決するための手段】請求項1の発明にかかる
塗り絵玩具は、遊戯者を撮像して動画データを出力する
撮像手段と、該撮像手段により得られる前記動画データ
を基に、前記遊戯者の動作を動作情報として認識する動
作認識手段と、該動作認識手段により得られる前記動作
情報を入力し、該動作情報を基に前記遊戯者の前記動作
を反映したコンピュータグラフィックによるCG動画デ
ータを作成するCG動画作成手段と、塗り絵の基となる
図柄を含む図柄画像データを出力する図柄画像出力手段
と、該図柄画像出力手段により与えられる前記図柄画像
データに前記CG動画データを合成させる画像合成手段
と、該画像合成手段により合成された合成画像データを
表示手段に出力して合成画像を表示させる表示制御手段
とを具備するものである。特に、前記図柄画像出力手段
は、前記CG動画データを基に、複数の色見本の中から
着色すべき色を選択する色選択手段と、前記CG動画デ
ータを基に、前記図柄の中から着色すべき領域を選択す
る領域選択手段と、選択された領域を選択された色で塗
り潰す着色制御手段とを有するものである。According to another aspect of the present invention, there is provided a coloring toy which includes an image pickup means for picking up an image of a player and outputting moving image data, and the game based on the moving image data obtained by the image pickup means. The motion recognition means for recognizing the motion of the player as motion information, and the motion information obtained by the motion recognition means are input, and based on the motion information, computer graphics CG moving image data reflecting the motion of the player is input. CG moving image creating means to be created, pattern image output means for outputting the pattern image data including the design which is the basis of the coloring picture, and image composition for synthesizing the CG moving image data with the pattern image data given by the pattern image outputting means. And display control means for outputting the composite image data synthesized by the image synthesizing means to the display means and displaying the synthesized image. A. In particular, the pattern image output means is a color selection means for selecting a color to be colored from a plurality of color samples on the basis of the CG moving image data, and a color is selected from the symbols on the basis of the CG moving image data. It has area selection means for selecting an area to be formed, and coloring control means for filling the selected area with a selected color.
【0008】したがって、請求項1の発明の塗り絵玩具
によれば、撮像手段によって遊戯者が撮像され、動画デ
ータが出力される。動作認識手段は、出力された動画デ
ータを基に、遊戯者の動作を動作情報として認識する。
CG動画作成手段は、動作認識手段により得られる動作
情報を入力し、その動作を反映したCG動画を作成す
る。CG動画データは、例えば、予め登録されている物
体等の部品データに移動や回転等の変形処理を行うこと
により作成される。Therefore, according to the coloring toy of the first aspect of the invention, the image of the player is picked up by the image pickup means and the moving image data is output. The motion recognition means recognizes the motion of the player as motion information based on the output moving image data.
The CG moving image creating means inputs the motion information obtained by the motion recognizing means and creates a CG moving image reflecting the motion. The CG moving image data is created, for example, by performing deformation processing such as movement or rotation on component data such as an object registered in advance.
【0009】一方、図柄画像出力手段から図柄画像デー
タが与えられると、画像合成手段によりCG動画データ
を図柄画像データに合成させ、この合成画像を表示手段
に表示させる。これにより、遊戯者自身の動作を反映し
た動画を表示装置によって見ることが可能になり、仮想
的環境が実現される。この環境の中で、CG動画データ
に基づいて、複数の色の中から所望の色が選択されると
ともに着色すべき領域が設定される。そして、色及び領
域が選択されると、着色制御手段は、選択された領域を
選択された色で塗り潰す。つまり、その領域に含まれる
画素の色を選択された色に変更する。On the other hand, when the design image data is given from the design image output means, the CG moving image data is synthesized with the design image data by the image synthesis means, and the synthesized image is displayed on the display means. As a result, a moving image that reflects the player's own motion can be viewed on the display device, and a virtual environment is realized. In this environment, a desired color is selected from a plurality of colors and a region to be colored is set based on the CG moving image data. Then, when the color and the area are selected, the coloring control unit fills the selected area with the selected color. That is, the color of the pixel included in the area is changed to the selected color.
【0010】請求項2の発明にかかる塗り絵玩具は、請
求項1に記載の塗り絵玩具において、前記撮像手段によ
り得られる前記動画データを、遊戯者画像データとして
出力する遊戯者画像出力手段をさらに備え、前記画像合
成手段は、前記図柄画像データに前記遊戯者画像データ
をさらに合成させるものである。A coloring toy according to a second aspect of the present invention is the coloring toy according to the first aspect, further comprising a player image output means for outputting the moving image data obtained by the image pickup means as player image data. The image synthesizing means further synthesizes the player image data with the symbol image data.
【0011】したがって、請求項2の発明の塗り絵玩具
によれば、請求項1の発明の作用に加え、遊戯者画像出
力手段から遊戯者画像データが出力されると、遊戯者画
像データを図柄画像データに合成させ、合成画像を表示
手段に表示させる。これにより、その遊戯者自身の画像
を表示手段によって見ることが可能になり、遊戯者に対
して、仮想的環境の中に入り込んで活動しているような
感覚を与えることができる。Therefore, according to the coloring toy of the second aspect of the invention, in addition to the effect of the first aspect of the invention, when the player image data is output from the player image output means, the player image data is converted into a pattern image. The data is combined and the combined image is displayed on the display means. As a result, it becomes possible to see the image of the player himself / herself by the display means, and it is possible to give the player a feeling that he / she is active by entering the virtual environment.
【0012】請求項3の発明にかかる塗り絵玩具は、請
求項1または請求項2に記載の塗り絵玩具において、前
記CG動画作成手段により作成される前記CG動画デー
タは、筆を表す動画データからなり、前記遊戯者の手の
動作が反映されているものである。The coloring toy according to the invention of claim 3 is the coloring toy according to claim 1 or 2, wherein the CG moving image data created by the CG moving image creating means comprises moving image data representing a brush. The movement of the player's hand is reflected.
【0013】したがって、請求項3の発明の塗り絵玩具
によれば、請求項1または請求項2の発明の作用に加
え、遊戯者の手の動作に応じて筆が動いているような感
覚を与えることが可能になる。特に、遊戯者自身の画像
を表示手段に表示させることにより、CG動画作成手段
により作成された筆を、遊戯者の手に持たせた状態で表
示させることが可能となる。つまり、一層現実に近い感
覚を体感させることができる。Therefore, according to the coloring toy of the third aspect of the invention, in addition to the action of the first or second aspect of the invention, a feeling that the brush is moving according to the movement of the player's hand is given. It will be possible. In particular, by displaying the image of the player himself on the display means, it becomes possible to display the brush created by the CG moving image creating means while being held in the player's hand. That is, it is possible to experience a more realistic feeling.
【0014】請求項4の発明にかかる塗り絵玩具は、請
求項1乃至請求項3のいずれか一つに記載の塗り絵玩具
において、前記図柄の各領域に対応して模範となる色が
色情報として予め記憶された色情報記憶手段と、選択さ
れた領域が塗り潰された際に、塗り潰された色と前記色
情報とを照合する色照合手段と、照合結果を基に、前記
画像合成手段における前記図柄画像データを変動させる
画像変動手段とをさらに備えるものである。[0014] The coloring toy according to the invention of claim 4 is the coloring toy according to any one of claims 1 to 3, wherein a color as an example corresponding to each area of the design is used as color information. Color information storage means stored in advance, color matching means for matching the filled color with the color information when the selected area is filled, and based on the matching result, the image combining means An image changing means for changing the pattern image data is further provided.
【0015】したがって、請求項4の発明の塗り絵玩具
によれば、請求項1乃至請求項3のいずれか一つの発明
の作用に加え、色照合手段は、選択された領域が塗り潰
された際、塗り潰された色(選択された色)と、色情報
(模範となる色)とを照合する。そして、画像変動手段
は、照合結果を基に図柄画像データを変動させる。な
お、二つの色が一致した場合(選択した色が正しい場
合)にのみ変動させてもよく、二つの色が一致しない場
合(選択した色が間違っている場合)にのみ変動させて
もよい。あるいは、照合結果(正誤)に応じて、互いに
異なる態様で変動させてもよい。Therefore, according to the coloring toy of the invention of claim 4, in addition to the effect of any one of the inventions of claims 1 to 3, the color collating means, when the selected area is filled, The filled color (selected color) is collated with the color information (model color). Then, the image changing means changes the pattern image data based on the matching result. Note that it may be changed only when the two colors match (when the selected color is correct), and may be changed only when the two colors do not match (when the selected color is wrong). Alternatively, it may be changed in different modes depending on the matching result (correctness).
【0016】請求項5の発明にかかる塗り絵玩具は、請
求項4に記載の塗り絵玩具において、前記色照合手段の
前記照合結果を基に、予め設定された音声を出力する音
声出力手段をさらに備えるものである。The coloring toy according to the invention of claim 5 is the coloring toy according to claim 4, further comprising voice output means for outputting a preset voice based on the collation result of the color collating means. It is a thing.
【0017】したがって、請求項5の発明の塗り絵玩具
によれば、請求項4の発明の作用に加え、照合結果に応
じて予め設定された音声が出力される。この場合も、正
誤のどちらか一方の場合のみ出力してもよく、あるいは
互いに異なる音声を出力してもよい。Therefore, according to the coloring toy of the fifth aspect of the invention, in addition to the effect of the fourth aspect of the invention, a preset voice is output according to the collation result. Also in this case, the sound may be output only in the case of one of right and wrong, or different sounds may be output.
【0018】請求項6の発明にかかる塗り絵玩具は、請
求項1乃至請求項5のいずれか一つに記載の塗り絵玩具
において、前記撮像手段により得られる前記動画データ
を入力して所定の時間間隔のフレーム画像に分離するフ
レーム分離手段と、前記撮像手段により予め背景のみを
撮像し、背景画像データとして記憶する背景画像記憶手
段と、前記フレーム画像を複数の小領域に分割する領域
分割手段と、前記背景画像記憶手段から前記背景画像デ
ータを読取り、該背景画像データを利用して、前記各小
領域内に前記遊戯者を表す特徴領域が含まれるか否かを
判定し、その判定結果を基に前記フレーム画像を数値列
データに変換する変換手段と、前記数値列データを学習
可能なニューラルネットワークに適用してパターンコー
ドを生成する知識処理手段とをさらに備え、前記動作認
識手段は、前記知識処理手段により得られる前記パター
ンコードを基に前記動作の内容を認識するものである。A coloring toy according to a sixth aspect of the present invention is the coloring toy according to any one of the first to fifth aspects, in which the moving image data obtained by the imaging means is input and a predetermined time interval is entered. Frame separating means for separating the frame image, background image storing means for previously capturing only the background by the image capturing means and storing as background image data, area dividing means for dividing the frame image into a plurality of small areas, The background image data is read from the background image storage means, it is determined by using the background image data whether or not a characteristic region representing the player is included in each of the small regions, and based on the determination result. A conversion means for converting the frame image into numerical sequence data, and knowledge for applying the numerical sequence data to a learnable neural network to generate a pattern code Anda management unit, said operation recognizing means is for recognizing the contents of the operation based on the pattern codes obtained by the knowledge processing means.
【0019】したがって、請求項6の発明の塗り絵玩具
によれば、請求項1乃至請求項5のいずれか一つの発明
の作用に加え、撮像手段により撮像された動画データ
は、フレーム分離手段によってフレーム画像に分離され
る。そして、領域分割手段により、フレーム画像は複数
の小領域毎に分割され、以降のフレーム画像の処理がこ
の小領域を一単位として行われる。Therefore, according to the coloring toy of the invention of claim 6, in addition to the effect of the invention of any one of claims 1 to 5, the moving image data imaged by the image pickup means is framed by the frame separation means. Separated into images. Then, the frame image is divided into a plurality of small areas by the area dividing means, and subsequent processing of the frame image is performed with the small areas as one unit.
【0020】変換手段は、分割された小領域の各々につ
いて特徴領域を含むか否かを判定するとともに、その判
定結果に基づく数値を与える。例えば、各小領域で特徴
領域を含むと判定された場合は「1」を出力し、特徴領
域を含まないと判定された場合は「0」を出力する。な
お、特徴領域を含むか否かを判定するには、フレーム画
像と、背景画像記憶手段に記憶された背景画像データと
を比較すればよい。このようにして、フレーム画像が数
値列データに変換されると、知識処理手段は、この数値
列データをニューラルネットワークに適用してパターン
コードを生成する。このニューラルネットワークは、遊
戯者の姿勢やその動き等、認識処理に重要となる要因に
対応したパターンコードを出力するように、予め学習さ
れ最適化されたものである。したがって、動作認識手段
によってこれらのパターンコードが解析されることによ
り、遊戯者の動作の内容を認識することが可能になる。The converting means determines whether or not each of the divided small areas includes a characteristic area, and gives a numerical value based on the result of the determination. For example, if it is determined that each small area includes a characteristic area, "1" is output, and if it is determined that the characteristic area is not included, "0" is output. It should be noted that the frame image and the background image data stored in the background image storage means may be compared to determine whether or not the characteristic region is included. In this way, when the frame image is converted into the numerical sequence data, the knowledge processing means applies the numerical sequence data to the neural network to generate the pattern code. This neural network is preliminarily learned and optimized so as to output a pattern code corresponding to a factor that is important for recognition processing, such as a player's posture and its movement. Therefore, by analyzing these pattern codes by the motion recognition means, it becomes possible to recognize the contents of the motion of the player.
【0021】請求項7の発明にかかる塗り絵玩具は、請
求項6に記載の塗り絵玩具において、前記領域分割手段
は、前記背景画像記憶手段から前記背景画像データを読
取り、該背景画像データを利用して前記フレーム画像内
の前記特徴領域を検出する検出手段と、該検出手段の検
出情報を基に前記小領域への分割を行う分割設定手段と
を含むものである。The coloring toy according to the invention of claim 7 is the coloring toy according to claim 6, wherein the area dividing means reads the background image data from the background image storage means and uses the background image data. And detecting means for detecting the characteristic area in the frame image, and division setting means for dividing into the small areas based on the detection information of the detecting means.
【0022】したがって、請求項7の発明の塗り絵玩具
によれば、請求項6の発明の作用に加え、まず、検出手
段ではフレーム画像と背景画像データとの差分が求めら
れ、これによりそのフレーム画像内の特徴領域が検出さ
れる。そして、分割設定手段では、フレーム画像内にお
ける特徴領域の位置や大きさ、及び形状等に基づいて、
フレーム画像の小領域への分割パターンが設定される。
例えば、特徴領域またはその近傍であって、遊戯者の腕
部等、動きの大きな部位が位置すると判断される領域で
は、認識の精度を考慮して小領域の個々の大きさが小さ
くなるように設定される。逆に、特徴領域から離れてい
て遊戯者が存在しないと判断される領域では、小領域の
大きさがより大きくなるように設定され、フレーム画像
全体の小領域の総数が抑制される。Therefore, according to the coloring toy of the seventh aspect of the invention, in addition to the effect of the sixth aspect of the invention, first, the difference between the frame image and the background image data is obtained by the detecting means, and the frame image is obtained. Feature regions within are detected. Then, in the division setting means, based on the position, size, shape, etc. of the characteristic region in the frame image,
A division pattern of the frame image into small areas is set.
For example, in the characteristic region or in the vicinity thereof, in the region where it is determined that a large movement part such as the player's arm is located, the small size of each small region is reduced in consideration of recognition accuracy. Is set. On the contrary, in a region apart from the characteristic region where it is determined that no player exists, the size of the small regions is set to be larger, and the total number of the small regions in the entire frame image is suppressed.
【0023】請求項8の発明にかかる塗り絵玩具は、請
求項6または請求項7に記載の塗り絵玩具において、前
記知識処理手段は、前記数値列データを第一ニューラル
ネットワークに入力し、その出力から第一パターンコー
ドを生成する第一知識処理手段と、生成された第一パタ
ーンコードを記憶する第一コード記憶手段と、該第一コ
ード記憶手段から複数の前記第一パターンコードを読取
るとともに第二ニューラルネットワークに時系列的に入
力し、その出力から前記遊戯者の一動作に対応する第二
パターンコードを生成する第二知識処理手段と、生成さ
れた前記第二パターンコードを記憶する第二コード記憶
手段とを含むものであって、前記動作認識手段は、前記
第二コード記憶手段から前記第二パターンコードを読取
るとともに、前記第一コード記憶手段から前記第二パタ
ーンコードに対応する前記第一パターンコードを読取
り、これらのパターンコードを利用して前記動作の内容
を認識するものである。The coloring toy according to the invention of claim 8 is the coloring toy according to claim 6 or 7, wherein the knowledge processing means inputs the numerical sequence data into the first neural network and outputs it. A first knowledge processing means for generating a first pattern code, a first code storage means for storing the generated first pattern code, a plurality of the first pattern codes read from the first code storage means, and a second Second knowledge processing means for time-series input to a neural network and generating from the output a second pattern code corresponding to one action of the player, and second code for storing the generated second pattern code Storage means, wherein the motion recognition means reads the second pattern code from the second code storage means, and Reading the first pattern code corresponding to the second pattern code from a code storage means, it is to recognize the contents of the operation using these pattern codes.
【0024】したがって、請求項8の発明の塗り絵玩具
によれば、請求項6または請求項7の発明の作用に加
え、異なるニューラルネットワークを有する複数の知識
処理手段が多段に構成され、かつ、各ニューラルネット
ワークが夫々の目的に応じて学習され最適化されてい
る。詳しくは、第一ニューラルネットワークを有する第
一知識処理手段では、先の変換工程による数値列データ
が入力され、その数値列データすなわち元のフレーム画
像の内容に対応する第一パターンコードが生成される。
そして、第二ニューラルネットワークを有する第二知識
処理手段では、複数の第一パターンコードが時系列的に
入力され、一連のフレーム画像の間でなされる動作の内
容に対応する第二パターンコードが生成される。したが
って、後の動作認識手段においては、異なる意味を有す
るパターンコードを組み合わせた多面的な認識処理が行
われる。Therefore, according to the coloring toy of the eighth aspect of the invention, in addition to the operation of the sixth or seventh aspect of the invention, a plurality of knowledge processing means having different neural networks are multi-staged and each Neural networks have been learned and optimized for their respective purposes. Specifically, in the first knowledge processing means having the first neural network, the numerical sequence data obtained by the previous conversion step is input and the first pattern code corresponding to the numerical sequence data, that is, the content of the original frame image is generated. .
Then, in the second knowledge processing means having the second neural network, the plurality of first pattern codes are input in time series, and the second pattern code corresponding to the content of the operation performed between the series of frame images is generated. To be done. Therefore, in the subsequent motion recognition means, a multi-faceted recognition process in which pattern codes having different meanings are combined is performed.
【0025】請求項9の発明にかかる塗り絵玩具は、請
求項1に記載の塗り絵玩具において、前記撮像手段によ
り得られる前記動画データを入力して所定の時間間隔の
フレーム画像に分離するフレーム分離手段と、前記フレ
ーム画像を記憶する画像記憶手段と、所定の時間間隔で
分離された第一フレーム画像及び第二フレーム画像を前
記画像記憶手段から読取り、前記第一フレーム画像から
前記第二フレーム画像への変化量を画素毎に検出する変
化量検出手段と、前記画素毎の変化量をしきい値と比較
し、前記変化量が前記しきい値より大きい画素を動画素
として抽出する動画素抽出手段と、抽出された複数の前
記動画素の座標を平均化し、平均座標を算出する平均座
標算出手段と、該平均座標算出手段によって所定の時間
間隔で算出される二つの前記平均座標を基に、前記平均
座標の移動方向を検出する移動方向検出手段とをさらに
備え、前記動作認識手段は、前記平均座標及び前記移動
方向を基に、前記動作の内容を認識するものである。A coloring toy according to a ninth aspect of the present invention is the coloring toy according to the first aspect, in which the frame separating means for inputting the moving image data obtained by the imaging means to separate frame images at predetermined time intervals. And an image storage unit for storing the frame image, a first frame image and a second frame image separated at a predetermined time interval from the image storage unit, and from the first frame image to the second frame image Change amount detecting means for detecting the change amount of each pixel for each pixel, and a moving pixel extracting means for comparing the change amount for each pixel with a threshold value and extracting a pixel with the change amount larger than the threshold value as a moving pixel. And an average coordinate calculating means for averaging the coordinates of the plurality of extracted moving pixels and calculating an average coordinate, and the average coordinate calculating means calculates the average coordinates at predetermined time intervals. A moving direction detecting means for detecting a moving direction of the average coordinate based on the one average coordinate; and the motion recognizing means recognizes the content of the motion based on the average coordinate and the moving direction. It is a thing.
【0026】したがって、請求項9の発明の塗り絵玩具
によれば、請求項1の発明の作用に加え、撮像手段によ
り撮像された動画データは、フレーム分離手段によって
フレーム画像に分離され、画像記憶手段に順次記憶され
る。そして、変化量検出手段は、所定の時間間隔で分離
された第一フレーム画像(例えば前回分離されたフレー
ム画像)と、第二フレーム画像(例えば今回分離された
フレーム画像)とを画像記憶手段から読取り、この二つ
の画像における変化量を画素毎に検出する。さらに、動
画素抽出手段によって、画素毎の変化量がしきい値と比
較され、しきい値より大きい画素が動画素として抽出さ
れるとともに、平均座標算出手段によって、複数の動画
素の平均座標が算出される。また、移動方向検出手段に
よって、所定の時間間隔で算出される二つの平均座標を
基に、平均座標の移動方向が検出される。そして、動作
認識手段は、平均座標及び移動方向を基に、遊戯者の動
作の内容を認識する。つまり、算出された平均座標(質
量中心)がどのように変化するかを検出することによ
り、遊戯者の動作の内容を認識する。Therefore, according to the coloring toy of the ninth aspect of the invention, in addition to the action of the first aspect of the invention, the moving image data picked up by the image pickup means is separated into frame images by the frame separation means, and the image storage means is provided. Are sequentially stored in. Then, the change amount detecting means stores the first frame image (for example, the previously separated frame image) separated at a predetermined time interval and the second frame image (for example, the currently separated frame image) from the image storage means. Reading is performed and the amount of change in these two images is detected for each pixel. Further, the moving pixel extraction means compares the variation amount for each pixel with a threshold value, a pixel larger than the threshold value is extracted as a moving pixel, and the average coordinate calculation means determines the average coordinates of a plurality of moving pixels. It is calculated. Further, the moving direction detecting means detects the moving direction of the average coordinates based on the two average coordinates calculated at a predetermined time interval. Then, the motion recognition means recognizes the content of the motion of the player based on the average coordinates and the moving direction. That is, by detecting how the calculated average coordinates (center of mass) change, the contents of the action of the player are recognized.
【0027】[0027]
【発明の実施の形態】以下、本発明の第一実施形態であ
る塗り絵玩具について、図1乃至図6に基づき説明す
る。図1は塗り絵玩具の使用状態を示す説明図であり、
図2は塗り絵玩具の基本構成を示すブロック図であり、
図3はフレーム画像の領域分割の概念を示す説明図であ
り、図4は第一ニューラルネットワークへの入力手順の
一例を示す説明図であり、図5は第二ニューラルネット
ワークへの入力手順の一例を示す説明図であり、図6は
塗り絵玩具における表示画面の一例を示す説明図であ
る。BEST MODE FOR CARRYING OUT THE INVENTION A coloring toy according to a first embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is an explanatory view showing a usage state of a coloring toy,
FIG. 2 is a block diagram showing the basic configuration of a coloring toy,
3 is an explanatory diagram showing the concept of region division of a frame image, FIG. 4 is an explanatory diagram showing an example of an input procedure to the first neural network, and FIG. 5 is an example of an input procedure to the second neural network. FIG. 6 is an explanatory diagram showing an example of a display screen of the coloring toy.
【0028】第一実施形態の塗り絵玩具1は、図1に示
すように、撮像手段3、制御装置4、及びTVモニタ等
の表示装置5から構成されており、遊戯者2が表示装置
5の画面6を見ながら、画面6上の図柄に色を付けてい
くものである。ここで、表示装置5が本発明の表示手段
に相当する。As shown in FIG. 1, the coloring toy 1 according to the first embodiment comprises an image pickup means 3, a control device 4, and a display device 5 such as a TV monitor. While looking at the screen 6, the patterns on the screen 6 are colored. Here, the display device 5 corresponds to the display means of the present invention.
【0029】撮像手段3は、CCDカメラ等からなり、
遊戯者2及びその背景を撮像し、その動画データを制御
装置4に送出するものである。制御装置4は、撮像手段
3と一体的に設けられており、図2に示すように、画像
認識部10、記憶手段11、画像処理部12、及び図柄
画像出力手段13等から構成されている。The image pickup means 3 comprises a CCD camera or the like,
The player 2 and the background thereof are imaged and the moving image data is sent to the control device 4. The control device 4 is provided integrally with the image pickup means 3 and, as shown in FIG. 2, is composed of an image recognition section 10, a storage section 11, an image processing section 12, a pattern image output section 13, and the like. .
【0030】画像認識部10は、機能的構成として、フ
レーム分離手段15、領域分割手段16、変換手段1
7、知識処理手段18、及び動作認識手段19を具備し
ている。フレーム分離手段15は、撮像手段3からの動
画データを入力し、所定の時間間隔に分離されたフレー
ム画像を生成する。領域分割手段16は、検出機能21
及び分割設定機能22を有している。検出機能21はフ
レーム画像から遊戯者2を表す特徴領域を検出するもの
であり、分割設定機能22は、特徴領域の検出情報を基
に、フレーム画像を複数の小領域に分割するものであ
る。ここで、検出機能21が本発明の検出手段に相当
し、分割設定機能22が本発明の分割設定手段に相当す
る。The image recognizing section 10 has, as a functional configuration, a frame separating means 15, an area dividing means 16, and a converting means 1.
7, knowledge processing means 18, and motion recognition means 19. The frame separation means 15 inputs the moving image data from the image pickup means 3 and generates frame images separated at predetermined time intervals. The area dividing means 16 has a detection function 21.
And a division setting function 22. The detection function 21 is for detecting the characteristic region representing the player 2 from the frame image, and the division setting function 22 is for dividing the frame image into a plurality of small regions based on the detection information of the characteristic region. Here, the detection function 21 corresponds to the detection means of the present invention, and the division setting function 22 corresponds to the division setting means of the present invention.
【0031】変換手段17は、各小領域について特徴領
域を含むか否かを判定し、その判定結果を基に、フレー
ム画像データを数値列データに変換する。知識処理手段
18は、ニューラルネットワークにより数値列データか
らパターンコードを生成するものであり、第一ニューラ
ルネットワーク24と第二ニューラルネットワーク25
との二段構成となっている。動作認識手段19は、パタ
ーンコードを基に遊戯者2の動作の内容を認識する。The converting means 17 determines whether or not each small region includes a characteristic region, and based on the determination result, converts the frame image data into numerical sequence data. The knowledge processing means 18 generates a pattern code from the numerical sequence data by a neural network, and the first neural network 24 and the second neural network 25.
It has a two-stage configuration. The motion recognition means 19 recognizes the content of the motion of the player 2 based on the pattern code.
【0032】画像認識部10の各手段は、図示しないC
PU、RAM、ROM等のデバイスにより実現させるこ
とができる。CPUは上記各手段の処理を司り、RAM
はCPUの動作に必要な作業メモリ及び処理すべき各種
データのバッファメモリとして使用され、ROMはCP
Uの動作に必要な命令プログラムを格納するために使用
される。Each means of the image recognition unit 10 is a C (not shown).
It can be realized by devices such as PU, RAM, and ROM. The CPU controls the processing of each of the above means, and the RAM
Is used as a work memory necessary for the operation of the CPU and a buffer memory for various data to be processed, and the ROM is the CP
Used to store the instruction program needed for U operation.
【0033】記憶手段11は、背景画像記憶部27、及
びコード記憶部28を含んでいる。背景画像記憶部27
は、撮像手段3により得られた背景画像データを格納す
る。コード記憶部28は、第一コード記憶領域29と第
二コード記憶領域30とを有し、知識処理手段18によ
り生成されるパターンコードを格納する。The storage means 11 includes a background image storage unit 27 and a code storage unit 28. Background image storage unit 27
Stores the background image data obtained by the image pickup means 3. The code storage unit 28 has a first code storage area 29 and a second code storage area 30, and stores the pattern code generated by the knowledge processing means 18.
【0034】画像処理部12は、CG動画作成手段3
2、遊戯者画像出力手段33、画像合成手段34、表示
制御手段35、及び画像変動手段36を具備している。
CG動画作成手段32は、動作認識手段19により得ら
れる認識データからその動作内容を反映したCG動画デ
ータを作成する。遊戯者画像出力手段33は、フレーム
分離手段15におけるフレーム画像から背景を除く遊戯
者2の画像データのみを抽出し、遊戯者画像データとし
て出力する。画像合成手段34は、図柄画像出力手段1
3により供給される図柄画像データに、CG動画作成手
段32によるCG動画データ、及び遊戯者画像出力手段
33による遊戯者画像データを合成させる。表示制御手
段35は、画像合成手段34による合成画像を表示装置
5に表示させる。画像変動手段36は、図柄画像出力手
段13により得られる図柄を、所定の条件に基づいて変
動させる。つまり、図柄を動画として表示させるもので
ある。なお、 画像処理部12の各手段は、画像認識部
10と同様、図示しないCPU、RAM、及びROM等
のデバイスにより実現させることができる。The image processing unit 12 uses the CG moving image creating means 3
2. The player image output means 33, the image composition means 34, the display control means 35, and the image variation means 36 are provided.
The CG moving image creating means 32 creates CG moving image data that reflects the content of the action from the recognition data obtained by the action recognizing means 19. The player image output means 33 extracts only the image data of the player 2 excluding the background from the frame image in the frame separation means 15 and outputs it as the player image data. The image synthesizing means 34 is the symbol image output means 1
The CG moving image data by the CG moving image creating means 32 and the player image data by the player image outputting means 33 are combined with the symbol image data supplied by 3. The display control unit 35 causes the display device 5 to display the combined image obtained by the image combining unit 34. The image fluctuating means 36 fluctuates the symbol obtained by the symbol image outputting means 13 based on a predetermined condition. That is, the design is displayed as a moving image. Note that each unit of the image processing unit 12 can be realized by a device such as a CPU, a RAM, and a ROM (not shown), like the image recognition unit 10.
【0035】図柄画像出力手段13は、塗り絵の基とな
る図柄に関する図柄データを出力するものである。図柄
データには、図柄を形成する輪郭線、及びこの輪郭線で
囲まれた着色領域の区分等が含まれている。また、図柄
画像出力手段13には、CG動画作成手段32によって
作成されたCG動画データ、すなわち動作認識手段19
によって認識された動作情報を基に、複数の色の中から
一つの色を選択する色選択手段38と、CG動画データ
を基に、図柄の中から着色する領域を選択する領域選択
手段39とを備えている。さらに、選択された領域を選
択された色で塗り潰すように、その領域に含まれる画素
の色を、選択された色に設定する着色制御手段40を備
えている。The design image output means 13 outputs design data relating to the design which is the basis of the coloring picture. The design data includes a contour line forming the design, a division of a colored area surrounded by the contour line, and the like. Further, in the pattern image output means 13, the CG moving image data created by the CG moving image creating means 32, that is, the motion recognition means 19
Color selecting means 38 for selecting one color from a plurality of colors on the basis of the motion information recognized by, and area selecting means 39 for selecting an area to be colored from the design based on the CG moving image data. Is equipped with. Further, the coloring control means 40 is provided to set the color of the pixels included in the selected area to the selected color so that the selected area is filled with the selected color.
【0036】また、制御装置4には、色選択手段38に
よって選択された色、すなわち図柄の所定の領域に塗ら
れた色と、色情報記憶手段43に記憶された色情報(各
領域において模範となる色)とを照合する色照合手段4
2が備えられている。つまり、色照合手段42によっ
て、選択された色が模範となる色に一致しているか否か
が判断される。そして、照合の結果、一致した場合(正
解の場合)には、画像変動手段36へ信号が送信され、
画像変動手段36によって図柄を変動させる。また、一
致しない場合(不正解の場合)には、音声出力手段44
へ信号が送られ、音声によって間違っている旨が報知さ
れる。Further, in the control device 4, the color selected by the color selecting means 38, that is, the color applied to a predetermined area of the design, and the color information stored in the color information storing means 43 (the model in each area) Color matching means 4 for matching
2 is provided. That is, the color matching unit 42 determines whether or not the selected color matches the model color. Then, as a result of collation, if they match (in the case of correct answer), a signal is transmitted to the image changing means 36,
The pattern is changed by the image changing means 36. If they do not match (incorrect answer), the voice output means 44
A signal is sent to the user to inform him / her of the error by voice.
【0037】続いて、制御装置4の主要部における処理
の詳細な内容を説明する。塗り絵玩具1では、まず遊戯
者2の認識処理に先立ち、撮像手段3により遊戯者2を
除く背景のみを撮像し、その画像をフレーム分離したも
のを背景画像データとして、記憶手段11の背景画像記
憶部27に格納しておく。この背景画像データは、従来
のクロマキー法における単色背景の役割を果たすもので
ある。換言すれば、この手順を行うことにより、単色背
景を設置した特別な条件下でなくても、認識処理を行う
ことができるようになる。Next, detailed contents of the processing in the main part of the control device 4 will be described. In the coloring toy 1, first, before the recognition process of the player 2, only the background excluding the player 2 is imaged by the imaging unit 3, and the image obtained by frame-separating the image is used as background image data, and the background image is stored in the storage unit 11. It is stored in the unit 27. This background image data serves as a monochrome background in the conventional chroma key method. In other words, by performing this procedure, the recognition process can be performed even under special conditions in which a monochrome background is installed.
【0038】フレーム分離手段15では、撮像された動
画データをフレーム分離し、所定の時間間隔のフレーム
画像を出力する。フレーム画像は領域分割手段16に入
力され、ここで複数の小領域に分割される。例えば、図
3(a)に示すように、正面を向いて直立した遊戯者2
を中心に取り囲むようにして、フレーム画像46を、計
11個の小領域に分割する。このような分割パターンを
適用した場合、遊戯者2が腕を挙げる動作を行ったとき
には、小領域S1〜S4にその腕の一部分が現れるよう
になる。したがって、これらの小領域S1〜S4におけ
る特徴領域の有無に着目すれば、遊戯者2がどの程度腕
を挙げているかを知ることが可能となる。The frame separation means 15 separates the captured moving image data into frames and outputs frame images at predetermined time intervals. The frame image is input to the area dividing unit 16 and divided into a plurality of small areas. For example, as shown in FIG. 3 (a), a player 2 standing upright facing the front.
The frame image 46 is divided into a total of 11 small areas so as to surround the area. When such a division pattern is applied, when the player 2 performs an arm raising motion, a part of the arm appears in the small areas S1 to S4. Therefore, by paying attention to the presence or absence of the characteristic regions in these small regions S1 to S4, it becomes possible to know to what extent the player 2 is raising his or her arms.
【0039】しかし、遊戯者2の身長等の身体的特徴は
個々で異なり、しかも撮像手段3と遊戯者2との距離も
様々であるため、例えば、図3(b)に示すように、全
く同じ分割パターンを異なる遊戯者2bに適用すると、
小領域S2,S3にその頭部が重なってしまい、目的と
する腕の位置の検知に支障をきたすことがある。このた
め、図3(c)に示すように、小領域の分割パターンを
遊戯者2bに合わせて変動させることが望ましい。However, since the physical characteristics such as the height of the player 2 are different from each other and the distance between the image pickup means 3 and the player 2 is different, for example, as shown in FIG. If the same division pattern is applied to different players 2b,
The head overlaps the small areas S2 and S3, which may hinder the detection of the target arm position. Therefore, as shown in FIG. 3C, it is desirable to change the division pattern of the small area according to the player 2b.
【0040】そこで、領域分割手段16においては、ま
ず、その検出機能21により、フレーム画像46中の遊
戯者2を表す特徴領域を検出する。詳しくは、背景画像
記憶部27から背景画像データを読取り、画素単位又は
ブロック単位でフレーム画像46との差分を求めること
により、特徴領域を検出することができる。そして、検
出された特徴領域の形状や大きさなどの情報に基づい
て、分割設定機能22によりフレーム画像46の分割パ
ターンを動的に設定し複数の小領域に分割する。例え
ば、検出された特徴領域の高さを遊戯者2の身長とみな
し、その身長にマッチした分割パターンを適用する。こ
のようにすれば、それぞれに異なる身体的特徴や撮像手
段3との距離にも対応することができる。Therefore, in the area dividing means 16, first, the detecting function 21 detects the characteristic area representing the player 2 in the frame image 46. Specifically, the characteristic region can be detected by reading the background image data from the background image storage unit 27 and obtaining the difference from the frame image 46 in pixel units or block units. Then, based on the information such as the shape and size of the detected characteristic region, the division setting function 22 dynamically sets the division pattern of the frame image 46 and divides it into a plurality of small regions. For example, the height of the detected characteristic region is regarded as the height of the player 2, and a division pattern that matches the height is applied. By doing so, it is possible to deal with different physical characteristics and distances to the image pickup means 3.
【0041】なお、図3はあくまでも分割パターンの一
例を示すものであり、その数や形、大きさ等は任意に設
定可能である。例えば、遊戯者2の全身の動きをより詳
しく検出しようとする場合には、さらに細かな領域分割
が必要であることは言うまでもない。また、認識処理を
始めるにあたっては、例えば、遊戯者2を直立姿勢で立
たせて撮像することによって初期設定を行い、その身長
等の正確なデータを予め検出しておくことが好ましい。
これにより、領域分割手段16におけるフレーム画像4
6の分割パターンの設定を、より正確なものとすること
ができる。Note that FIG. 3 merely shows an example of the division pattern, and the number, shape, size, etc. thereof can be set arbitrarily. For example, in order to detect the movement of the whole body of the player 2 in more detail, it goes without saying that finer area division is necessary. In addition, when starting the recognition process, it is preferable to perform initial setting by, for example, standing upright in an upright posture and capturing an image of the player 2, and to accurately detect accurate data such as height.
Thereby, the frame image 4 in the area dividing unit 16
The division pattern of No. 6 can be set more accurately.
【0042】領域分割されたフレーム画像46は変換手
段17において、分割された小領域の各々について特徴
領域を含むか否かが判定されるとともに、その判定結果
に基づく数値が与えられる。例えば、図4に示すよう
に、各小領域S1〜S6で特徴領域を含むと判定された
場合は「1」を出力し、特徴領域を含まないと判定され
た場合は「0」を出力する。詳しくは、各小領域S1〜
S6を、背景画像記憶部27に記憶された背景画像デー
タの対応する領域と、画素単位又はブロック単位で比較
し、特徴領域、すなわち背景画像でないとされる画素又
はブロックの数が、予め設定されたしきい値を超える場
合は「1」を出力し、その他の場合には「0」を出力す
る。この数値を所定の順序、例えばS1,S2…の順に
並べて数値列データ(000011)とする。The conversion means 17 determines whether or not the frame-divided frame image 46 includes a characteristic region for each of the divided small regions, and gives a numerical value based on the result of the determination. For example, as shown in FIG. 4, "1" is output when it is determined that each of the small regions S1 to S6 includes a characteristic region, and "0" is output when it is determined that the characteristic region is not included. . Specifically, each small area S1
S6 is compared with the corresponding area of the background image data stored in the background image storage unit 27 on a pixel-by-pixel or block-by-pixel basis, and the characteristic area, that is, the number of pixels or blocks that are not the background image is set in advance. If the threshold value is exceeded, “1” is output, and in other cases, “0” is output. These numerical values are arranged in a predetermined order, for example, in the order of S1, S2, ..., As numerical value sequence data (000011).
【0043】そして、この数値列データを知識処理手段
18のニューラルネットワークに適用してパターンコー
ドを生成する。ニューラルネットワークは、第一ニュー
ラルネットワーク24及び第二ニューラルネットワーク
25の二段により構成される。図4に示すように、第一
ニューラルネットワーク24の入力層24aに数値列デ
ータ(000011)が入力されると、出力層24cか
ら第一パターンコード(d1)が出力される。この第一
パターンコードは第一コード記憶領域29に格納される
とともに、必要に応じて読出されて以降の処理に適用さ
れる。Then, the numerical sequence data is applied to the neural network of the knowledge processing means 18 to generate a pattern code. The neural network is composed of two stages of a first neural network 24 and a second neural network 25. As shown in FIG. 4, when the numerical sequence data (000011) is input to the input layer 24a of the first neural network 24, the first pattern code (d1) is output from the output layer 24c. The first pattern code is stored in the first code storage area 29, read out as needed, and applied to the subsequent processing.
【0044】図5に示すように、第二ニューラルネット
ワーク25の入力層25aには、第一ニューラルネット
ワーク24により生成された第一パターンコード(d
1,d2,…,di)が、基となるフレーム画像(f
1,f2,…,fi)の時系列に従って入力される。す
ると、出力層25cから第二パターンコード(ri)が
出力される。この第二パターンコード(ri)は、f1
〜fiの一連のフレーム間でなされた動作の内容に対応
したものとして、第二コード記憶領域30に格納され
る。As shown in FIG. 5, in the input layer 25a of the second neural network 25, the first pattern code (d) generated by the first neural network 24 is generated.
1, d2, ..., Di) are the base frame images (f
, F2, ..., Fi) are input in time series. Then, the second pattern code (ri) is output from the output layer 25c. This second pattern code (ri) is f1
The data is stored in the second code storage area 30 as a content corresponding to the content of the operation performed between the series of frames from to fi.
【0045】なお、上記の各ニューラルネットワーク2
4,25は、遊戯者2の姿勢やその動き等、後の認識処
理に重要となる要因に対応したパターンコードを出力す
るように予め学習され最適化されている。ニューラルネ
ットワークの学習は、一般的にバックプロパゲーション
法により行われる。これは、入出力データ及び教師信号
に基づいて、ニューラルネットワーク内部の重み係数を
更新していくものである。学習済みのニューラルネット
ワークによる認識処理は高速に行うことができ、膨大な
データを扱う場合でも、瞬時に認識結果を出力すること
ができる。また、未学習のパターンが入力された場合で
あっても、ニューラルネットワークの汎化作用によって
ほぼ正確な認識結果を得ることができる。The above neural networks 2
4, 25 are preliminarily learned and optimized so as to output pattern codes corresponding to factors that are important for the subsequent recognition processing, such as the posture and movement of the player 2. Learning of a neural network is generally performed by a backpropagation method. This is to update the weighting coefficient inside the neural network based on the input / output data and the teacher signal. The recognition processing by the learned neural network can be performed at high speed, and the recognition result can be output instantaneously even when handling a huge amount of data. Further, even when an unlearned pattern is input, it is possible to obtain an almost accurate recognition result by the generalization action of the neural network.
【0046】動作認識手段19では、コード記憶部28
に記憶されたパターンコードを読出して解析することに
より、遊戯者2の行った動作の内容の認識が行われる。
詳しくは、コード記憶部28の第二コード記憶領域30
から第二パターンコードを読出すとともに、その第二パ
ターンコードの基となった第一パターンコードを第一コ
ード記憶領域29から読出して、これら双方のパターン
コードを利用する。このように、異なる意味を有する二
種類のパターンコードを組合わせることによって、多面
的な認識処理を行うことが可能となり、より複雑な動作
にも対応することができる。また、解析に用いるパター
ンコードの種類や組合わせなどの条件を少しずつ変更し
ながら繰り返し解析処理を行い、逐次得られる情報から
最適な結果を選択することにより、動作の認識精度をよ
り一層向上させることができる。In the motion recognition means 19, the code storage unit 28
By reading and analyzing the pattern code stored in, the content of the action performed by the player 2 is recognized.
Specifically, the second code storage area 30 of the code storage unit 28
The second pattern code is read out, the first pattern code which is the basis of the second pattern code is read out from the first code storage area 29, and both pattern codes are used. In this way, by combining two types of pattern codes having different meanings, it becomes possible to perform multifaceted recognition processing, and it is possible to cope with more complicated operations. Further, the recognition accuracy of the motion is further improved by performing the analysis process repeatedly while gradually changing the conditions such as the type and combination of the pattern code used for the analysis and selecting the optimum result from the information obtained sequentially. be able to.
【0047】画像処理部12では、上記の画像認識部1
0による認識情報を応用することにより、斬新な効果を
奏する画像を得ることができる。すなわち、CG動画作
成手段32、及び遊戯者画像出力手段33により、遊戯
者2自身の画像と、遊戯者2の動作の認識結果を反映さ
せた画像データとを、図柄画像出力手段13により与え
られる図柄画像データに合成させて、表示装置5に表示
させることにより、現実の感覚を体感できる仮想的環境
を創出することができる。In the image processing unit 12, the image recognition unit 1 described above is used.
By applying the recognition information based on 0, an image having a novel effect can be obtained. That is, the CG moving image creating means 32 and the player image output means 33 provide the image of the player 2 itself and the image data reflecting the recognition result of the motion of the player 2 by the symbol image output means 13. By synthesizing with the pattern image data and displaying it on the display device 5, it is possible to create a virtual environment in which a sense of reality can be experienced.
【0048】具体的には、図6(a)に示すように、画
面6には、恐竜や背景等を示す複数の図柄48が合成画
面の最後部に表示され、その前方に遊戯者画像出力手段
33により出力される遊戯者2の画像が表示され、さら
にその前方にCG動画作成手段32により作成された筆
50が表示されるように、三つの画像が合成され、擬似
的な三次元画像が実現されている。特に、筆50は、そ
の柄の部分が遊戯者2の右手の位置で重なるように表示
され、右手の動作を反映した動きをとるように設定され
ている。すなわち、遊戯者2が右手を動かすと、その動
きに対応して筆50の位置及び筆50の向きが変化す
る。Specifically, as shown in FIG. 6 (a), on the screen 6, a plurality of symbols 48 showing a dinosaur, a background and the like are displayed at the end of the composite screen, and the player image is output in front of it. The three images are combined so that the image of the player 2 output by the means 33 is displayed and the brush 50 created by the CG moving image creating means 32 is displayed in front of the image, and the pseudo three-dimensional image is displayed. Has been realized. In particular, the brush 50 is set so that the pattern portions thereof are displayed so as to overlap each other at the position of the player 2's right hand, and the movement of the brush 50 reflects the action of the right hand. That is, when the player 2 moves the right hand, the position of the brush 50 and the direction of the brush 50 change corresponding to the movement.
【0049】また、画面6の下部には、絵の具のパレッ
トを想起させる複数の色見本が表示された色見本領域4
9が設けられている。そして、図6(b)に示すよう
に、遊戯者2の動作により、筆50の毛先が、色見本領
域49の中のいずれかの色見本に合致すると、図柄画像
出力手段13の色選択手段38によって、その色が着色
すべき色として選択される。なお、この際、筆50の毛
先が選択された色で表示される。その後、図6(c)に
示すように、遊戯者2の動作により、筆50の毛先が、
図柄48の所望の領域48aに合致し、且つその状態で
筆50の頭部に設けられた決定ボタン50aを押すよう
に、遊戯者2の左手が動作すると(図6(c)では示し
ていない)、図柄画像出力手段13の領域選択手段39
によって着色すべき領域として領域48aが選択され
る。そして、着色制御手段40によって、選択された領
域48aに選択された色が付けられる。In the lower part of the screen 6, a color sample area 4 in which a plurality of color samples reminiscent of a palette of paints are displayed.
9 is provided. Then, as shown in FIG. 6B, when the hair tip of the brush 50 matches any one of the color samples in the color sample region 49 by the operation of the player 2, the color selection of the pattern image output means 13 is performed. The color is selected by means 38 as the color to be colored. At this time, the tip of the brush 50 is displayed in the selected color. After that, as shown in FIG. 6C, the tip of the brush 50 is moved by the movement of the player 2.
When the left hand of the player 2 operates so as to match the desired area 48a of the design 48 and to press the decision button 50a provided on the head of the brush 50 in that state (not shown in FIG. 6C). ), Area selection means 39 of the pattern image output means 13
The area 48a is selected as an area to be colored by. Then, the coloring control means 40 applies the selected color to the selected area 48a.
【0050】この際、色照合手段42によって塗られた
色が正しいか否かが判定され、正解の場合には、画像変
動手段36によって領域48a(恐竜)が動き出す。一
方、不正解の場合には、音声出力手段44によって間違
っている旨の音声が出力される。At this time, the color matching means 42 determines whether or not the applied color is correct, and if the answer is correct, the image varying means 36 causes the area 48a (dinosaur) to start moving. On the other hand, in the case of an incorrect answer, the voice output means 44 outputs a voice indicating that it is wrong.
【0051】その後、他の領域に対しても同じように、
筆50を利用して、色の選択及び領域の選択が順に繰返
されることにより、画面6に表示された全ての図柄48
が塗り潰される。そして、複数の領域に対して全て正し
い色が塗られた場合には、画像変動手段36によって全
ての図柄48が動き出すとともに、音声出力手段44に
よって最初の画面をクリアーした旨(完成をたたえる
旨)の音声が出力される。その後、別の画面が表示さ
れ、別の図柄に対して着色を行うことが可能になる。After that, similarly for other areas,
By using the brush 50, the selection of the color and the selection of the region are repeated in order, so that all the patterns 48 displayed on the screen 6 are displayed.
Is filled. Then, when all the correct colors are applied to the plurality of areas, all the symbols 48 start moving by the image changing means 36, and the first screen is cleared by the voice output means 44 (to show completion). Is output. After that, another screen is displayed, and it becomes possible to color another pattern.
【0052】このように上記の塗り絵玩具1では、撮像
された遊戯者2の動作を反映した筆50の動画データ
を、図柄画像データに合成させて表示させることによ
り、筆50のCG動画を介して色及び領域を選択するこ
とができる。つまり、ポインティングデバイス等を用い
ることなく、仮想的環境の中で遊戯者2自身の体の動き
によって塗り絵を行わせることができる。特に、遊戯者
2自身の画像を表示装置5によって見ることが可能にな
ることから、遊戯者2に対して、仮想的環境の中に入り
込んで活動しているような感覚を体感させることができ
る。このため、遊戯者2に面白みを与えるとともに、遊
戯者2の満足感を高めることができる。As described above, in the coloring toy 1 described above, the moving image data of the brush 50 reflecting the imaged motion of the player 2 is combined with the pattern image data and displayed, thereby displaying the CG moving image of the brush 50. Color and area can be selected. That is, the coloring can be performed by the movement of the player 2's own body in the virtual environment without using a pointing device or the like. In particular, since the image of the player 2 itself can be viewed on the display device 5, the player 2 can experience the sensation of being active by entering the virtual environment. . Therefore, it is possible to provide the player 2 with fun and to enhance the satisfaction of the player 2.
【0053】また、上記の塗り絵玩具1では、着色され
た色の正誤に応じて、図柄48が変動したり音が出力さ
れることから、色の選択における面白みが増し、ゲーム
感覚を高めることができる。このため、幼児ばかりでな
く、幅広い年齢層に亘って楽しませることができる。Further, in the coloring toy 1 described above, the pattern 48 changes or a sound is output depending on whether the colored color is correct or incorrect, which makes the selection of the color more interesting and enhances the game feeling. it can. Therefore, it can be enjoyed not only by infants but also by a wide range of age groups.
【0054】さらに、上記の塗り絵玩具1では、膨大で
曖昧な情報を有する動画データを効率的に処理すること
によって、認識処理の対象データ量を少なくできる。ま
た、学習可能なニューラルネットワークを用いること
で、その学習効果により、動作の認識精度を向上でき
る。特に、遊戯者2の身体的特徴や撮像位置によって、
異なる画像情報が供給されても、それぞれの画像情報に
適した領域分割を行うことにより、認識処理の効率化を
図ることができる。Further, in the coloring toy 1 described above, the amount of data to be recognized can be reduced by efficiently processing the moving image data having a large amount of ambiguous information. In addition, by using a learnable neural network, the recognition effect of the motion can be improved by the learning effect. In particular, depending on the physical characteristics of the player 2 and the imaging position,
Even if different image information is supplied, the efficiency of the recognition process can be improved by performing the area division suitable for each image information.
【0055】次に、本発明の第二実施形態である塗り絵
玩具について、図7に基づき説明する。図7は塗り絵玩
具の基本構成を示すブロック図である。この実施形態の
塗り絵玩具55は、遊戯者2の画像を合成させることな
く、認識された遊戯者2の動作を反映したCG動画(例
えば筆50の動画)のみを合成させるものである。第一
実施形態の塗り絵玩具1と比較して、制御装置56の構
成、特に画像認識部57、画像記憶手段58、及び画像
処理部59の構成のみが異なり、他の構成については一
致している。このため、本実施形態では相違点のみを説
明し、同一の構成については同一の番号を付し詳細な説
明を省略する。Next, a coloring toy according to a second embodiment of the present invention will be described with reference to FIG. FIG. 7 is a block diagram showing the basic configuration of a coloring toy. The coloring toy 55 of this embodiment synthesizes only the CG moving image (for example, the moving image of the brush 50) reflecting the recognized motion of the player 2 without synthesizing the image of the player 2. Compared with the coloring toy 1 of the first embodiment, only the configuration of the control device 56, particularly the configurations of the image recognition unit 57, the image storage unit 58, and the image processing unit 59, are different, and the other configurations are the same. . Therefore, in the present embodiment, only different points will be described, the same configurations will be denoted by the same reference numerals, and detailed description thereof will be omitted.
【0056】画像認識部57は、機能的構成として、フ
レーム分離手段15、変化量検出手段60、動画素抽出
手段61、平均座標算出手段62、移動方向検出手段6
3、及び動作認識手段64を具備している。フレーム分
離手段15は、撮像手段3からの動画データを入力し、
所定の時間間隔に分離されたフレーム画像を生成する。
そして、順次生成されたフレーム画像は、画像記憶手段
58に記憶される。変化量検出手段60は、フレーム分
離手段15によって生成されたフレーム画像、特に所定
の時間間隔で分離された最新のフレーム画像(第二フレ
ーム画像と称す)、及び前回のフレーム画像(第一フレ
ーム画像と称す)を、画像記憶手段58から読取り、第
一フレーム画像から第二フレーム画像への変化量を画素
毎に検出する。The image recognizing unit 57 has a functional structure, such as a frame separating unit 15, a change amount detecting unit 60, a moving pixel extracting unit 61, an average coordinate calculating unit 62, and a moving direction detecting unit 6.
3, and a motion recognition means 64. The frame separation means 15 inputs the moving image data from the image pickup means 3,
A frame image separated at a predetermined time interval is generated.
Then, the sequentially generated frame images are stored in the image storage unit 58. The change amount detecting means 60 detects the frame images generated by the frame separating means 15, particularly the latest frame image (referred to as a second frame image) separated at predetermined time intervals, and the previous frame image (first frame image). Is called from the image storage means 58, and the amount of change from the first frame image to the second frame image is detected for each pixel.
【0057】動画素抽出手段61は、画素毎の変化量を
予め定められたしきい値65と比較し、変化量がしきい
値65より大きい画素を、動画素(動きのある画素)と
して抽出する。平均座標算出手段62は、抽出された動
画素の座標(XY座標)を平均化し平均座標を算出す
る。移動方向検出手段63は、所定の時間間隔で算出さ
れる二つの平均座標を基に、平均座標の移動方向(XY
座標上でのベクトル)を検出する。動作認識手段64
は、平均座標及び移動方向を基に遊戯者2の動作の内容
を認識する。The moving pixel extraction means 61 compares the amount of change for each pixel with a predetermined threshold value 65, and extracts the pixels whose amount of change is greater than the threshold value 65 as moving pixels (moving pixels). To do. The average coordinate calculation means 62 averages the coordinates (XY coordinates) of the extracted moving pixels to calculate an average coordinate. The moving direction detecting means 63 determines the moving direction (XY) of the average coordinates based on the two average coordinates calculated at a predetermined time interval.
Vector) on the coordinates. Motion recognition means 64
Recognizes the content of the action of the player 2 based on the average coordinates and the moving direction.
【0058】なお、画像処理部59は、第一実施形態に
おける画像処理部12と比べて、遊戯者画像出力手段3
3が設けられていない。つまり、遊戯者2の画像を合成
させないことから、遊戯者画像出力手段33が省略され
ている。The image processing unit 59 is different from the image processing unit 12 in the first embodiment in that the player image output means 3 is used.
3 is not provided. That is, since the image of the player 2 is not synthesized, the player image output means 33 is omitted.
【0059】続いて、制御装置56の主要部における処
理の詳細な内容を説明する。第二実施形態の塗り絵玩具
55では、第一実施形態のように予め背景を撮像した
り、フレーム画像と背景画像データとの差分を求めたり
する処理は一切行わず、所定の間隔で分離されたフレー
ム画像同士を比較することにより、動作した部分を認識
するようにしている。具体的に、変化量検出手段60で
は、最新のフレーム画像が生成される毎に、第一フレー
ム画像と第二フレーム画像とのビットマップデータを画
素単位で比較し、変化量(差分)を検出する。つまり、
遊戯者2が動くことにより輝度や色成分が変化した場合
には、それに対応する画素のビットマップデータが変化
することから、変化量を検出することにより、遊戯者2
の各部における動きの有無が認識される。Next, detailed contents of the processing in the main part of the control device 56 will be described. The coloring toy 55 of the second embodiment does not perform the process of capturing the background in advance or obtaining the difference between the frame image and the background image data as in the first embodiment, but separates at a predetermined interval. By comparing the frame images with each other, the operated portion is recognized. Specifically, the change amount detecting means 60 detects the change amount (difference) by comparing the bitmap data of the first frame image and the second frame image in pixel units every time the latest frame image is generated. To do. That is,
If the brightness and color components change due to the movement of the player 2, the bitmap data of the corresponding pixels change, and therefore the amount of change is detected, so that the player 2
The presence or absence of movement in each part of is recognized.
【0060】ところで、画素毎に変化量に関するデータ
を保有し、それらのデータを演算処理して動きを認識す
る方法では、データ量が膨大になり処理に比較的長い時
間がかかる恐れがある。特に、玩具では、コンピュータ
のような高性能のCPUを搭載することは困難であるた
め、複雑な演算処理を瞬時に行うことができない。一
方、手を上から下へ振り降ろした際に、頭や足が僅かに
動いたとしても、頭や足の微小な動きは、遊戯者2の動
作を認識する上で無意味な情報であり、しかもノイズと
なる情報である。By the way, in the method in which the data regarding the variation amount is held for each pixel and the data is arithmetically processed to recognize the movement, the data amount becomes enormous and the processing may take a relatively long time. In particular, in a toy, it is difficult to mount a high-performance CPU such as a computer, and thus complicated arithmetic processing cannot be instantaneously performed. On the other hand, even if the head and feet slightly move when the hand is swung down from above, the minute movements of the head and feet are meaningless information for recognizing the movement of the player 2. Moreover, the information is noise.
【0061】そこで、本実施形態の動画素抽出手段61
では、しきい値65より変化量が大きい画素を動画素
(動きのあった画素)とし、しきい値65より変化量が
小さい画素を静画素(動きのない画素)とする。これに
より、データ量が極めて少なくなるとともに、ノイズを
除去することが可能になる。Therefore, the moving pixel extracting means 61 of the present embodiment.
Then, a pixel whose change amount is larger than the threshold value 65 is a moving pixel (a pixel that has moved), and a pixel whose change amount is smaller than the threshold value 65 is a static pixel (a pixel that does not move). As a result, the amount of data is extremely small and noise can be removed.
【0062】平均座標算出手段62では、動画素抽出手
段61によって抽出された複数の動画素の質量中心を求
めるため、複数の動座標を平均化して平均座標を算出す
る。つまり、複数の動座標に対して一つの平均座標が決
定される。また、移動方向検出手段63では、所定時間
における平均座標の移動方向、つまりXY座標における
ベクトルが検出される。In order to obtain the center of mass of the plurality of moving pixels extracted by the moving pixel extracting means 61, the average coordinate calculating means 62 averages the plurality of moving coordinates to calculate the average coordinates. That is, one average coordinate is determined for a plurality of moving coordinates. Further, the moving direction detecting means 63 detects the moving direction of the average coordinates in a predetermined time, that is, the vector in the XY coordinates.
【0063】動作認識手段64では、平均座標算出手段
62によって算出された平均座標、及び移動方向検出手
段63によって検出された平均座標の移動方向を基に、
遊戯者2の動作を認識する。つまり、筆50の毛先をベ
クトルに一致させ、筆50の位置を平均座標に一致させ
るように、CG動画を作成する。これにより、第一実施
形態と同様、色及び領域を選択することが可能になる。In the motion recognizing means 64, based on the average coordinates calculated by the average coordinate calculating means 62 and the moving direction of the average coordinates detected by the moving direction detecting means 63,
Recognize the movement of the player 2. That is, the CG moving image is created so that the tip of the brush 50 matches the vector and the position of the brush 50 matches the average coordinates. As a result, similarly to the first embodiment, it becomes possible to select a color and a region.
【0064】このように、第二実施形態の塗り絵玩具5
5では、第一実施形態の塗り絵玩具1の効果に加え、画
素毎の変化量をしきい値と比較して動画素を抽出するこ
とにより、膨大で曖昧な情報を有する動画データを効率
的に処理することができる。また、動画素の平均座標を
算出し、平均座標に対応する動作情報を抽出することに
より、認識処理の効率化を図ることができる。In this way, the coloring toy 5 according to the second embodiment.
In 5, in addition to the effect of the coloring toy 1 of the first embodiment, by comparing the amount of change for each pixel with a threshold value and extracting moving pixels, moving image data having enormous and ambiguous information can be efficiently provided. Can be processed. Further, the efficiency of the recognition process can be improved by calculating the average coordinates of the moving pixels and extracting the motion information corresponding to the average coordinates.
【0065】以上、本発明について好適な二つの実施形
態を挙げて説明したが、本発明はこれらの実施形態に限
定されるものではなく、以下に示すように、本発明の要
旨を逸脱しない範囲で、種々の改良及び設計の変更が可
能である。Although the present invention has been described above with reference to two preferred embodiments, the present invention is not limited to these embodiments, and the scope of the present invention is not deviated as shown below. Therefore, various improvements and design changes are possible.
【0066】例えば、上記第一,第二実施形態では、C
G動画として筆50を示したが、その形状は特に限定さ
れるものではない。ただし、筆50を表示させることに
より、筆50を用いて色を塗る、という現実の感覚を遊
戯者2に体感させることができる。For example, in the first and second embodiments, C
Although the brush 50 is shown as a G moving image, its shape is not particularly limited. However, by displaying the brush 50, it is possible for the player 2 to experience the actual sensation of painting a color using the brush 50.
【0067】また、上記第一,第二実施形態では、表示
装置5としてTVモニタを利用するものを示したが、専
用のディスプレイを使用してもよい。また、表示装置5
を制御装置4と一体的に形成するようにしてもよい。In the first and second embodiments, the TV monitor is used as the display device 5, but a dedicated display may be used. In addition, the display device 5
May be formed integrally with the control device 4.
【0068】[0068]
【発明の効果】請求項1の発明によれば、遊戯者の動作
を反映したCG動画データを、図柄画像データに合成さ
せて表示させることにより、CG動画を介して色及び領
域を選択することが可能である。このため、ポインティ
ングデバイス等を用いることなく、仮想的環境の中で遊
戯者自身の体の動きによって塗り絵を行わせることがで
きる。特に、遊戯者の動作を反映させたCG画像を表示
させることから、遊戯者に面白みを与えるとともに、遊
戯者の満足感を高めることができる。According to the first aspect of the present invention, the CG moving image data reflecting the player's motion is combined with the pattern image data and displayed, thereby selecting the color and the area via the CG moving image. Is possible. Therefore, the coloring can be performed by the movement of the player's own body in the virtual environment without using a pointing device or the like. In particular, since the CG image reflecting the player's action is displayed, it is possible to provide the player with interest and enhance the player's satisfaction.
【0069】請求項2の発明によれば、請求項1の発明
の効果に加え、遊戯者自身の画像を表示手段によって見
ることが可能になることから、遊戯者に対して、仮想的
環境の中に入り込んで活動しているような感覚を体感さ
せることができる。このため、面白みを一層高めること
ができる。According to the invention of claim 2, in addition to the effect of the invention of claim 1, since it becomes possible to see the image of the player himself / herself by the display means, the player can be provided with a virtual environment. You can experience the feeling that you are inside and are active. Therefore, the interest can be further enhanced.
【0070】請求項3の発明によれば、請求項1または
請求項2の発明の効果に加え、遊戯者自身が筆を用いて
色を塗る、という現実の感覚を体感させることができ
る。According to the invention of claim 3, in addition to the effect of the invention of claim 1 or claim 2, it is possible to experience the actual feeling that the player himself paints with a brush.
【0071】請求項4の発明によれば、請求項1乃至請
求項3のいずれか一つの発明の効果に加え、着色された
色の正誤に応じて、図柄が変動することから、色の選択
における面白みを増し、ゲーム感覚を高めることができ
る。このため、幼児ばかりでなく、幅広い年齢層に亘っ
て楽しませることができる。According to the invention of claim 4, in addition to the effect of any one of the inventions of claims 1 to 3, the design changes depending on whether the colored color is correct or incorrect. It is possible to increase the fun of the game and enhance the game feeling. Therefore, it can be enjoyed not only by infants but also by a wide range of age groups.
【0072】請求項5の発明によれば、請求項4の発明
の効果に加え、視覚及び聴覚の両方の感覚で楽しませる
ことができ、遊戯者の満足感を一層高めることができ
る。According to the invention of claim 5, in addition to the effect of the invention of claim 4, it is possible to entertain with both visual and auditory sensations, and the player's satisfaction can be further enhanced.
【0073】請求項6の発明によれば、請求項1乃至請
求項5のいずれか一つの発明の効果に加え、膨大で曖昧
な情報を有する動画データを効率的に処理することによ
って、認識処理の対象データ量を少なくすることができ
る。また、学習可能なニューラルネットワークを用いる
ことで、その学習効果により、動作の認識精度を向上で
きる。According to the invention of claim 6, in addition to the effect of any one of the inventions of claims 1 to 5, by efficiently processing moving image data having enormous and ambiguous information, the recognition processing is performed. It is possible to reduce the amount of target data of. In addition, by using a learnable neural network, the recognition effect of the motion can be improved by the learning effect.
【0074】請求項7の発明によれば、請求項6の発明
の効果に加え、遊戯者の身長差や撮像条件によって異な
る画像情報が供給されても、夫々の画像情報に適した領
域分割を行うことにより、認識処理の効率化を図ること
ができる。According to the invention of claim 7, in addition to the effect of the invention of claim 6, even when different image information is supplied depending on the height difference of the player and the imaging condition, the area division suitable for each image information is performed. By doing so, the efficiency of the recognition processing can be improved.
【0075】請求項8の発明によれば、請求項6または
請求項7の発明の効果に加え、多段に構成されたニュー
ラルネットワークを利用し、各ニューラルネットワーク
で夫々の目的に応じた学習を行うことにより、各ニュー
ラルネットワークを夫々の目的に応じて最適化させるこ
とができる。また、複数種類のパターンコードを組み合
わせることによって多面的な認識処理を行うことがで
き、その認識精度を向上させることができる。According to the invention of claim 8, in addition to the effect of the invention of claim 6 or claim 7, a neural network configured in multiple stages is used, and learning is performed in each neural network according to its purpose. As a result, each neural network can be optimized according to its purpose. Further, by combining a plurality of types of pattern codes, multifaceted recognition processing can be performed, and the recognition accuracy can be improved.
【0076】請求項9の発明によれば、請求項1の発明
の効果に加え、画素毎の変化量をしきい値と比較して動
画素を抽出することにより、膨大で曖昧な情報を有する
動画データを効率的に処理することができる。また、動
画素の平均座標を算出し、平均座標を基に動作を認識す
ることにより、認識処理の効率化を図ることができる。According to the ninth aspect of the present invention, in addition to the effect of the first aspect of the invention, the amount of change for each pixel is compared with a threshold value to extract a moving pixel, thereby having a huge amount of ambiguous information. Video data can be processed efficiently. Further, by calculating the average coordinates of the moving pixels and recognizing the motion based on the average coordinates, the efficiency of the recognition process can be improved.
【図1】本発明の第一実施形態である塗り絵玩具の使用
状態を示す説明図である。FIG. 1 is an explanatory diagram showing a usage state of a coloring toy that is a first embodiment of the present invention.
【図2】本発明の第一実施形態である塗り絵玩具の基本
構成を示すブロック図である。FIG. 2 is a block diagram showing the basic configuration of a coloring toy that is the first embodiment of the present invention.
【図3】本発明の第一実施形態である塗り絵玩具におけ
るフレーム画像の領域分割の概念を示す説明図である。FIG. 3 is an explanatory diagram showing a concept of area division of a frame image in the coloring toy according to the first embodiment of the present invention.
【図4】本発明の第一実施形態である塗り絵玩具におけ
る第一ニューラルネットワークへの入力手順の一例を示
す説明図である。FIG. 4 is an explanatory diagram showing an example of an input procedure to the first neural network in the coloring toy according to the first embodiment of the present invention.
【図5】本発明の第一実施形態である塗り絵玩具におけ
る第二ニューラルネットワークへの入力手順の一例を示
す説明図である。FIG. 5 is an explanatory diagram showing an example of an input procedure to the second neural network in the coloring toy according to the first embodiment of the present invention.
【図6】本発明の第一実施形態である塗り絵玩具におけ
る表示画面の一例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of a display screen of the coloring toy according to the first embodiment of the present invention.
【図7】本発明の第二実施形態である塗り絵玩具の基本
構成を示すブロック図である。FIG. 7 is a block diagram showing a basic configuration of a coloring toy according to a second embodiment of the present invention.
1,55 塗り絵玩具 2 遊戯者 3 撮像手段 5 表示装置(表示手段) 13 図柄画像出力手段 15 フレーム分離手段 16 領域分割手段 17 変換手段 18 知識処理手段 19 動作認識手段 21 検出機能(検出手段) 22 分割設定機能(分割設定手段) 24 第一ニューラルネットワーク(知識処理手段) 25 第二ニューラルネットワーク(知識処理手段) 27 背景画像記憶部(背景画像記憶手段) 29 第一コード記憶領域(第一コード記憶手段) 30 第二コード記憶領域(第二コード記憶手段) 32 CG動画作成手段 33 画像合成手段 34 表示制御手段 35 遊戯者画像出力手段 36 画像変動手段 38 色選択手段 39 領域選択手段 40 着色制御手段 42 色照合手段 43 色情報記憶手段 44 音声出力手段 46 フレーム画像 48 図柄 50 筆 58 画像記憶手段 60 変化量検出手段 61 動画素抽出手段 62 平均座標算出手段 63 移動方向検出手段 64 動作認識手段 65 しきい値 1,55 coloring toys 2 players 3 Imaging means 5 Display device (display means) 13 Design image output means 15 frame separation means 16 area dividing means 17 Conversion means 18 Knowledge processing means 19 Motion recognition means 21 Detection function (detection means) 22 Split setting function (split setting means) 24 First Neural Network (Knowledge Processing Means) 25 Second Neural Network (Knowledge Processing Means) 27 Background Image Storage Unit (Background Image Storage Means) 29 first code storage area (first code storage means) 30 second code storage area (second code storage means) 32 CG movie creation means 33 image composition means 34 Display control means 35 Player image output means 36 Image variation means 38 color selection means 39 area selection means 40 Coloring control means 42 color matching means 43 Color information storage means 44 audio output means 46 frame images 48 designs 50 brushes 58 image storage means 60 Change amount detecting means 61 Video Element Extraction Means 62 means for calculating average coordinates 63 moving direction detecting means 64 motion recognition means 65 threshold
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 3/00 300 G06T 3/00 300 7/00 350 7/00 350C 7/20 300 7/20 300A 11/80 11/80 A (72)発明者 笠野 範博 岐阜県各務原市須衛町4丁目179番地の1 株式会社オーシャン・ネットワーク内 (72)発明者 牧野 沙織 岐阜県各務原市須衛町4丁目179番地の1 株式会社オーシャン・ネットワーク内 Fターム(参考) 2C001 AA14 BA01 BA03 BA06 BB03 BC05 BC06 CA08 CB01 CB04 CB06 CC02 5B050 BA06 BA07 BA08 BA12 BA18 CA07 DA04 EA03 EA04 EA06 EA10 EA19 EA24 EA30 FA02 FA05 5B057 BA11 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE08 CE09 CE16 CG07 DA08 DA17 DA20 DB02 DB06 DB09 DC08 DC30 5B080 FA02 GA25 5L096 AA02 AA06 CA04 EA21 EA35 FA06 FA32 FA67 GA08 HA03 HA04 HA11 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 3/00 300 G06T 3/00 300 7/00 350 7/00 350C 7/20 300 7/20 300A 11 / 80 11/80 A (72) Inventor Norihiro Kasano 4-179-1, Suue-cho, Kakamigahara-shi, Gifu 1 Ocean Ocean Co., Ltd. (72) Inventor Saori Makino 4-179, Sue-cho, Kakamigahara-shi 1 F-term in Ocean Network Co., Ltd. (reference) 2C001 AA14 BA01 BA03 BA06 BB03 BC05 BC06 CA08 CB01 CB04 CB06 CC02 5B050 BA06 BA07 BA08 BA12 BA18 CA07 DA04 EA03 EA04 EA06 EA10 EA19 EA24 EA30 FA02 FA05 5B057 CA08 CA12 CA16 CA16 CA11 CA01 CA16 CA11 CA01 CA16 CB12 CB16 CE08 CE09 CE16 CG07 DA08 DA17 DA20 DB02 DB06 DB09 DC08 DC30 5B080 FA02 GA25 5L096 AA02 AA06 CA04 EA21 EA35 FA06 FA32 FA67 GA08 HA03 HA04 HA11
Claims (9)
撮像手段と、 該撮像手段により得られる前記動画データを基に、前記
遊戯者の動作を動作情報として認識する動作認識手段
と、 該動作認識手段により得られる前記動作情報を入力し、
該動作情報を基に前記遊戯者の動作を反映したコンピュ
ータグラフィックによるCG動画データを作成するCG
動画作成手段と、 塗り絵の基となる図柄を含む図柄画像データを出力する
図柄画像出力手段と、 該図柄画像出力手段により与えられる前記図柄画像デー
タに前記CG動画データを合成させる画像合成手段と、 該画像合成手段により合成された合成画像データを表示
手段に出力して合成画像を表示させる表示制御手段とを
具備し、 前記図柄画像出力手段は、 前記CG動画データを基に、複数の色見本の中から着色
すべき色を選択する色選択手段と、 前記CG動画データを基に、前記図柄の中から着色すべ
き領域を選択する領域選択手段と、 選択された領域を選択された色で塗り潰す着色制御手段
とを有することを特徴とする塗り絵玩具。1. An image pickup means for picking up an image of a player and outputting moving picture data, and a motion recognition means for recognizing a movement of the player as movement information based on the moving picture data obtained by the image pickup means. Input the motion information obtained by the motion recognition means,
CG for creating CG moving image data by computer graphic reflecting the action of the player based on the action information
A moving image creating means, a symbol image output means for outputting symbol image data including a pattern which is a basis of a coloring picture, an image synthesizing means for synthesizing the CG moving image data with the symbol image data given by the symbol image output means, And a display control unit for displaying the combined image by outputting the combined image data combined by the image combining unit to the display unit, wherein the symbol image output unit includes a plurality of color samples based on the CG moving image data. A color selecting means for selecting a color to be colored from among the above, an area selecting means for selecting an area to be colored from the pattern based on the CG moving image data, and a selected area with a selected color. A coloring toy having a coloring control means for filling.
ータを、遊戯者画像データとして出力する遊戯者画像出
力手段をさらに備え、 前記画像合成手段は、前記図柄画像データに前記遊戯者
画像データをさらに合成させることを特徴とする請求項
1に記載の塗り絵玩具。2. The player further comprises a player image output means for outputting the moving image data obtained by the image pickup means as player image data, wherein the image synthesizing means further includes the player image data in the symbol image data. The coloring toy according to claim 1, wherein the coloring toy is synthesized.
前記CG動画データは、筆を表す動画データからなり、
前記遊戯者の手の動作が反映されていることを特徴とす
る請求項1または請求項2に記載の塗り絵玩具。3. The CG moving image data created by the CG moving image creating means comprises moving image data representing a brush,
The coloring toy according to claim 1 or 2, wherein the motion of the player's hand is reflected.
色が色情報として予め記憶された色情報記憶手段と、 選択された領域が塗り潰された際に、塗り潰された色と
前記色情報とを照合する色照合手段と、 照合結果を基に、前記画像合成手段における前記図柄画
像データを変動させる画像変動手段とをさらに備えるこ
とを特徴とする請求項1乃至請求項3のいずれか一つに
記載の塗り絵玩具。4. A color information storage unit in which model colors are stored in advance as color information corresponding to respective areas of the design, and the filled color and the color when the selected area is filled. 4. A color collating means for collating information, and an image varying means for varying the pattern image data in the image synthesizing means on the basis of the collating result, further comprising: an image varying means. The coloring toy described in one.
予め設定された音声を出力する音声出力手段をさらに備
えることを特徴とする請求項4に記載の塗り絵玩具。5. Based on the matching result of the color matching means,
The coloring toy according to claim 4, further comprising voice output means for outputting a preset voice.
ータを入力して所定の時間間隔のフレーム画像に分離す
るフレーム分離手段と、 前記撮像手段により予め背景のみを撮像し、背景画像デ
ータとして記憶する背景画像記憶手段と、 前記フレーム画像を複数の小領域に分割する領域分割手
段と、 前記背景画像記憶手段から前記背景画像データを読取
り、該背景画像データを利用して、前記各小領域内に前
記遊戯者を表す特徴領域が含まれるか否かを判定し、そ
の判定結果を基に前記フレーム画像を数値列データに変
換する変換手段と、 前記数値列データを学習可能なニューラルネットワーク
に適用してパターンコードを生成する知識処理手段とを
さらに備え、 前記動作認識手段は、前記知識処理手段により得られる
前記パターンコードを基に前記動作の内容を認識するこ
とを特徴とする請求項1乃至請求項5のいずれか一つに
記載の塗り絵玩具。6. A frame separating unit that inputs the moving image data obtained by the image capturing unit and separates the moving image data into frame images at predetermined time intervals, and the image capturing unit previously captures only a background and stores it as background image data. Background image storage means, area dividing means for dividing the frame image into a plurality of small areas, and the background image data is read from the background image storage means, and using the background image data, each of the small areas is stored. It is determined whether or not a characteristic region representing the player is included, and based on the result of the determination, a conversion unit that converts the frame image into numerical sequence data, and the numerical sequence data is applied to a learnable neural network. Further comprising knowledge processing means for generating a pattern code by means of the motion recognition means, wherein the motion recognition means uses the pattern code obtained by the knowledge processing means. Coloring toy according to any one of claims 1 to 5, characterized in that to recognize the contents of the operation.
り、該背景画像データを利用して前記フレーム画像内の
前記特徴領域を検出する検出手段と、 該検出手段の検出情報を基に前記小領域への分割を行う
分割設定手段とを含むことを特徴とする請求項6に記載
の塗り絵玩具。7. The area dividing means reads the background image data from the background image storage means, detects the characteristic area in the frame image using the background image data, and the detecting means. 7. The coloring toy according to claim 6, further comprising division setting means for performing division into the small areas based on the detection information of.
し、その出力から第一パターンコードを生成する第一知
識処理手段と、 生成された第一パターンコードを記憶する第一コード記
憶手段と、 該第一コード記憶手段から複数の前記第一パターンコー
ドを読取るとともに第二ニューラルネットワークに時系
列的に入力し、その出力から前記遊戯者の一動作に対応
する第二パターンコードを生成する第二知識処理手段
と、 生成された前記第二パターンコードを記憶する第二コー
ド記憶手段とを含むものであって、 前記動作認識手段は、前記第二コード記憶手段から前記
第二パターンコードを読取るとともに、前記第一コード
記憶手段から前記第二パターンコードに対応する前記第
一パターンコードを読取り、これらのパターンコードを
利用して前記動作の内容を認識することを特徴とする請
求項6または請求項7に記載の塗り絵玩具。8. The knowledge processing means inputs the numerical sequence data into a first neural network and generates a first pattern code from the output thereof, and stores the generated first pattern code. A first code storing means for reading a plurality of the first pattern codes from the first code storing means and inputting the same in time series to a second neural network, and outputting the output corresponding to one motion of the player. A second knowledge processing means for generating a two-pattern code, and a second code storage means for storing the generated second pattern code, wherein the motion recognition means is configured to operate from the second code storage means. The second pattern code is read, and the first pattern code corresponding to the second pattern code is read from the first code storage means. Coloring toy of claim 6 or claim 7, characterized in that to recognize the contents of the operation using these pattern codes.
ータを入力して所定の時間間隔のフレーム画像に分離す
るフレーム分離手段と、 前記フレーム画像を記憶する画像記憶手段と、 所定の時間間隔で分離された第一フレーム画像及び第二
フレーム画像を前記画像記憶手段から読取り、前記第一
フレーム画像から前記第二フレーム画像への変化量を画
素毎に検出する変化量検出手段と、 前記画素毎の変化量をしきい値と比較し、前記変化量が
前記しきい値より大きい画素を動画素として抽出する動
画素抽出手段と、 抽出された複数の前記動画素の座標を平均化し、平均座
標を算出する平均座標算出手段と、 該平均座標算出手段によって所定の時間間隔で算出され
る二つの前記平均座標を基に、前記平均座標の移動方向
を検出する移動方向検出手段とをさらに備え、 前記動作認識手段は、前記平均座標及び前記移動方向を
基に、前記動作の内容を認識することを特徴とする請求
項1に記載の塗り絵玩具。9. A frame separation means for inputting the moving image data obtained by the image pickup means and separating the frame images into frame images at predetermined time intervals, an image storage means for storing the frame images, and separation at predetermined time intervals. Change amount detecting means for detecting the change amount from the first frame image to the second frame image for each pixel by reading the first frame image and the second frame image from the image storage means; Moving pixel extraction means for comparing the amount of change with a threshold value and extracting pixels with the amount of change larger than the threshold value as moving pixels; and averaging coordinates of the plurality of extracted moving pixels to obtain an average coordinate. An average coordinate calculating means for calculating, and a moving direction detecting means for detecting a moving direction of the average coordinate based on the two average coordinates calculated at a predetermined time interval by the average coordinate calculating means. And means, said operation recognizing means, Coloring toy of claim 1, based on the average coordinate and the moving direction, and recognizes the contents of the operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001271573A JP2003085571A (en) | 2001-09-07 | 2001-09-07 | Coloring book toy |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001271573A JP2003085571A (en) | 2001-09-07 | 2001-09-07 | Coloring book toy |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003085571A true JP2003085571A (en) | 2003-03-20 |
Family
ID=19097063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001271573A Pending JP2003085571A (en) | 2001-09-07 | 2001-09-07 | Coloring book toy |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003085571A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005261643A (en) * | 2004-03-18 | 2005-09-29 | Sony Computer Entertainment Inc | Information processor and entertainment system |
WO2006008950A1 (en) * | 2004-07-20 | 2006-01-26 | Konami Digital Entertainment Co., Ltd. | Game device, control method of computer, and information storage medium |
JP2007143748A (en) * | 2005-11-25 | 2007-06-14 | Sharp Corp | Image recognition device, fitness aid device, fitness aid system, fitness aid method, control program and readable recording medium |
WO2008004331A1 (en) * | 2006-07-06 | 2008-01-10 | Sony Computer Entertainment Inc. | Voice outputting method and device linked to images |
JP2010142592A (en) * | 2008-12-22 | 2010-07-01 | Nintendo Co Ltd | Game program and game device |
JP2013048924A (en) * | 2012-11-07 | 2013-03-14 | Nintendo Co Ltd | GAME PROGRAM AND GAME DEVICE |
KR101280225B1 (en) * | 2006-09-20 | 2013-07-05 | 에스케이플래닛 주식회사 | Robot to progress a program using motion detection and method thereof |
KR101285114B1 (en) | 2006-10-25 | 2013-07-17 | 에스케이플래닛 주식회사 | Bodily sensation Education method using Motion Detection in robot and thereof system |
KR101294212B1 (en) * | 2006-11-08 | 2013-08-08 | 에스케이플래닛 주식회사 | Motion Detection system in robot and thereof method |
JP2014237016A (en) * | 2014-07-28 | 2014-12-18 | 株式会社クラス・マイスター | Control program of game device |
WO2019021369A1 (en) * | 2017-07-25 | 2019-01-31 | 三菱電機株式会社 | Data analysis device |
-
2001
- 2001-09-07 JP JP2001271573A patent/JP2003085571A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005261643A (en) * | 2004-03-18 | 2005-09-29 | Sony Computer Entertainment Inc | Information processor and entertainment system |
WO2006008950A1 (en) * | 2004-07-20 | 2006-01-26 | Konami Digital Entertainment Co., Ltd. | Game device, control method of computer, and information storage medium |
KR100860250B1 (en) * | 2004-07-20 | 2008-09-25 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Game device, control method of computer and information storage medium |
US7828659B2 (en) | 2004-07-20 | 2010-11-09 | Konami Digital Entertainment Co., Ltd. | Game device, control method of computer, and information storage medium |
JP2007143748A (en) * | 2005-11-25 | 2007-06-14 | Sharp Corp | Image recognition device, fitness aid device, fitness aid system, fitness aid method, control program and readable recording medium |
WO2008004331A1 (en) * | 2006-07-06 | 2008-01-10 | Sony Computer Entertainment Inc. | Voice outputting method and device linked to images |
US8113953B2 (en) | 2006-07-06 | 2012-02-14 | Sony Computer Entertainment Inc. | Image-linked sound output method and device |
KR101280225B1 (en) * | 2006-09-20 | 2013-07-05 | 에스케이플래닛 주식회사 | Robot to progress a program using motion detection and method thereof |
KR101285114B1 (en) | 2006-10-25 | 2013-07-17 | 에스케이플래닛 주식회사 | Bodily sensation Education method using Motion Detection in robot and thereof system |
KR101294212B1 (en) * | 2006-11-08 | 2013-08-08 | 에스케이플래닛 주식회사 | Motion Detection system in robot and thereof method |
US9220976B2 (en) | 2008-12-22 | 2015-12-29 | Nintendo Co., Ltd. | Storage medium storing game program, and game device |
JP2010142592A (en) * | 2008-12-22 | 2010-07-01 | Nintendo Co Ltd | Game program and game device |
JP2013048924A (en) * | 2012-11-07 | 2013-03-14 | Nintendo Co Ltd | GAME PROGRAM AND GAME DEVICE |
JP2014237016A (en) * | 2014-07-28 | 2014-12-18 | 株式会社クラス・マイスター | Control program of game device |
WO2019021369A1 (en) * | 2017-07-25 | 2019-01-31 | 三菱電機株式会社 | Data analysis device |
JPWO2019021369A1 (en) * | 2017-07-25 | 2020-05-28 | 三菱電機株式会社 | Data analysis device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108665492B (en) | Dance teaching data processing method and system based on virtual human | |
US6072467A (en) | Continuously variable control of animated on-screen characters | |
KR100845390B1 (en) | Image processor, image processing method, recording medium, and semiconductor device | |
US5757360A (en) | Hand held computer control device | |
KR101894573B1 (en) | Smart phone interface management system by 3D digital actor | |
CN102194105B (en) | Proxy training data for human body tracking | |
US6885761B2 (en) | Method and device for generating a person's portrait, method and device for communications, and computer product | |
TWI469813B (en) | Tracking groups of users in motion capture system | |
JP7127659B2 (en) | Information processing device, virtual/reality synthesis system, method for generating learned model, method for executing information processing device, program | |
CN102470273A (en) | Visual representation expression based on player expression | |
KR20000075608A (en) | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs | |
CN102262438A (en) | Gestures and gesture recognition for manipulating a user-interface | |
KR20110139694A (en) | Gesture Recognition Method and System | |
CN117152843B (en) | Digital person action control method and system | |
US8352267B2 (en) | Information processing system and method for reading characters aloud | |
JP2003085571A (en) | Coloring book toy | |
JP2011243019A (en) | Image display system | |
CN115497149A (en) | A music interaction method for car cockpit | |
JP2003080484A (en) | Motion toys | |
KR20020011851A (en) | Simulation game system using machine vision and pattern-recognition | |
US20080122867A1 (en) | Method for displaying expressional image | |
JP2002123834A (en) | Image recognition method and image processing device | |
JPH09311759A (en) | Gesture recognition method and device | |
JP4254400B2 (en) | Image generating apparatus, image generating method thereof, and computer-readable recording medium | |
KR20200052812A (en) | Activity character creating method in virtual environment |