[go: up one dir, main page]

WO2005065798A1 - 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法 - Google Patents

情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法 Download PDF

Info

Publication number
WO2005065798A1
WO2005065798A1 PCT/JP2005/000038 JP2005000038W WO2005065798A1 WO 2005065798 A1 WO2005065798 A1 WO 2005065798A1 JP 2005000038 W JP2005000038 W JP 2005000038W WO 2005065798 A1 WO2005065798 A1 WO 2005065798A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
image
computer
touch points
video image
Prior art date
Application number
PCT/JP2005/000038
Other languages
English (en)
French (fr)
Inventor
Masami Yamamoto
Nobuhito Kuramochi
Akira Imagawa
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to JP2005516871A priority Critical patent/JP4824409B2/ja
Priority to US10/585,465 priority patent/US8345001B2/en
Publication of WO2005065798A1 publication Critical patent/WO2005065798A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Definitions

  • the present invention relates to an interface that accepts input from a player in an information processing system, and more particularly to an interface that uses video images taken by a camera.
  • Patent Document 1 discloses an image processing apparatus that uses an image taken by a camera as an input interface.
  • Patent Document 1 The image processing apparatus disclosed in Patent Document 1 can be applied to an information processing system, or an input interface of an entertainment system. When applied to an information processing system or entertainment system, the value of the entire system can be increased by enhancing entertainment.
  • an object of the present invention is to provide a technique related to an input interface with improved entertainment 'property.
  • An information processing system shoots the player by means of generating a computer image that prompts the player to virtually touch the plurality of touch points, and photographing means.
  • Means for receiving the input of the video image display control means for displaying the video image and the computer image on a display device, and analyzing the video image when the computer image is displayed,
  • the detection means is used when an object of a specific color worn by the player in the video image overlaps one of the plurality of touch points in the computer image.
  • a virtual touch may be detected.
  • the image generation means sequentially generates a computer image including a navigation indicating one touch point to be touched next.
  • the means for executing the predetermined process detects the virtual touch on each of the computer images including the navigation sequentially generated by the detection means. Processing may be executed.
  • the image generating means sequentially generates a computer image showing two touch points to be touched next. Then, the means for executing the predetermined process is a virtual touch on the two touch points simultaneously for each of the computer images including the navigation sequentially generated by the detecting means. If this is detected, the predetermined process may be executed.
  • the image generating means generates a computer image including navigation indicating the order of touches with respect to touch points.
  • the means for executing the predetermined process may execute the predetermined process when the detecting means detects that the virtual touch force S is applied in accordance with the navigation.
  • An information processing system includes:
  • the detection means detects that the virtual touch is continuously applied to a plurality of touch points, an object connecting the touch points with the virtual touch is displayed.
  • Object display means When the detection means detects that the virtual touch is continuously applied to a plurality of touch points, an object connecting the touch points with the virtual touch is displayed.
  • Object display means When the detection means detects that the virtual touch is continuously applied to a plurality of touch points, an object connecting the touch points with the virtual touch is displayed.
  • An entertainment system includes a means for generating a computer image including images for specifying a plurality of areas, a means for receiving an input of a video image taken by the photographing means, The video image and the computer image.
  • An entertainment system comprising display control means for displaying on a display device in a superimposed manner and means for analyzing the video image with reference to the computer image, wherein the image generating means includes the plurality of images in a predetermined order.
  • a plurality of images for prompting input in which the selected region is displayed in a different manner from the other are generated, and the analysis means generates images for prompting each input.
  • FIG. 1 is an overall configuration diagram of an entertainment system according to an embodiment of the present invention.
  • FIG. 2 is a configuration diagram of an entertainment device.
  • FIG. 3 is a functional configuration diagram of the entertainment device.
  • FIG. 4 (a) is a diagram showing an example of a video image after mirror processing.
  • Fig. 4 (b) shows an example of an interface image.
  • FIG. 4 (c) is a diagram showing an example of a superimposed image.
  • FIG. 5 is a flowchart of the entire input reception process.
  • FIG. 6 is a flowchart of touch acceptance processing in the case of single navigation.
  • FIG. 7 is a flowchart of touch determination processing.
  • FIG. 8 Transition image of an object image in the case of single navigation.
  • Figure 8 (a) shows the first touch point displayed in flash.
  • Figure 8 (b) shows the first and second touch points displayed in flash.
  • Figure 8 (c) shows the light line connecting the first and second touch points and the last touch point displayed in flash.
  • Figure 8 (d) shows the touch points connected by the light line.
  • FIG. 9 is a flowchart of touch acceptance processing in the case of double navigation.
  • FIG. 10 Transition image of the object image in the case of double navigation.
  • Figure 10 (a) shows the first touch point displayed in flash.
  • Figure 10 (b) shows the first touch point connected by the light line and the second touch point displayed in flash with the touch point.
  • Figure 10 (c) shows the first touch point connected by the light line and the light Indicates the second touch point connected by a line.
  • FIG. 11 is a flowchart of a touch acceptance process in the case of lightning navigation.
  • FIG. 12 Transition image of object image in case of lightning navigation.
  • Figure 12 (a) shows all touch points to be touched.
  • Figure 12 (b) shows that the lightning line connecting the first and second touch points has been deleted.
  • Figure 12 (c) shows that the lightning line has been deleted by connecting the second and third touch points.
  • Figure 12 (d) shows that the lightning line connecting the third touch point and the first touch point has been deleted.
  • FIG. 13 is a flowchart of a touch acceptance process when there is no navigation.
  • FIG. 1 An example of the configuration of an entertainment system according to the present embodiment is shown in FIG.
  • an analog or digital video camera 1 shoots a player 4 in a position facing the display device 3, and the entertainment device 2 continuously captures the resulting moving images.
  • the computer image (CG) generated by the entertainment device 2 and the mirror image of the video image captured from the video camera 1 are displayed on the display device 3 in real time. .
  • the mirror moving image can be generated by mirroring the moving image captured by the video camera 1 with the entertainment device 2 (image reversal processing), but a mirror is placed in front of the bidet talent 1 and operated.
  • a specular moving image may be generated by capturing a moving image of a mirror image showing a person with the video camera 1. In any case, a composite image whose display form changes in real time according to the movement of the target is displayed on the display device 3.
  • the entertainment apparatus 2 is realized by a computer that forms a required function by a computer program.
  • the computer according to this embodiment is shown in FIG. As shown in the hardware configuration, it has two buses, a main bus B1 and a sub bus B2, to which a plurality of semiconductor devices each having a unique function are connected. These buses B 1 and B2 are connected to or disconnected from each other via the bus interface INT.
  • the main bus B1 includes a main CPU 10 which is a main semiconductor device, a main memory 11 including a RAM, a main DMAC (Direct Memory Access Controller) 12, and an MPE G (Moving Picture Experts Group) decoder (MDEC). ) 13 and a drawing processing unit (Graphic Processing Unit, hereinafter referred to as “GPU”) 14 including a frame memory 15 serving as a drawing memory.
  • a CRTC CRT Controller
  • the main CPU 10 reads a start program from the ROM 23 on the sub-bus B2 via the nose interface INT when the computer is started, and executes the start program to operate the operating system. Also controls the media drive 27
  • the application program data is read from the media 28 loaded in the media drive 27 and stored in the main memory 11. Furthermore, for various data read from the media 28, such as 3D object data composed of multiple basic figures (polygons) ⁇ (coordinate values of polygon vertices (representative points), etc.) Geometry processing (coordinate value calculation processing) to express the image, and polygon definition information by geometry processing (designation of polygon shape to be used and its drawing position, type of material constituting the polygon, color tone, texture, etc.) ) Is generated.
  • the GPU 14 holds a drawing context (drawing data including polygon material), reads a necessary drawing context according to a display list notified from the main CPU 10, performs a rendering process (drawing process), and a frame.
  • This is a semiconductor device that has the function of drawing polygons in the memory 15.
  • the frame memory 15 can also use this as texture memory. Therefore, the pixel image on the frame memory can be pasted on the polygon to be drawn as a texture.
  • the main DMAC 12 performs DMA transfer control for each circuit connected to the main bus B1, and performs DMA transfer for each circuit connected to the subbus B2 according to the state of the bus interface INT.
  • MDEC 13 is a semiconductor device that performs transfer control, operates in parallel with the main CPU 10, and decompresses data compressed by MPEG (Moving Picture Experts Group) or PEG (Joint Photographic Experts Group). This is a semiconductor device having a function.
  • MPEG Motion Picture Experts Group
  • PEG Joint Photographic Experts Group
  • the sub-bus B2 is stored in a ROM 23 and a sound memory 25 in which control programs such as a sub-CPU 20 constituted by a microprocessor, a sub-memory 21 constituted by a RAM, a sub-DMAC 22 and an operating system are stored.
  • Audio processing semiconductor device (SPU (Sound Processing Unit)) 24 that reads out the recorded sound data and outputs it as an audio output
  • communication control unit (ATM) 26 that sends and receives information to and from external devices via a network (not shown), CD — Media drive 27 and input unit 31 for loading media 28 such as ROM and DVD—ROM are connected.
  • the sub CPU 20 performs various operations in accordance with the control program stored in the ROM 23.
  • the sub DMAC 22 controls the DMA transfer and the like for each circuit connected to the sub node B2 only when the bus interface INT is disconnected from the main bus B1 and the sub bus B2. It is a semiconductor device.
  • the input unit 31 includes a connection terminal 32 to which an input signal from the operation device 35 is input, a connection terminal 33 to which an image signal from the video camera 1 is input, and a connection terminal to which an audio signal from the video camera 1 is input. 34. In this specification, only the image is described, and the description of the sound is omitted for convenience.
  • the computer configured as described above operates as the entertainment device 2 when the main CPU 10, the sub CPU 20, and the GPU 14 read and execute a necessary computer program for the recording medium such as the ROM 23 and the medium 28.
  • the entertainment apparatus 2 includes a video image input unit 101, an image inversion unit 102, a determination unit 103, a main control unit 104, a CG generation unit 105, a superimposed image generation unit 106, and a display control unit 107. Then, the touch pattern storage unit 108 is formed.
  • the video image input unit 101 captures a video image captured by the video camera 1.
  • the video image is a moving image, and the video image input unit 101 continuously captures images sent from the video camera 1.
  • the image reversing unit 102 performs mirror surface processing, that is, left / right reversing processing, on the video image captured by the video image input unit 101.
  • An example of a mirror-finished video image 200 taken by a player is shown in Fig. 4 (a). Subsequent processing is performed on the mirrored video image.
  • the main control unit 104 controls the entire entertainment system. For example, when the entertainment device 2 is executing a game program, the main control unit 104 determines a game story or the like according to the program. Further, when the main control unit 104 determines a story, the determination result of the determination unit 103 may be referred to. Details of this will be described later.
  • the CG generation unit 105 generates various computer images along the game story in accordance with instructions from the main control unit 104. For example, a computer image (interface image) 300 for an interface for accepting a request from a player as shown in FIG. 4 (b) is generated.
  • the interface image 300 includes an object image 310.
  • the superimposed image generation unit 106 generates a superimposed image in which the video image mirror-processed by the image reversing unit 102 and the computer image generated by the CG generation unit 105 are superimposed. For example, when the superimposed image generation unit 106 superimposes the video image 200 shown in FIG. 4 (a) and the interface image 300 shown in FIG. 4 (b), the superimposed image 400 shown in FIG. Generated.
  • the display control unit 107 causes the display device 3 to display the superimposed image generated by the superimposed image generation unit 106.
  • the touch pattern storage unit 108 stores a navigation pattern to be described later and a specific touch pattern when a touch is received without navigation.
  • the navigation pattern and touch pattern may be registered by the player.
  • the determination unit 103 analyzes the video image 200 captured from the image inversion unit 102 with reference to the interface image 300 captured from the CG generation unit 105, and the video image 200 is It is determined whether the image is a predetermined image corresponding to the ace image 300. Since the video image 200 is a moving image, this determination is performed in units of frames. For example, the determination unit 103 determines the presence or absence of a predetermined motion corresponding to the interface image 300 using the difference between frames.
  • the determination unit 103 includes a counter 103a used when calculating the interframe difference. The counter 103a can count a plurality of values.
  • the interface image 300 includes a substantially annular object image 310.
  • twelve touch points 320 are arranged in an approximately circular shape and at approximately equal intervals. Therefore, in this case, the determination unit 103 determines whether or not there is a predetermined movement or more in an area corresponding to the touch point 320 of the video image 200.
  • touch when the determination unit 103 detects a predetermined motion or more in the area of the video image 200 corresponding to the touch point 320, the player virtually touches the touch point 320 (hereinafter simply referred to as touch). ).
  • touch A typical example where it is determined that the touch has been made is when the player moves while touching the touch point 320 while looking at the object image 310 shown on the display device 3 and his / her appearance. is there.
  • a predetermined number of pixels it may be determined whether or not a predetermined number of pixels are present in a region corresponding to the touch point 320. .
  • color detection and motion detection may be combined to determine motion for a predetermined color. For example, when a glove of a specific color (for example, red) is put on the player and the image of the glove overlaps with the touch point 320, and the number of red pixels in the touch point 320 is greater than or equal to a predetermined number, You may judge.
  • the touch point 320 may be determined to be touched when the number of red pixels is equal to or greater than a predetermined number and when a motion greater than or equal to a predetermined number is detected in the red pixels.
  • pattern recognition may be used to determine the presence or absence of touch by detecting the movement of the player's arms, hands, fingertips, or gloves.
  • the point where the detection target such as a glove in the superimposed image 400 is detected is increased in brightness, or no or illite. You may make it display by emphasizing by displaying. Such a display is displayed in the entire superimposed image 400 regardless of the area of the touch point 320. To! I hope to do it.
  • the main control unit 104 determines the timing for displaying the object image 310. Based on the instruction from the main control unit 104, the CG generation unit 105 uses the object image 310 to generate a navigation image as described below in order to prompt the player to touch.
  • the navigation is to guide which touch points are to be touched in what order to the player.
  • an image showing the touch point to be touched by the player in a different manner (for example, a flashing display that appears to be shining, a different color display, or a blinking display) is displayed on the player.
  • Encourage touch In the present embodiment, a case will be described in which a touch point is flash-displayed and guided.
  • a plurality of navigation patterns are prepared and stored in the touch pattern storage unit 108.
  • navigation pattern hereinafter referred to as “navigation pattern”
  • For each navigation pattern hereinafter referred to as “navigation pattern”
  • in what order and how many touch points are to be touched are predetermined.
  • the first pattern single navigation
  • Second pattern double navigation
  • third navigation that flashes all points to be touched simultaneously with the number indicating the order of touching
  • no-navigation pattern in which a player voluntarily accepts a touch without performing navigation.
  • the player continuously touches using the object image 310.
  • the remote device 2 accepts that the predetermined input is completed, and executes a predetermined function.
  • a predetermined function for example, a character is called or an attack or defense is performed. Different functions may correspond to each touch pattern.
  • the entertainment device 2 has a predetermined input. Recognize that.
  • a touch point indicating completion of input may be separately displayed, and when a touch at that touch point is received, it may be recognized that an input has been made.
  • an instruction to complete the input may be received from the operation device 35.
  • FIG. 5 shows the entire processing procedure of the input receiving process.
  • the CG generation unit 105 generates a computer image 300 including the object image 310 based on an instruction from the main control unit 104.
  • the superimposed image generation unit 106 superimposes the mirror-processed video image 200 (Fig. 4 (a)) acquired from the image inversion unit 102 and the interface image 300 (Fig. 4 (b)) to create an object image 310.
  • the superimposed image 400 including the image (FIG. 4 (c)) is displayed on the display device 3 (S101).
  • the main control unit 104 selects a navigation pattern (S102).
  • the process is divided between the case with navigation and the case without navigation.
  • the main control unit 104 selects a navigation pattern stored in the touch pattern storage unit 108. Then, the entertainment device 2 displays a navigation according to the selected navigation pattern on the display device 3 and performs a process of accepting the player's touch (S103). Details of this processing will be described later. Then, the main control unit 104 determines whether or not a touch according to the navigation pattern has been performed by the player performing a touch according to the navigation (S104).
  • step S102 main controller 104 does not instruct the navigation display. Then, while the object image 310 is displayed, the player can touch with his own will (S106). Details of this processing will be described later.
  • the main control unit 104 refers to the touch pattern storage unit 108, and determines whether or not the accepted touch pattern matches a pre-registered touch pattern (S107). ).
  • the main control unit 104 performs a process for calling a specific character corresponding to the registered pattern (S108). Then, a process for calling a general character is performed (S109). As a result, an input interface using the player's own image is realized.
  • a touch pattern can be registered using the same interface.
  • the player touches the touch point using the object image 310 displayed on the display device 3 in the registration acceptance mode, and the touch pattern at that time is stored in the touch pattern storage unit 108. To do.
  • step S103 Next, detailed processing for accepting the player's touch in step S103 will be described.
  • the navigation patterns for single navigation, double navigation, and lightning navigation will be described.
  • FIG. 6 shows a flowchart in the case of single navigation.
  • the main control unit 104 identifies a touch point according to the navi pattern and displays the touch point in flash. (S21) (See Fig. 8 (a)).
  • the determination unit 103 performs a determination process for determining whether or not the force is a touch (S22). Details of the touch determination process will be described later.
  • the main control unit 104 determines whether or not there is a touch at the touch point during flash display (S23). If there is no touch at the touch point displayed in flash (S23: No), the process ends. If a touch is found (S23: Yes), it is determined whether this touch point is the first touch point (S24).
  • the determination unit 103 analyzes the video image, and identifies a video image area that overlaps the position of the touch point displayed in flash in the interface image (S51). Then, the counter 103a for counting the number of pixels is initialized (S52).
  • the frame of the video image to be processed is updated (S53).
  • the acceptable time for touch is limited to a certain time. Therefore, when the time limit is exceeded, a timeout occurs, so the determination unit 103 monitors it (S54).
  • the touch determination is performed by detecting the motion using the inter-frame difference.
  • the player makes a red glove as described above and makes a touch determination by detecting the color
  • the number of red pixels is counted in step S55, and the number of counts is greater than or equal to the predetermined number. It may be determined that there has been a touch.
  • determination by color and determination by movement may be combined.
  • the interface image includes an object image 310.
  • the first touch point here, "touch point 12”
  • the screen transitions to Fig. 8 (b)
  • flash indicator 311 is also added to the second touch point (here, "touch point 4").
  • FIG. 8 (b) when the touch point 4 is touched in FIG. 8 (b), a transition is made to FIG. 8 (c), and the first touch point and the second touch point are connected by the light line 312. .
  • the flash display 311 is also added to the third touch point (here, “touch point 7”).
  • FIG. 8 (c) when touched to touch point 7, the transition is made to FIG. 8 (d), where the second touch point and the third touch point are connected by a light line 312. Further, in the example of FIG. 8, since the third touch point 7 is the final touch point, the light line 312 is also connected to the first touch point 12. In this state, input acceptance from the player for single navigation is completed.
  • the detected touch point and the previous touch point are connected by a light line (S25, FIG. 8 (c)).
  • the touched touch points may be connected together or sequentially by a light line when the last on-touch point input is completed, not every time a touch is detected.
  • FIG. 9 shows a flow chart in the case of double navigation as detailed processing in step S 103.
  • the main control unit 104 sets two touch points according to the navigation pattern.
  • the two touch points are identified and flashed simultaneously (S31) (see Fig. 10 (a)).
  • the determination unit 103 performs a determination process as to whether or not there is a touch at each of the two touch points (S32).
  • the touch determination process is the same as that shown in FIG. 7 for each of the two touch points.
  • the main control unit 104 determines whether or not the two touch points in the flash display are touched almost simultaneously (S33). If there is no touch in either or both (S33: No), the process ends. If both touch points are touched (S33: Yes), the two touched points are connected by a light line (S34) (see Fig. 10 (a) and Fig. 10 (b)).
  • the main control unit 104 determines whether or not the navigation pattern has been completed by touching all the touch points of the navigation pattern (S35). If the navigation pattern has not ended (S35: No), step S31 and subsequent steps are repeated. If the navigation pattern is finished (S 35: Yes), it is finished.
  • the navigation image includes an object image 310.
  • the first touch point (here, “touch points 7 and 12”) has a flash display 311.
  • touch points 7 and 12 are touched at the same time in Fig. 10 (a)
  • the transition is made to (b). That is, the second touch point (here, “touch point 2, 10”) is flash-displayed 311 and the first touch points, that is, touch points 7 and 12 are connected by the light line 312.
  • touch points 2 and 10 are simultaneously touched in FIG. 10 (b), the transition is made to FIG. 10 (c), and the second touch points, that is, touch points 2 and 10 are light lines. Connected at 312. In this state, input acceptance from the player for double navigation is completed.
  • the two points may be connected simultaneously or sequentially with a light line.
  • step S 103 a flow chart in the case of lightning navigation is shown in FIG.
  • the main control unit 104 specifies all touch points included in the navigation pattern and the order of touching according to the navigation pattern.
  • each touch point is flashed, and each touch point is connected with a lightning line (a line imitating lightning) (
  • the determination unit 103 performs a determination process as to whether or not the touch has been made (S42).
  • the touch determination process is the same as that shown in FIG.
  • the main control unit 104 determines whether or not there is a touch in the touch order (S43).
  • the main control unit 104 determines whether all the touch points of this navigation pattern have been touched and the navigation pattern has ended (S45). If the navigation pattern has not ended (S45: No), repeat steps S41 and after. If the navigation pattern is finished (S 45: Yes), it is finished.
  • the navigation image includes an object image 310.
  • FIG. 12 (a) shows a number indicating the order of touching all touch points to be touched by the player (here, “touch points 4, 7 and 12”) and a flash display 311, each of which is a lightning bolt. Connected on line 313.
  • the touch determination process detects whether a touch is found for any touch point (S61). In other words, the touch detection process of FIG. 7 is performed for all the touch points, and if touch is determined for any one, the process proceeds to step S62.
  • the subsequent processing is similar to the processing in the case of single navigation (FIG. 6).
  • the touched touch points are connected by a light line (S62-S65).
  • the total number (N) for accepting touches is predetermined.
  • the player freely touches the N touch points S65: Yes
  • the Nth touch point and the first touch point are connected by the light line, and the process is terminated (S66).
  • the touched touch points may be connected simultaneously or sequentially with a light line.
  • the object image may be a polygon such as a triangle or various shapes! /.
  • the touch point is based on certain rules. It is arranged at equal distance (equal) or non-equal distance (non-uniform) with respect to the image outside the object. Alternatively, the object image may not be displayed and only the touch point may be displayed, or only the touch point that should be touched may be displayed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 プレーヤーに対して、複数のタッチポイントへ仮想的にタッチさせる動作を促すコンピュータ画像を生成する手段と、撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、ビデオ画像と、コンピュータ画像とを重ねて表示装置に表示させる表示制御手段と、コンピュータ画像が表示されているときのビデオ画像を解析し、複数のタッチポイントのいずれかに対する仮想的なタッチを検出する手段と、検出手段により所定数のタッチポイントに所定の順番で仮想的なタッチがされたことが検出されると、所定の処理を実行する手段と、を備える情報処理システムによりエンタテインメント性を高めた入力インタフェースに関する技術を提供する。

Description

明 細 書
情報処理システム、エンタテインメントシステム、および情報処理システム の入力受け付け方法
技術分野
[0001] 本発明は、情報処理システムにおけるプレーヤ一力もの入力を受け付けるインタフ エースに関し、特に、カメラで撮影したビデオ画像を使ったインタフェースに関する。 背景技術
[0002] 特開 2002— 196855号公報 (特許文献 1)には、カメラで撮影した画像を入力イン タフエースとして利用した画像処理装置が開示されて 、る。
発明の開示
[0003] 特許文献 1に開示されて!ヽる画像処理装置は、情報処理システム、ある ヽはェンタ ティンメントシステムの入力インタフェースに応用可能である。情報処理システム、あ るいはエンタテインメントシステムでの応用に当たっては、エンタテインメント性を高め ることにより、システム全体の価値を高めることができる。
[0004] そこで、本発明の目的は、エンタテインメント'性を高めた入力インタフェースに関す る技術を提供することである。
[0005] 本発明の一つの実施態様に従う情報処理システムは、プレーヤーに対して、複数 のタツチポイントへ仮想的にタツチさせる動作を促すコンピュータ画像を生成する手 段と、撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と 、前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制 御手段と、前記コンピュータ画像が表示されているときのビデオ画像を解析し、前記 複数のタツチポイントのいずれかに対する仮想的なタツチを検出する手段と、前記検 出手段により所定数のタツチポイントに、所定の順番で前記仮想的なタツチがされた ことが検出されると、所定の処理を実行する手段と、を備える。
[0006] 好適な実施態様では、前記検出手段は、前記ビデオ画像内のプレーヤーが身に つけて!/、る特定色の物体が、前記コンピュータ画像内の前記複数のタツチポイントの いずれかと重なるときに、仮想的なタツチを検出するようにしてもよい。 [0007] 好適な実施態様では、前記画像生成手段は、次にタツチすべき 1点のタツチポイン トを示すナビゲーシヨンを含むコンピュータ画像を順次生成する。そして、前記所定 の処理を実行する手段は、前記検出手段により順次生成された前記ナビゲーシヨン を含むコンピュータ画像のそれぞれに対して、仮想的なタツチがされたことが検出さ れると、前記所定の処理を実行してもよい。
[0008] 好適な実施態様では、前記画像生成手段は、次にタツチすべき 2点のタツチポイン トを示すコンピュータ画像を順次生成する。そして、前記所定の処理を実行する手段 は、前記検出手段により順次生成された前記ナビゲーシヨンを含むコンピュータ画像 のそれぞれに対して、前記 2点のタツチポイントに対して同時に仮想的なタツチがされ たことが検出されると、前記所定の処理を実行してもよい。
[0009] 好適な実施態様では、前記画像生成手段は、タツチポイントに対するタツチの順番 を示すナビゲーシヨンを含むコンピュータ画像を生成する。そして、前記所定の処理 を実行する手段は、前記検出手段により前記ナビゲーシヨンに従って仮想的なタツチ 力 Sされたことが検出されると、前記所定の処理を実行するようにしてもよい。
[0010] 本発明の一つの実施態様に従う情報処理システムは、
プレーヤーに対して、仮想的なタツチの対象となる複数のタツチポイントを示すコン ピュータ画像を生成する手段と、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、 前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制 御手段と、
前記コンピュータ画像が表示されて ヽるときのビデオ画像を解析し、前記複数のタ ツチポイントのいずれかに対する仮想的なタツチを検出する手段と、
前記検出手段により、複数のタツチポイントに連続的に前記仮想的なタツチがされ たことが検出されると、連続して前記仮想的なタツチがされたタツチポイント同士を結 ぶオブジェクトの表示を行なうオブジェクト表示手段と、を備える。
[0011] 本発明の一つの実施態様に従うエンタテインメントシステムは、複数の領域を特定 するための画像を含んだコンピュータ画像を生成する手段と、撮影手段で撮影したビ デォ画像の入力を受け付ける手段と、前記ビデオ画像と、前記コンピュータ画像とを 重ねて表示装置に表示させる表示制御手段と、前記コンピュータ画像を参照して前 記ビデオ画像を解析する手段と、を備えたエンタテインメントシステムであって、前記 画像生成手段が、所定の順序で前記複数の領域のうちの一つの領域を選択し、選 択された領域を他と異なる態様で表示した入力を促す複数の画像を連続的に生成し 、前記解析手段は、それぞれの入力を促す画像が表示されているときのビデオ画像 を解析し、他と異なる態様で表示された前記選択された領域と対応するビデオ画像 の対応領域が所定の画像であることを検出し、前記入力を促す画像の生成、および 前記対応領域が所定の画像であることの検出が所定回数行われると、所定の機能を 実行する。
図面の簡単な説明
[図 1]本発明の一実施形態に係るエンタテインメントシステムの全体構成図である。
[図 2]エンタテインメント装置の構成図である。
[図 3]エンタテインメント装置の機能構成図である。
[図 4]図 4 (a)は、鏡面処理後のビデオ画像の例を示す図である。図 4 (b)は、インタフ エース画像の例を示す図である。図 4 (c)は、重畳画像の例を示す図である。
[図 5]入力受け付け処理全体のフローチャートである。
[図 6]シングルナビゲーシヨンの場合のタツチ受け付け処理のフローチャートである。
[図 7]タツチ判定処理のフローチャートである。
[図 8]シングルナビゲーシヨンの場合のオブジェクト画像の遷移イメージである。図 8 ( a)は、フラッシュ表示された最初のタツチポイントを示す。図 8 (b)は、フラッシュ表示 された最初と 2番目のタツチポイントを示す。図 8 (c)は、 1番目と 2番目のタツチポイン トを結ぶ光のラインと、フラッシュ表示された最後のタツチポイントを示す。図 8 (d)は、 光のラインで結ばれたタツチポイントを示す。
[図 9]ダブルナビゲーシヨンの場合のタツチ受け付け処理のフローチャートである。
[図 10]ダブルナビゲーシヨンの場合のオブジェクト画像の遷移イメージである。図 10 ( a)は、フラッシュ表示された 1番目のタツチポイントを示す。図 10 (b)は、光のラインで 結ばれた 1番目のタツチポイントと、タツチポイントとフラッシュ表示された 2番目のタツ チポイントを示す。図 10 (c)は、光のラインで結ばれた 1番目のタツチポイントと、光の ラインで結ばれた 2番目のタツチポイントを示す。
[図 11]稲妻ナビゲーシヨンの場合のタツチ受け付け処理のフローチャートである。
[図 12]稲妻ナビゲーシヨンの場合のオブジェクト画像の遷移イメージである。図 12 (a )は、タツチすべき全タツチポイントを示す。図 12 (b)は、 1番目のタツチポイントと 2番 のタツチポイントとを結んでいた稲妻ラインが消去されたことを示す。図 12 (c)は、 2番 目のタツチポイントと 3番のタツチポイントとを結んで 、た稲妻ラインが消去されたこと を示す。図 12 (d)は、 3番目のタツチポイントと 1番のタツチポイントとを結んでいた稲 妻ラインが消去されたことを示す。
[図 13]ナビゲーシヨンなしの場合のタツチ受け付け処理のフローチャートである。 発明を実施するための最良の形態
[0013] 以下、本発明の一実施形態に係るエンタテインメントシステムについて、図面を用 いて説明する。
[0014] 本実施形態に係るエンタテインメントシステムの構成の一例を図 1に示す。このェン タティンメントシステムは、ディスプレイ装置 3に向き合った位置にいるプレーヤー 4を アナログまたはデジタルのビデオカメラ 1が撮影し、これにより得られた動画像をェン タティンメント装置 2が連続的に連続に取り込んで、エンタテインメント装置 2が生成し たコンピュータ画像 (CG)と、ビデオカメラ 1から取り込んだビデオ画像の鏡面動画像 とを重ね合わせた重畳画像をディスプレイ装置 3上にリアルタイムに表示させるもので ある。
[0015] 従って、重畳画像ではプレーヤー 4の動作がリアルタイムに反映されていて、この重 畳画像でプレーヤー 4はプレーを楽しむことができる。鏡面動画像は、ビデオカメラ 1 力 取り込んだ動画像をエンタテインメント装置 2で鏡面処理 (画像の左右反転処理) することにより生成することができるが、ビデ才力メラ 1の前に鏡を置き、操作者を映し た鏡面の動画像をビデオカメラ 1で撮影することによって鏡面動画像を生成するよう にしてもよい。いずれにしても、ディスプレイ装置 3上には、ターゲットの動きに応じて その表示形態がリアルタイムに変化する合成画像が表示されるようにする。
[0016] エンタテインメント装置 2は、コンピュータプログラムにより所要の機能を形成するコ ンピュータにより実現される。この実施形態によるコンピュータは、例えば図 2にその ハードウェア構成を示すように、それぞれ固有の機能を有する複数の半導体デバイ スが接続されたメインバス B1とサブバス B2の 2本のバスを有している。これらのバス B 1、 B2は、バスインタフェース INTを介して互いに接続され又は切り離されるようにな つている。
[0017] メインバス B1には、主たる半導体デバイスであるメイン CPU10と、 RAMで構成さ れるメインメモリ 11と、メイン DMAC (Direct Memory Access Controller) 12と、 MPE G (Moving Picture Experts Group)デコーダ(MDEC) 13と、描画用メモリとなるフレ ームメモリ 15を内蔵する描画処理装置(Graphic Processing Unit,以下、「GPU」) 14 が接続される。 GPU14には、フレームメモリ 15に描画されたデータをディスプレイ装 置 3で表示できるようにするためのビデオ信号を生成する CRTC (CRT Controller) 1 6が接続される。
[0018] メイン CPU10は、コンピュータの起動時にサブバス B2上の ROM23から、ノ スイン タフエース INTを介して起動プログラムを読み込み、その起動プログラムを実行して オペレーティングシステムを動作させる。また、メディアドライブ 27を制御するとともに
、このメディアドライブ 27に装着されたメディア 28からアプリケーションプログラムゃデ ータを読み出し、これをメインメモリ 11に記憶させる。さらに、メディア 28から読み出し た各種データ、例えば複数の基本図形 (ポリゴン)で構成された 3次元オブジェクトデ → (ポリゴンの頂点 (代表点)の座標値など)に対して、オブジェクトの形状や動き等 を表現するためのジオメトリ処理 (座標値演算処理)を行い、そして、ジオメトリ処理に よるポリゴン定義情報 (使用するポリゴンの形状及びその描画位置、ポリゴンを構成 する素材の種類、色調、質感等の指定)をその内容とするディスプレイリストを生成す る。
[0019] GPU14は、描画コンテクスト(ポリゴン素材を含む描画用のデータ)を保持しており 、メイン CPU10から通知されるディスプレイリストに従って必要な描画コンテクストを 読み出してレンダリング処理 (描画処理)を行い、フレームメモリ 15にポリゴンを描画 する機能を有する半導体デバイスである。フレームメモリ 15は、これをテクスチャメモ リとしても使用できる。そのため、フレームメモリ上のピクセルイメージをテクスチャとし て、描画するポリゴンに貼り付けることができる。 [0020] メイン DMAC12は、メインバス B1に接続されている各回路を対象として DMA転送 制御を行うとともに、バスインタフェース INTの状態に応じて、サブバス B2に接続され て 、る各回路を対象として DMA転送制御を行う半導体デバイスであり、 MDEC 13 は、メイン CPU10と並列に動作し、 MPEG (Moving Picture Experts Group)方式あ るい ίお PEG (Joint Photographic Experts Group)方式等で圧縮されたデータを伸張 する機能を有する半導体デバイスである。
[0021] サブバス B2には、マイクロプロセッサなどで構成されるサブ CPU20、 RAMで構成 されるサブメモリ 21、サブ DMAC22、オペレーティングシステムなどの制御プログラ ムが記憶されている ROM23、サウンドメモリ 25に蓄積された音データを読み出して オーディオ出力として出力する音声処理用半導体デバイス (SPU (Sound Processing Unit) ) 24、図示しないネットワークを介して外部装置と情報の送受信を行う通信制 御部(ATM) 26、 CD— ROMや DVD— ROMなどのメディア 28を装着するためのメ ディアドライブ 27及び入力部 31が接続されている。
[0022] サブ CPU20は、 ROM23に記憶されている制御プログラムに従って各種動作を行 う。サブ DMAC22は、バスインタフェース INTがメインバス B1とサブバス B2を切り離 して 、る状態にぉ 、てのみ、サブノ ス B2に接続されて 、る各回路を対象として DM A転送などの制御を行う半導体デバイスである。入力部 31は、操作装置 35からの入 力信号が入力される接続端子 32、ビデオカメラ 1からの画像信号が入力される接続 端子 33、及びビデオカメラ 1からの音声信号が入力される接続端子 34を備える。な お、本明細書では、画像についてのみ説明を行い、便宜上、音声についての説明は 省略する。
[0023] このように構成されるコンピュータは、メイン CPU10、サブ CPU20、 GPU14が、 R OM23及びメディア 28等の記録媒体力も所要のコンピュータプログラムを読み込ん で実行することにより、エンタテインメント装置 2として動作する。
[0024] このエンタテインメント装置 2の機能ブロック図を図 3に示す。すなわち、ェンタティ ンメント装置 2には、ビデオ画像入力部 101と、画像反転部 102と、判定部 103と、主 制御部 104と、 CG生成部 105と、重畳画像生成部 106と、表示制御部 107と、タツ チパターン記憶部 108とが形成される。 [0025] ビデオ画像入力部 101は、ビデオカメラ 1で撮影されたビデオ画像を取り込む。ビ デォ画像は動画像であり、ビデオ画像入力部 101はビデオカメラ 1から送られてくる 画像を連続的に取り込む。
[0026] 画像反転部 102は、ビデオ画像入力部 101が取り込んだビデオ画像に対して鏡面 処理、すなわち左右反転処理を行う。プレーヤーを撮影した鏡面処理されたビデオ 画像 200の一例を図 4 (a)に示す。これ以降の処理は、鏡面処理がされたビデオ画 像に対して行われる。
[0027] 主制御部 104は、エンタテインメントシステム全体の制御を行う。例えば、ェンタティ ンメント装置 2がゲームプログラムを実行しているときは、主制御部 104がそのプログ ラムに従ってゲームのストーリーなどを決定する。また、主制御部 104がストーリーを 決定するときに、判定部 103の判定結果を参照する場合がある。この詳細について は後述する。
[0028] CG生成部 105は、主制御部 104の指示に従って、ゲームのストーリーに沿った種 々のコンピュータ画像を生成する。例えば、図 4 (b)に示すような、プレーヤーからの リクエストを受け付けるためのインタフェース用のコンピュータ画像 (インタフェース画 像) 300を生成する。ここで、インタフェース画像 300には、オブジェクト画像 310が含 まれている。
[0029] 重畳画像生成部 106は、画像反転部 102で鏡面処理されたビデオ画像と CG生成 部 105で生成されたコンピュータ画像とを重ね合わせた重畳画像を生成する。例え ば、重畳画像生成部 106が図 4 (a)に示したビデオ画像 200と図 4 (b)に示したインタ フェース画像 300とを重畳すると、図 4 (c)に示した重畳画像 400が生成される。
[0030] 表示制御部 107は、重畳画像生成部 106で生成された重畳画像をディスプレイ装 置 3に表示させる。
[0031] タツチパターン記憶部 108には、後述するナビゲーシヨンパターンおよびナビゲー シヨンなしでタツチを受け付けたときの特定のタツチパターンが記憶されて 、る。ナビ ゲーシヨンパターンおよびタツチパターンは、プレーヤーが登録可能としても良い。
[0032] 判定部 103は、 CG生成部 105から取り込んだインタフェース画像 300を参照して 画像反転部 102から取り込んだビデオ画像 200を解析し、ビデオ画像 200がインタフ エース画像 300に対応する所定の画像であるかを判定する。ビデオ画像 200は動画 像であるから、この判定はフレーム単位に処理を行われる。例えば、判定部 103は、 フレーム間の差分をとつて、インタフェース画像 300に対応する所定の動きの有無を 判定する。判定部 103は、フレーム間差分を計算する際に用いるカウンタ 103aを備 えている。カウンタ 103aは、複数の値をカウントできる。
[0033] 図 4の例では、インタフェース画像 300には略環状のオブジェクト画像 310が含ま れている。オブジェクト画像 310には、 12箇所のタツチポイント 320力 概環状に、且 つ、概等間隔に配置されている。従って、この場合、判定部 103はビデオ画像 200の タツチポイント 320と対応する領域に所定以上の動きがあるかどうかを判定する。
[0034] ここで、判定部 103が、タツチポイント 320と対応するビデオ画像 200の領域で所定 以上の動きを検出すると、プレーヤーがそのタツチポイント 320に仮想的にタツチ(以 下、単にタツチと言う)したものと判定する。タツチしたと判定される典型的な例は、プ レーヤーがディスプレイ装置 3に写っているオブジェクト画像 310と自分の姿を見な がら、タツチポイント 320に自分の手などが重なるように動作する場合である。
[0035] また、タツチの有無の判定には、フレーム間差分による動きの検出以外に、所定の 色の画素が所定数以上、タツチポイント 320と対応する領域に存在するかを判定して も良い。あるいは、色の検出と動きの検出を組み合わせ、所定の色について動きの 判定を行ってもよい。例えば、プレーヤーに特定色(例えば赤)のグローブをはめさ せて、そのグローブの映像がタツチポイント 320と重なり、タツチポイント 320内の赤色 の画素数が所定数以上であるときに、タツチされたと判定しても良い。さらに、タツチ ポイント 320内の赤色の画素数が所定数以上であり、且つ、赤色の画素に所定以上 の動きが検出されたときにタツチされたと判定してもよい。あるいは、パターン認識に よりプレーヤーの腕、手、指先等あるいはグローブ等の動きを検出してタツチの有無 の判定を行なうようにしてもょ 、。
[0036] なお、プレーヤーの動作がエンタテインメント装置 2に認識されていることをプレー ヤーに示すために、重畳画像 400中のグローブ等の検出対象が検出されたポイント を輝度を上げたり、ノ、イライト表示することにより強調して表示するようにしてもよい。こ のような表示は、タツチポイント 320の領域付近にかかわらず、重畳画像 400内全体 にお!/、て行なうようにすることが望ま 、。
[0037] このとき、強調表示を徐々に消えていくように表示させることで、プレーヤーがグロ 一ブ等を動かした場合に、あた力もその軌跡が残像のように表示され、一層、プレー ヤーの動作がエンタテインメント装置 2に認識されていることがプレーヤに明確に示さ れるとともに、エンタテインメント性が高まることになる
オブジェクト画像 310を表示するタイミングは、主制御部 104が決定する。そして、 C G生成部 105は主制御部 104の指示に基づき、オブジェクト画像 310を用いて、プレ 一ヤーにタツチを促すために、以下に説明するようなナビゲーシヨン画像を生成する
[0038] ここで、ナビゲーシヨンとは、プレーヤーに対してどのタツチポイントをどういう順番で タツチしていくかを誘導するものである。ここでは、プレーヤーにタツチさせるタツチポ イントを通常とは異なる態様 (例えば、光っているように見せるフラッシュ表示や、通常 と異なる色での表示、点滅表示など)で示した画像を表示し、プレーヤーにタツチを 促す。本実施形態では、タツチポイントをフラッシュ表示させて、誘導する場合につい て説明する。
[0039] ナビゲーシヨンのパターンは複数用意されていて、タツチパターン記憶部 108に記 憶されている。そして、それぞれのナビゲーシヨンパターン(以下、ナビパターンと言う )ごとに、どのような順番で、いくつのタツチポイントをタツチさせるかがあらかじめ定め られている。
[0040] 例えば、ナビパターンには、(1)タツチさせる順に従って、タツチポイントを 1点ずつ 順次フラッシュさせる第 1のパターン (シングルナビゲーシヨン)と、 (2)タツチさせる順 に従って、同時に 2点フラッシュさせ、同時に 2点にタツチさせる第 2のパターン (ダブ ルナピゲーシヨン)と、(3)タツチさせるすべての点を、タツチする順序を示す数字と共 に同時にフラッシュさせる第 3のナビゲーシヨン (稲妻ナビゲーシヨン)と力ある。さらに 、ナビゲーシヨンを行わずに、プレーヤーが自発的に行うタツチを受け付けるナビゲ ーシヨンなしパターンもある。
[0041] 本実施形態では、オブジェクト画像 310を利用して、プレーヤーに連続的にタツチ をさせる。そして、プレーヤーがナビゲーシヨンに従ってタツチすると、ェンタティンメ ント装置 2は、所定の入力が完了したものとして受け付け、所定の機能を実行する。 所定の機能としては、例えば、キャラクタを呼び出したり、攻撃または防御を行ったり する。タツチパターンごとに異なる機能を対応させても良い。
[0042] また、ナビゲーシヨンなしのときは、プレーヤーがタツチしたタツチポイントの位置お よび順序がタツチパターン記憶部 108に記憶されているタツチパターンと一致すると 、エンタテインメント装置 2は所定の入力があったものと認識する。
[0043] あるいは、入力完了を示すタツチポイントを別途表示して、そのタツチポイントのタツ チを受け付けた場合に入力があったものと認識するようにしてもよい。もちろん、操作 装置 35から入力完了の指示を受け付けるようにしてもょ 、。
[0044] 上記のような機能構成を有するエンタテインメント装置 2にお 、て、プレーヤー自身 の画像を使った入力受け付け処理手順を、フローチャートおよび画面遷移を示す図 を用いて説明する。なお、以下の例では、エンタテインメント装置 2が入力を受け付け ると、キャラクタの呼び出し処理を行う場合について説明する。
[0045] まず、入力受け付け処理の全体の処理手順を図 5に示す。 CG生成部 105は、主 制御部 104からの指示に基づいて、オブジェクト画像 310を含むコンピュータ画像 30 0を生成する。そして、重畳画像生成部 106が画像反転部 102から獲得した鏡面処 理後のビデオ画像 200 (図 4 (a) )とインタフェース画像 300 (図 4 (b) )とを重ね合わせ 、オブジェクト画像 310を含む重畳画像 400 (図 4 (c) )がディスプレイ装置 3に表示さ れる(S101)。次に、主制御部 104は、ナビパターンを選択する(S 102)。ここでは、 ナビゲーシヨンありの場合と、ナビゲーシヨンなしの場合で処理が分かれる。
[0046] ナビゲーシヨンありの場合は、主制御部 104がタツチパターン記憶部 108に記憶さ れているナビパターンを選択する。そして、エンタテインメント装置 2が、選択されたナ ビパターンに従ったナビゲーシヨンをディスプレイ装置 3に表示させて、プレーヤーの タツチを受け付ける処理を行う(S103)。この処理の詳細については後述する。そし て、主制御部 104は、プレーヤーがナビゲーシヨンに従ったタツチをして、ナビパター ン通りのタツチが行われたかどうかを判定する(S104)。
[0047] ここで、ナビパターン通りのタツチが行われなかったときは(S104 :No)、入力受け 付け処理を終了する。一方、ナビパターン通りのタツチが行われたときは(S104 : Ye s)、主制御部 104がナビパターンに対応するキャラクタを呼び出すための処理を実 行する(S 105)。
[0048] 一方、ステップ S 102でナビゲーシヨンなしが選択された場合は、主制御部 104は ナビゲーシヨン表示の指示をしない。そして、オブジェクト画像 310が表示された状態 のままで、プレーヤ一は自分の意志でタツチを行うことができる(S 106)。この処理の 詳細については後述する。
[0049] ステップ S 106のタツチ受け付け処理が終了すると、主制御部 104はタツチパターン 記憶部 108を参照し、受け付けたタツチパターンが予め登録されているタツチパタ一 ンと一致するかを判定する(S107)。ここで、プレーヤーがタツチしたパターンが登録 済みパターンと一致すれば、主制御部 104は、その登録済みパターンに対応する特 定のキャラクタを呼び出すための処理を行い(S 108)、一致しなければ、一般のキヤ ラクタを呼び出すための処理を行う(S109)。これにより、プレーヤー自身の画像を使 つた入力インタフェースが実現する。
[0050] なお、同じインタフェースを利用してタツチパターンを登録することができる。すなわ ち、登録受け付けモードのときにディスプレイ装置 3に表示されているオブジェクト画 像 310を用いて、プレーヤーがタツチポイントにタツチしていき、そのときのタツチパタ 一ンをタツチパターン記憶部 108に格納する。
[0051] 次に、ステップ S 103のプレーヤーのタツチを受け付けるための詳細な処理につい て説明する。ここでは、シングルナビゲーシヨン、ダブルナビゲーシヨンおよび稲妻ナ ピゲーシヨンのそれぞれのナビパターンについて説明する。
[0052] シングルナビゲーシヨンの場合のフローチャートを図 6に示す。主制御部 104は、ナ ビパターンに従ってタツチポイントを特定し、そのタツチポイントをフラッシュ表示させ る。(S21) (図 8 (a)参照)。次に、判定部 103はタツチがあった力どうかの判定処理を 行う(S22)。タツチ判定処理の詳細は後述する。そして、タツチ判定処理終了後、主 制御部 104はフラッシュ表示中のタツチポイントにタツチがあった力どうかを判定する (S23)。フラッシュ表示中のタツチポイントにタツチがないときは(S23 :No)、処理を 終了する。タツチがあつたときは(S23 : Yes)、このタツチポイントが最初のタツチポィ ントであるかを判定する(S24)。そして、最初のタツチポイントであったときは(S24 :Y es)、ステップ S21へ戻る(図 8 (a)、図 8 (b)参照)。最初のタツチポイントでないとき、 すなわち、 2番目以降のタツチポイントであったときは、このタツチポイントと直前のタツ チポイントを所定のオブジェクト、例えば、光のライン (光っているように見えるライン) で結んで表示する(S25) (図 8 (b)、図 8 (c)参照)。また、このタツチポイントが最後の タツチポイントでないときはステップ S21へ戻り(S26)、最後のタツチポイントであると きは、最後のタツチポイントと最初のタツチポイントとを光のラインで結んで表示する( S27) (図 8 (c)、図 8 (d)参照)。以上のような手順でシングルナビゲーシヨンが行われ る。
[0053] 次に、ステップ S22のタツチ判定処理について、図 7のフローチャートを用いて説明 する。判定部 103は、ビデオ画像を解析し、インタフェース画像でフラッシュ表示して いるタツチポイントの位置と重なるビデオ画像の領域を特定する(S51)。そして、画 素数をカウントするためのカウンタ 103aを初期化する(S52)。
[0054] 次に、処理対象のビデオ画像のフレームを更新する(S53)。ここで、一つのタツチ ポイントについてタツチの受付可能時間が一定時間に制限されている。従って、その 制限時間を超えるときはタイムアウトとなるので、判定部 103はそれを監視する(S54
) o
[0055] タイムアウトしたときは(S54 : Yes)、処理を終了する。
[0056] タイムアウトして!/ヽな 、ときは(S54: No)、ビデオ画像につ 、て前フレームとのフレ ーム間差分をとり、ステップ S51で特定された領域内で変動があった画素数をカウン トし、カウンタ 103aに累積する(S55)。そして、カウンタに累積された値が所定値以 上であるかどうかを判定する(S56)。累積値が所定値を越えて 、な 、ときは(S56: N o)、ステップ S53以降を繰り返す。累積値が所定値を越えているときは(S56 : Yes)、 タツチが検出される(S57)。
[0057] なお、上記の説明では、フレーム間差分を用いて動きを検出してタツチ判定を行つ ている。し力し、上述のようにプレーヤーに赤色のグローブをさせて、その色の検出に よりタツチ判定するときは、ステップ S55において赤色の画素数をカウントし、そのカウ ント数が所定数以上であればタツチがあったものと判定しても良い。このとき、さらに 色による判定と動きによる判定を組み合わせても良い。 [0058] ここで、シングルナビゲーシヨンの場合のナビゲーシヨン表示の様子を図 8を用いて 説明する。インタフェース画像にはオブジェクト画像 310が含まれている。図 8 (a)は 第 1番目のタツチポイント(ここでは「タツチポイント 12」)にフラッシュ表示 311がなされ ている。図 8 (a)においてタツチポイント 12にタツチされると図 8 (b)へ遷移し、第 2番 目のタツチポイント(ここでは「タツチポイント 4」 )にもフラッシュ表示 311が追加される
[0059] さらに、図 8 (b)においてタツチポイント 4にタツチされると図 8 (c)へ遷移し、第 1番目 のタツチポイントと第 2番目のタツチポイントとが光のライン 312で結ばれる。そして、 第 3番目のタツチポイント(ここでは「タツチポイント 7」)にもフラッシュ表示 311が追カロ される。
[0060] このとき、上記で説明したように、認識したプレーヤーの動きの軌跡を残像表示させ て 、る場合には、あた力もタツチポイントを結ぶ軌跡の残像に光のラインが覆 、被さる ように表示されることになり、入力インタフェースとしてのエンタテインメント効果が高ま る。これは、後に説明するダブルナビゲーシヨン等においても同様である。
[0061] 図 8 (c)においてタツチポイント 7にタツチされると図 8 (d)へ遷移し、第 2番目のタツ チポイントと第 3番目のタツチポイントとが光のライン 312で結ばれる。さらに、図 8の 例では第 3番目のタツチポイント 7が最終のタツチポイントであるから、最初タツチポィ ント 12との間も光のライン 312で結ばれる。この状態でシングルナビゲーシヨンに対 するプレーヤーからの入力受け付けが完了する。
[0062] ところで、上記の説明では、タツチを検出するたびに、検出したタツチポイントと直前 のタツチポイントとを光のラインで結ぶようにしていた(S25、図 8 (c) )。し力し、タツチ の検出のたびではなぐ最後オンタツチポイントの入力を終えた時点で、タツチされた タツチポイントを一斉に、あるいは、順次、光のラインで結ぶようにしてもよい。
[0063] この場合、図 6における処理 (S25)は省略し、処理 (S27)に代え、「タツチされたタ ツチポイントを一斉に(あるいは、順次)、光のラインで結ぶ」となる。なお、いずれのも 場合も最終的に表示される光のラインは、図 8 (d)のようになる。
[0064] 次に、ステップ S 103の詳細な処理として、ダブルナビゲーシヨンの場合のフローチ ヤートを図 9に示す。主制御部 104は、ナビパターンに従ってタツチポイントを 2箇所 特定し、その 2箇所のタツチポイントを同時にフラッシュ表示させる(S31) (図 10 (a) 参照)。そして、判定部 103は 2箇所のタツチポイントのそれぞれにタツチがあつたか どうかの判定処理を行う(S32)。
[0065] ここで、タツチ判定処理は、 2箇所のタツチポイントのそれぞれについて図 7に示した ものと同様の処理を行う。
[0066] そして、タツチ判定処理終了後、主制御部 104はフラッシュ表示中の 2点のタツチポ イントに対し、ほぼ同時にタツチがあつたかどうかを判定する(S33)。いずれか一方ま たはいずれにもタツチがないときは(S33 : No)終了する。 2点ともタツチがあつたとき は(S33 : Yes)、タツチされた 2点間を光のラインで結ぶ(S34) (図 10 (a)、図 10 (b) 参照)。
[0067] そして、主制御部 104が、このナビパターンの全タツチポイントにタツチされ、ナビパ ターンが終了したかを判定する(S35)。そして、ナビパターンが終了していないとき は(S35 :No)、ステップ S31以降を繰り返す。ナビパターンが終了しているときは(S 35 : Yes)終了する。
[0068] なお、 2点のタツチポイントについて、一方のタツチポイントにタツチがあった後、所 定の時間内に他方にタツチがあつたときは、同時にタツチがあつたと判定する。さらに 、一方にタツチがあると、他方のタツチポイントのタツチ判定のしきい値を下げても良 い。
[0069] ここで、ダブルナビゲーシヨンの場合のナビゲーシヨン表示の様子を図 10を用いて 説明する。図 8の場合と同様に、ナビゲーシヨン画像にはオブジェクト画像 310が含ま れている。
[0070] 図 10 (a)は第 1番目のタツチポイント(ここでは「タツチポイント 7および 12」)にフラッ シュ表示 311がなされている。図 10 (a)においてタツチポイント 7および 12が同時に タツチされると (b)へ遷移する。すなわち、第 2番目のタツチポイント (ここでは「タツチ ポイント 2, 10」)がフラッシュ表示 311されると共に、第 1番目のタツチポイント同士、 つまりタツチポイント 7および 12が光のライン 312で結ばれる。
[0071] さらに、図 10 (b)においてタツチポイント 2, 10が同時にタツチされると図 10 (c)へ 遷移し、第 2番目のタツチポイント同士、つまりタツチポイント 2および 10が光のライン 312で結ばれる。この状態でダブルナビゲーシヨンに対するプレーヤーからの入力受 け付けが完了する。
[0072] なお、ダブルナビゲーシヨンの場合にも、最後オンタツチポイントの入力を終えた時 点で、それぞれの 2点間を一斉に、あるいは、順次、光のラインで結ぶようにしてもよ い。
[0073] 次に、ステップ S 103の詳細な処理として、稲妻ナビゲーシヨンの場合のフローチヤ 一トを図 11に示す。主制御部 104は、ナビパターンに従って、このナビパターンに含 まれる全タツチポイントおよびタツチする順番を特定する。
[0074] そして、各タツチポイントにタツチ順を示す数字を表示し、各タツチポイントをフラッシ ュ表示させるとともに、各タツチポイント間を稲妻ライン (稲妻を模したライン)で結ぶ(
S41) (図 12 (a)参照)。
[0075] そして、判定部 103はタツチがあつたかどうかの判定処理を行う(S42)。ここで、タツ チ判定処理は図 7に示すものと同様である。そして、タツチ判定処理終了後、主制御 部 104はタツチ順序通りにタツチがあった力どうかを判定する(S43)。
[0076] タツチ順通りにタツチされて!、な!/、ときは(S43: No)終了する。タツチ順通りにタツ チされているときは(S43 : Yes)、タツチされたタツチポイントのフラッシュおよび稲妻 ラインを消去する(S44) (図 12 (b)、図 12 (c)参照)。
[0077] そして、主制御部 104が、このナビパターンの全タツチポイントにタツチされ、ナビパ ターンが終了したかを判定する(S45)。そして、ナビパターンが終了していないとき は(S45 :No)、ステップ S41以降を繰り返す。ナビパターンが終了しているときは(S 45 : Yes)終了する。
[0078] ここで、稲妻ナビゲーシヨンの場合のナビゲーシヨン画像の遷移の様子を図 12を用 いて説明する。図 8、図 10の場合と同様に、ナビゲーシヨン画像にはオブジェクト画 像 310が含まれている。
[0079] 図 12 (a)はプレーヤーがタツチすべき全タツチポイント(ここでは「タツチポイント 4, 7 および 12」)にタツチする順序を示す数字、およびフラッシュ表示 311がなされ、それ ぞれが稲妻ライン 313で結ばれて 、る。
[0080] 図 12 (a)においてタツチポイント 12 (第 1番目のタツチポイント)にタツチされると、図 12 (b)へ遷移する。すなわち、第 1番目のタツチポイントのフラッシュ表示 311、およ び第 1番目と第 2番目のタツチポイントを結んでいた稲妻ラインが消去される。
[0081] 図 12 (b)においてタツチポイント 4 (第 2番目のタツチポイント)がタツチされると、図 1 2 (c)へ遷移し、第 2番目のタツチポイントのフラッシュ表示および第 2および第 3番目 のタツチポイント間の稲妻ラインが消去される。
[0082] 図 12 (c)においてタツチポイント 7にタツチされると、図 12 (d)へ遷移し、第 3番目の タツチポイントの稲妻表示および第 3および第 1番目の間の稲妻ラインが消去される。 この状態で稲妻ナビゲーシヨンに対するプレーヤ一力 の入力受け付けが完了する
[0083] 次に、図 5のステップ S106のナビゲーシヨンなしの場合の詳細な処理について、図 13のフローチャートを用いて説明する。ナビゲーシヨンなしでタツチを受け付けるとき は、タツチ判定処理でいずれかのタツチポイントについてタツチがあつたかを検出す る(S61)。つまり、図 7のタツチ検出処理をすベてのタツチポイントについて行い、い ずれか一つについてタツチを判定するとステップ S62に移行する。
[0084] これ以降の処理はシングルナビゲーシヨンの場合の処理(図 6)と類似する。すなわ ち、複数のタツチポイントに対するタツチを検出すると、タツチ済みのタツチポイント間 を光のラインで結んでいく(S62— S65)。このとき、タツチを受け付ける総数 (N)が予 め定められている。つまり、プレーヤーが自由に N点のタツチポイントにタツチすると( S65 :Yes)、 N番目のタツチポイントと第 1番目のタツチポイントとを光のラインで結び 処理を終了する(S66)。
[0085] なお、ナビゲーシヨンなしの場合にも、最後オンタツチポイントの入力を終えた時点 で、タツチされたタツチポイントを一斉に、あるいは、順次、光のラインで結ぶようにし てもよい。
[0086] 上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲 をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸 脱することなしに、他の様々な態様で本発明を実施することができる。
[0087] 例えば、オブジェクト画像は三角形などの多角形、あるいは、様々な形状でもよ!/、。
さらには、それらの組み合わせでも良い。タツチポイントは、一定のルールに基づき、 オブジェ外画像に対して等距離 (均等)または非等距離 (非均等)に配置される。あ るいは、オブジェクト画像は表示せず、タツチポイントのみの表示しても良いし、タツチ すべきタツチポイントのみを表示するようにしても良 、。

Claims

請求の範囲
[1] †青報処理システムであって、
プレーヤーに対して、複数のタツチポイントへ仮想的にタツチさせる動作を促すコン ピュータ画像を生成する手段と、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、 前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制 御手段と、
前記コンピュータ画像が表示されて ヽるときのビデオ画像を解析し、前記複数のタ ツチポイントのいずれかに対する仮想的なタツチを検出する手段と、
前記検出手段により、所定数のタツチポイントに所定の順番で前記仮想的なタツチ 力 Sされたことが検出されると、所定の処理を実行する手段と、を備える。
[2] 請求項 1記載の情報処理システムであって、
前記検出手段は、前記ビデオ画像内のプレーヤーが身につけている特定色の物 体力 前記コンピュータ画像内の前記複数のタツチポイントのいずれかと重なるときに 、仮想的なタツチを検出する。
[3] 請求項 1記載の情報処理システムであって、
前記画像生成手段は、次にタツチすべき 1点のタツチポイントを示すナビゲーシヨン を含むコンピュータ画像を順次生成し、
前記所定の処理を実行する手段は、前記検出手段により順次生成された前記ナビ ゲーシヨンを含むコンピュータ画像のそれぞれに対して、仮想的なタツチがされたこと が検出されると、前記所定の処理を実行する。
[4] 請求項 1記載の情報処理システムであって、
前記画像生成手段は、次にタツチすべき 2点のタツチポイントを示すコンピュータ画 像を順次生成し、
前記所定の処理を実行する手段は、前記検出手段により順次生成された前記ナビ ゲーシヨンを含むコンピュータ画像のそれぞれに対して、前記 2点のタツチポイントに 対して同時に仮想的なタツチがされたことが検出されると、前記所定の処理を実行す る。
[5] 請求項 1記載の情報処理システムであって、
前記画像生成手段は、タツチポイントに対するタツチの順番を示すナビゲーシヨンを 含むコンピュータ画像を生成し、
前記所定の処理を実行する手段は、前記検出手段により前記ナビゲーシヨンに従 つて仮想的なタツチがされたことが検出されると、前記所定の処理を実行する。
[6] エンタテインメントシステムであって、
複数の領域を特定するための画像を含んだコンピュータ画像を生成する手段と、 撮影手段で撮影したビデオ画像の入力を受け付ける手段と、
前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制 御手段と、
前記コンピュータ画像を参照して前記ビデオ画像を解析する手段と、を備えるェン タティンメントシステムであって、
前記画像生成手段が、所定の順序で前記複数の領域のうちの一つの領域を選択 し、選択された領域を他と異なる態様で表示した入力を促す複数の画像を連続的に 生成し、
前記解析手段は、それぞれの入力を促す画像が表示されて!、るときのビデオ画像 を解析し、他と異なる態様で表示された前記選択された領域と対応するビデオ画像 の対応領域が所定の画像であることを検出し、
前記入力を促す画像の生成、および前記対応領域が所定の画像であることの検出 が所定回数行われると、所定の機能を実行する。
[7] 情報処理システムの入力受け付け方法であって、
プレーヤーに対して、複数のタツチポイントへ仮想的にタツチさせる動作を促すコン ピュータ画像を生成し、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付け、 前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させて 、ると きに前記ビデオ画像を解析し、前記複数のタツチポイントの ヽずれかに対する仮想 的なタツチを順次検出し、
前記仮想的なタツチにより、所定数のタツチポイントが所定の順番でタツチがされる と、所定の入力があったものとして受け付ける。
[8] 入力受け付けのためのコンピュータプログラムを記録した記録媒体であって、
前記コンピュータプログラムは、コンピュータに以下の処理を実行させる。 プレーヤーに対して、複数のタツチポイントへ仮想的にタツチさせる動作を促すコン ピュータ画像を生成する処理、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける処理、 前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させて 、ると きに前記ビデオ画像を解析し、前記複数のタツチポイントの ヽずれかに対する仮想 的なタツチを順次検出する処理、
前記仮想的なタツチにより、所定数のタツチポイントが所定の順番でタツチがされる と、所定の入力があったものとして受け付ける処理。
[9] 情報処理システムであって、
プレーヤーに対して、仮想的なタツチの対象となる複数のタツチポイントを示すコン ピュータ画像を生成する手段と、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段と、 前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制 御手段と、
前記コンピュータ画像が表示されて ヽるときのビデオ画像を解析し、前記複数のタ ツチポイントのいずれかに対する仮想的なタツチを検出する手段と、
前記検出手段により、複数のタツチポイントに連続的に前記仮想的なタツチがされ たことが検出されると、連続して前記仮想的なタツチがされたタツチポイント同士を結 ぶオブジェクトの表示を行なうオブジェクト表示手段と、を備える。
[10] 請求項 9に記載の情報処理システムであって、
前記オブジェクト表示手段は、 V、ずれかのタツチポイントに前記仮想的なタツチがさ れると、直前に前記仮想的なタツチがされたタツチポイントとを結ぶオブジェクトの表 示を行なう。
[11] 請求項 9に記載の情報処理システムであって、
前記オブジェクト表示手段は、所定の順序で所定のタツチポイントに仮想的なタツ チがされると、連続して仮想的なタツチがされたタツチポイント同士を結ぶオブジェクト の表示を行なう。
[12] 請求項 9に記載の情報処理システムであって、
前記タツチポイントを結ぶオブジェクトは、光を模擬したラインである。
[13] コンピュータプログラムを記録した記録媒体であって、
前記コンピュータプログラムは、コンピュータを以下の手段として機能させる。
プレーヤーに対して、仮想的なタツチの対象となる複数のタツチポイントを示すコン ピュータ画像を生成する手段、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を受け付ける手段、 前記ビデオ画像と、前記コンピュータ画像とを重ねて表示装置に表示させる表示制 御手段、
前記コンピュータ画像が表示されて ヽるときのビデオ画像を解析し、前記複数のタ ツチポイントのいずれかに対する仮想的なタツチを検出する手段、
前記検出手段により、複数のタツチポイントに連続的に前記仮想的なタツチがされ たことが検出されると、連続して前記仮想的なタツチがされたタツチポイント同士を結 ぶオブジェクトの表示を行なうオブジェクト表示手段。
[14] コンピュータ画像生成部と画像入力部と重畳画像生成部と判定部とを有する情報処 理装置における入力インタフェース制御方法であって、
プレーヤーに対して、仮想的なタツチの対象となる複数のタツチポイントを示すコン ピュータ画像をコンピュータ画像生成部が生成するステップと、
撮影手段で前記プレーヤーを撮影したビデオ画像の入力を画像入力部が受け付 けるステップと、
重畳画像生成部が、前記ビデオ画像と前記コンピュータ画像とを重ねて表示装置 に表示させる表示ステップと、
判定部が、前記コンピュータ画像が表示されているときのビデオ画像を解析し、前 記複数のタツチポイントのいずれかに対する仮想的なタツチを検出するステップと、 複数のタツチポイントに連続的に前記仮想的なタツチがされたことが検出されると、 コンピュータ画像生成部が、連続して前記仮想的なタツチがされたタツチポイント同 士を結ぶオブジェクトの表示を行なうオブジェクト表示ステップとを有する。
PCT/JP2005/000038 2004-01-06 2005-01-05 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法 WO2005065798A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005516871A JP4824409B2 (ja) 2004-01-06 2005-01-05 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
US10/585,465 US8345001B2 (en) 2004-01-06 2005-01-05 Information processing system, entertainment system, and information processing system input accepting method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-000876 2004-01-06
JP2004000876 2004-01-06
JP2004122975 2004-04-19
JP2004-122975 2004-04-19

Publications (1)

Publication Number Publication Date
WO2005065798A1 true WO2005065798A1 (ja) 2005-07-21

Family

ID=34752071

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000038 WO2005065798A1 (ja) 2004-01-06 2005-01-05 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法

Country Status (3)

Country Link
US (1) US8345001B2 (ja)
JP (1) JP4824409B2 (ja)
WO (1) WO2005065798A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001750A1 (ja) * 2010-06-28 2012-01-05 株式会社ソニー・コンピュータエンタテインメント ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP2013056125A (ja) * 2011-09-09 2013-03-28 Sony Computer Entertainment Inc ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP2014149856A (ja) * 2007-07-27 2014-08-21 Qualcomm Inc 高度なカメラをベースとした入力

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8373654B2 (en) * 2010-04-29 2013-02-12 Acer Incorporated Image based motion gesture recognition method and system thereof
JP5627973B2 (ja) * 2010-09-24 2014-11-19 任天堂株式会社 ゲーム処理をするためのプログラム、装置、システムおよび方法
US20130117698A1 (en) * 2011-10-31 2013-05-09 Samsung Electronics Co., Ltd. Display apparatus and method thereof
JP6518689B2 (ja) * 2014-11-21 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント プログラムおよび情報処理装置
CN109643468B (zh) * 2016-08-19 2023-10-20 索尼公司 图像处理装置和图像处理方法
CN113920547A (zh) * 2021-12-14 2022-01-11 成都考拉悠然科技有限公司 一种基于神经网络的手套检测方法及其系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2000010696A (ja) * 1998-06-22 2000-01-14 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001321564A (ja) * 1999-09-07 2001-11-20 Sega Corp ゲーム装置、これに使用する入力手段、及び記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2000010696A (ja) * 1998-06-22 2000-01-14 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001321564A (ja) * 1999-09-07 2001-11-20 Sega Corp ゲーム装置、これに使用する入力手段、及び記憶媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149856A (ja) * 2007-07-27 2014-08-21 Qualcomm Inc 高度なカメラをベースとした入力
US10268339B2 (en) 2007-07-27 2019-04-23 Qualcomm Incorporated Enhanced camera-based input
US10509536B2 (en) 2007-07-27 2019-12-17 Qualcomm Incorporated Item selection using enhanced control
US11500514B2 (en) 2007-07-27 2022-11-15 Qualcomm Incorporated Item selection using enhanced control
US11960706B2 (en) 2007-07-27 2024-04-16 Qualcomm Incorporated Item selection using enhanced control
WO2012001750A1 (ja) * 2010-06-28 2012-01-05 株式会社ソニー・コンピュータエンタテインメント ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP2013056125A (ja) * 2011-09-09 2013-03-28 Sony Computer Entertainment Inc ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
US9072968B2 (en) 2011-09-09 2015-07-07 Sony Corporation Game device, game control method, and game control program for controlling game on the basis of a position input received via touch panel

Also Published As

Publication number Publication date
US8345001B2 (en) 2013-01-01
JPWO2005065798A1 (ja) 2007-07-26
US20090174652A1 (en) 2009-07-09
JP4824409B2 (ja) 2011-11-30

Similar Documents

Publication Publication Date Title
JP3725460B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
TWI469813B (zh) 在動作擷取系統中追踪使用者群組
US8081822B1 (en) System and method for sensing a feature of an object in an interactive video display
JP2006518237A (ja) データ処理の制御
US20070126874A1 (en) Image processing device, image processing method, and information storage medium
JP2006520213A (ja) データ処理の制御
JP4005060B2 (ja) 情報処理システム、プログラムおよびゲームキャラクタ移動制御方法
JP4824409B2 (ja) 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
JP2010137097A (ja) ゲーム装置および情報記憶媒体
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4809655B2 (ja) 画像表示装置、画像表示装置の制御方法及びプログラム
JP3819911B2 (ja) エンタテインメント装置
KR200239844Y1 (ko) 인공시각과 패턴인식을 이용한 체감형 게임 장치.
JP2004280856A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
WO2009144968A1 (ja) 画像処理装置、画像処理方法及び情報記憶媒体
JP3853796B2 (ja) 情報処理装置およびエンタテインメント装置
KR100694283B1 (ko) 이미지 프로세싱을 이용한 pc 기반의 영상 인식 방법
JP2024154183A (ja) 情報処理装置、情報処理方法、及びプログラム
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005319193A (ja) 画像処理システム、プログラム、情報記憶媒体および画像処理方法
JP2005319192A (ja) 画像処理システム、プログラム、情報記憶媒体および画像処理方法
WO2014101219A1 (zh) 一种动作识别方法及电视机

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005516871

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 10585465

Country of ref document: US

122 Ep: pct application non-entry in european phase