[go: up one dir, main page]

JP6969516B2 - Programs and information processing equipment - Google Patents

Programs and information processing equipment Download PDF

Info

Publication number
JP6969516B2
JP6969516B2 JP2018139081A JP2018139081A JP6969516B2 JP 6969516 B2 JP6969516 B2 JP 6969516B2 JP 2018139081 A JP2018139081 A JP 2018139081A JP 2018139081 A JP2018139081 A JP 2018139081A JP 6969516 B2 JP6969516 B2 JP 6969516B2
Authority
JP
Japan
Prior art keywords
user
input
screen
character
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018139081A
Other languages
Japanese (ja)
Other versions
JP2019051297A (en
JP2019051297A5 (en
Inventor
慎平 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017178172A external-priority patent/JP6418299B1/en
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2018139081A priority Critical patent/JP6969516B2/en
Publication of JP2019051297A publication Critical patent/JP2019051297A/en
Publication of JP2019051297A5 publication Critical patent/JP2019051297A5/en
Application granted granted Critical
Publication of JP6969516B2 publication Critical patent/JP6969516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.

ユーザーの操作対象となるオブジェクトが表示された画面上に複数の操作ボタンを配置し、ユーザーがタッチパネルを用いて画面上の操作ボタンに対するタッチ操作を行なうことによって、その操作ボタンに対応付けられた動作をオブジェクトに行なわせる情報処理装置が知られている(たとえば、特許文献1)。 By arranging multiple operation buttons on the screen on which the object to be operated by the user is displayed and the user performing a touch operation on the operation button on the screen using the touch panel, the operation associated with the operation button is performed. There is known an information processing device that causes an object to perform the above (for example, Patent Document 1).

特許第5879007号公報Japanese Patent No. 5879007

このような情報処理装置では、画面上に操作ボタンを多く配置するほど、その画面に表示されるオブジェクトに様々な動作等を行なわせることができる。しかしながら、画面上に多くの操作ボタンを配置することで、そのオブジェクトが見えにくくなってしまう場合があった。そのため、このような画面上のボタン配置がゲーム操作の妨げになってしまい、操作性を低下させるおそれがあった。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、操作性を向上させることにある。
In such an information processing device, the more operation buttons are arranged on the screen, the more various operations can be performed on the object displayed on the screen. However, by arranging many operation buttons on the screen, the object may be difficult to see. Therefore, such a button arrangement on the screen hinders the game operation, and there is a possibility that the operability may be deteriorated.
The present invention has been made in view of such circumstances, and an object thereof is to improve operability.

上記課題を解決するための本発明の主たる発明は、
仮想ゲーム空間に配置されるオブジェクトのゲーム画像を生成する画像生成部と、
前記ゲーム画像が表示された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する接触面積決定部と、
決定された接触面積の大きさに基づいて、第1操作及び第2操作のいずれかの入力であるかを判定する操作入力判定部と、
第1操作が入力された場合に前記オブジェクトに関する第1制御を行ない、第2操作が入力された場合には前記オブジェクトに関する第2制御を行なうオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
このような情報処理装置によれば、ユーザーが1つのタッチ操作を行なう際に、その接触面積の大きさを変更するだけで、第1操作及び第2操作の2つの入力を使い分けることができる。そのため、画面上に配置させる操作ボタンを減らすことができるようになるので、オブジェクトが見やすくなりその操作性を向上させることができる。
The main invention of the present invention for solving the above problems is
An image generator that generates game images of objects placed in the virtual game space,
A touch panel that detects the user's touch operation on the screen on which the game image is displayed, and
A contact area determination unit that determines the contact area at an instruction position on the screen instructed by a user's touch operation based on the detection signal from the touch panel.
An operation input determination unit that determines whether the input is one of the first operation and the second operation based on the size of the determined contact area, and the operation input determination unit.
An object control unit that performs the first control on the object when the first operation is input, and performs the second control on the object when the second operation is input.
It is an information processing device characterized by being equipped with.
According to such an information processing device, when the user performs one touch operation, the two inputs of the first operation and the second operation can be properly used only by changing the size of the contact area. Therefore, the number of operation buttons arranged on the screen can be reduced, so that the object can be easily seen and its operability can be improved.

また、前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの第1動作を制御し、第2操作が入力された場合には、前記オブジェクトに関する第2制御として、前記オブジェクトの第2動作の制御を行なうことが望ましい。
これにより、ユーザーがタッチ操作を行なう際に、その接触面積の大きさを変更するだけで、オブジェクトの第1動作と第2動作を切り替えながら操作できるようになる。そのため、オブジェクトに第1動作を行なわせるための操作ボタンとオブジェクトに第2動作を行なわせるための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the object control unit controls the first operation of the object as the first control regarding the object when the first operation is input, and when the second operation is input, the object is related to the object. As the second control, it is desirable to control the second operation of the object.
As a result, when the user performs a touch operation, the user can operate the object while switching between the first operation and the second operation simply by changing the size of the contact area. Therefore, it is not necessary to arrange the operation buttons for causing the object to perform the first operation and the operation buttons for causing the object to perform the second operation on the screen, which makes the object easier to see and improves its operability. be able to.

また、前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの第1動作を制御し、第2操作が入力された場合には、前記オブジェクトに関する第2制御として、前記オブジェクトの前記第1動作と共に、前記第1動作と異なる第2動作の制御を行なうことが望ましい。
これにより、オブジェクトに第1動作だけを行なわせたいときや、オブジェクトに第1動作及び第2動作の双方を行なわせたいときにも、ユーザーはその接触面積の大きさを変更させてタッチ操作を行なうだけで済む。また、オブジェクトに第1動作だけを行なわせるための操作ボタンとオブジェクトに第1動作及び第2動作の双方を行なわせるための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the object control unit controls the first operation of the object as the first control regarding the object when the first operation is input, and when the second operation is input, the object is related to the object. As the second control, it is desirable to control the first operation of the object and the second operation different from the first operation.
As a result, even when the object wants to perform only the first operation or the object wants to perform both the first operation and the second operation, the user changes the size of the contact area and performs a touch operation. All you have to do is do it. In addition, it is not necessary to arrange the operation buttons for causing the object to perform only the first operation and the operation buttons for causing the object to perform both the first operation and the second operation on the screen, so that the object is easy to see. The operability can be improved.

また、前記操作入力判定部は、ユーザーのタッチ操作により指示される画面上の指示位置が所定方向へ移動することによってスライド操作が入力されたか否かを判定し、
前記オブジェクト制御部は、スライド操作と第1操作が入力された場合に、前記所定方向に応じて前記第1動作を制御し、スライド操作と第2操作が入力された場合には、前記所定方向に応じた前記第2動作の制御を行なうことが望ましい。
これにより、第1操作及び第2操作の2つの入力それぞれに対してスライド操作入力を組み合せることで、簡単な操作入力でオブジェクトが行う動作のバリエーションを増やすことができる。
Further, the operation input determination unit determines whether or not a slide operation has been input by moving the instruction position on the screen instructed by the user's touch operation in a predetermined direction.
The object control unit controls the first operation according to the predetermined direction when the slide operation and the first operation are input, and when the slide operation and the second operation are input, the object control unit controls the predetermined direction. It is desirable to control the second operation according to the above.
As a result, by combining the slide operation input for each of the two inputs of the first operation and the second operation, it is possible to increase the variation of the operation performed by the object with a simple operation input.

また、前記画像生成部は、仮想ゲーム空間に配置されるオブジェクトを仮想カメラから見たときのゲーム画像を生成するものであり、
前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラの制御を行ない、第2操作が入力された場合には、前記オブジェクトの動作を制御することが望ましい。
これにより、ユーザーがタッチ操作を行なう際に、その接触面積の大きさを変更するだけで、仮想カメラの動作とオブジェクトの動作を切り替えながら操作できるようになる。そのため、仮想カメラの動作のための操作ボタンとオブジェクトの動作のための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the image generation unit generates a game image when an object arranged in the virtual game space is viewed from a virtual camera.
When the first operation is input, the object control unit controls the virtual camera so that the appearance of the virtual game space when viewed from the viewpoint of the object changes as the first control regarding the object. When the second operation is input, it is desirable to control the operation of the object.
As a result, when the user performs a touch operation, the operation can be performed while switching between the operation of the virtual camera and the operation of the object simply by changing the size of the contact area. Therefore, it is not necessary to arrange the operation buttons for the operation of the virtual camera and the operation buttons for the operation of the object on the screen, so that the object can be easily seen and the operability can be improved.

また、前記画像生成部は、仮想ゲーム空間に配置されるオブジェクトを仮想カメラから見たときのゲーム画像を生成するものであり、
前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラの制御を行ない、第2操作が入力された場合には、前記オブジェクトに関する第2制御として、前記オブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラの制御を行なうと共に、前記オブジェクトの動作を制御することが望ましい。
これにより、仮想カメラを動作させたいときや、仮想カメラの動作に加えてオブジェクトにも動作させたいときにも、ユーザーはその接触面積の大きさを変更させてタッチ操作を行なうだけで済む。また、仮想カメラの動作のための操作ボタンと仮想カメラ及びオブジェクトの動作のための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the image generation unit generates a game image when an object arranged in the virtual game space is viewed from a virtual camera.
When the first operation is input, the object control unit controls the virtual camera so that the appearance of the virtual game space when viewed from the viewpoint of the object changes as the first control regarding the object. When the second operation is input, as the second control regarding the object, the virtual camera is controlled so that the appearance of the virtual game space when viewed from the viewpoint of the object is changed, and the operation of the object is performed. It is desirable to control.
As a result, when the user wants to operate the virtual camera, or when he / she wants to operate the object in addition to the operation of the virtual camera, the user only has to change the size of the contact area and perform a touch operation. Further, since it is not necessary to arrange the operation buttons for the operation of the virtual camera and the operation buttons for the operation of the virtual camera and the object on the screen, the object can be easily seen and the operability thereof can be improved.

また、前記操作入力判定部は、ユーザーのタッチ操作により指示される画面上の指示位置が所定方向へ移動することによってスライド操作が入力されたか否かを判定し、
前記オブジェクト制御部は、スライド操作と第1操作が入力された場合に、前記所定方向に応じて前記仮想カメラの制御を行ない、スライド操作と第2操作が入力された場合には、前記所定方向に応じてオブジェクトの前記動作を制御することが望ましい。
これにより、第1操作及び第2操作の2つの入力それぞれに対してスライド操作入力を組み合せることで、簡単な操作入力でオブジェクトが行う動作のバリエーションを増やすことができる。
Further, the operation input determination unit determines whether or not a slide operation has been input by moving the instruction position on the screen instructed by the user's touch operation in a predetermined direction.
The object control unit controls the virtual camera according to the predetermined direction when the slide operation and the first operation are input, and when the slide operation and the second operation are input, the object control unit controls the virtual camera in the predetermined direction. It is desirable to control the behavior of the object according to the above.
As a result, by combining the slide operation input for each of the two inputs of the first operation and the second operation, it is possible to increase the variation of the operation performed by the object with a simple operation input.

また、前記接触面積決定部は、ユーザーのタッチ操作により指示される画面上の第1領域での指示位置における接触面積を決定すると共に、ユーザーのタッチ操作により指示される画面上の第2領域での指示位置における接触面積を決定し、
前記操作入力判定部は、画面上の第1領域での指示位置における接触面積の大きさに基づいて第1操作及び第2操作のいずれかの入力であるか判定する共に、画面上の第2領域での指示位置における接触面積の大きさに基づいて第1操作及び第2操作のいずれかの入力であるか判定することが望ましい。
これにより、画面上の操作領域である第1領域と第2領域を区別して設けることによって、その領域毎に第1操作及び第2操作を入力できるようになる。
Further, the contact area determination unit determines the contact area at the designated position in the first area on the screen instructed by the user's touch operation, and in the second area on the screen instructed by the user's touch operation. Determine the contact area at the indicated position of
The operation input determination unit determines whether the input is one of the first operation and the second operation based on the size of the contact area at the designated position in the first area on the screen, and the second operation on the screen. It is desirable to determine whether the input is one of the first operation and the second operation based on the size of the contact area at the indicated position in the region.
As a result, by separately providing the first area and the second area, which are the operation areas on the screen, the first operation and the second operation can be input for each area.

また、コンピューターを、
仮想ゲーム空間に配置されるオブジェクトのゲーム画像を生成する画像生成手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する接触面積決定手段、
決定された接触面積の大きさに基づいて、第1操作及び第2操作のいずれかの入力であるかを判定する操作入力判定手段、
第1操作が入力された場合に前記オブジェクトに関する第1制御を行ない、第2操作が入力された場合には前記オブジェクトに関する第2制御を行なうオブジェクト制御手段、
として機能させるためのプログラムである。
このようなプログラムによれば、操作性を向上させることが可能となる。
Also, the computer
Image generation means, which generates game images of objects placed in virtual game space,
A contact area determining means for determining a contact area at a designated position on the screen instructed by a user's touch operation based on a detection signal from the touch panel.
An operation input determination means for determining whether the input is one of the first operation and the second operation based on the size of the determined contact area.
An object control means that performs the first control on the object when the first operation is input, and performs the second control on the object when the second operation is input.
It is a program to function as.
According to such a program, it is possible to improve the operability.

本実施形態に係る情報処理システム1の一例を示す構成図である。It is a block diagram which shows an example of the information processing system 1 which concerns on this embodiment. 本実施形態に係るコンピューター50の一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the computer 50 which concerns on this embodiment. 本実施形態に係るクライアント端末10の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the client terminal 10 which concerns on this embodiment. 本実施形態に係るクライアント端末10の一例を示す外観図である。It is an external view which shows an example of the client terminal 10 which concerns on this embodiment. ユーザーがタッチパネルを用いて行なうタッチ操作について説明する図である。図5Aは、ユーザーが第1操作を行なうときの操作状態を示す図である。図5Bは、ユーザーが第2操作を行なうときの操作状態を示す図である。It is a figure explaining the touch operation performed by a user using a touch panel. FIG. 5A is a diagram showing an operation state when the user performs the first operation. FIG. 5B is a diagram showing an operation state when the user performs the second operation. 本実施形態におけるクライアント端末10の動作例(その1)について説明するフローチャートである。It is a flowchart explaining the operation example (the 1) of the client terminal 10 in this embodiment. 本実施形態におけるクライアント端末10の動作例(その2)について説明するフローチャートである。It is a flowchart explaining the operation example (the 2) of the client terminal 10 in this embodiment. 本実施形態に係るクライアント端末10の他の例を示す外観図である。It is an external view which shows the other example of the client terminal 10 which concerns on this embodiment.

以下では、本発明の実施形態に係る情報処理装置、プログラム及び情報処理システムについて詳細に説明する。なお、本発明はタッチパネルでプレイ可能なゲームを採用する情報処理装置、プログラム及び情報処理システム等に広く適用できる。 Hereinafter, the information processing apparatus, program, and information processing system according to the embodiment of the present invention will be described in detail. The present invention can be widely applied to information processing devices, programs, information processing systems, and the like that employ games that can be played on a touch panel.

[実施形態]
<システム構成>
図1は、本実施形態に係る情報処理システム1の一例を示す構成図である。図1に示すように、本実施形態に係る情報処理システム1は、1台以上のクライアント端末10とサーバー装置20とがネットワークNを介して接続されている。
[Embodiment]
<System configuration>
FIG. 1 is a configuration diagram showing an example of an information processing system 1 according to the present embodiment. As shown in FIG. 1, in the information processing system 1 according to the present embodiment, one or more client terminals 10 and a server device 20 are connected via a network N.

クライアント端末10は、ユーザーが操作するスマートフォン、タブレット、PCなどの端末装置や、家庭用や業務用のゲーム専用機器などの端末装置である。サーバー装置20は、クライアント端末10でユーザーにより行われるゲームの管理や制御、ゲーム内での課金処理等を行う。ネットワークNは、インターネット等であって、移動無線基地局などを含む。 The client terminal 10 is a terminal device such as a smartphone, a tablet, or a PC operated by a user, or a terminal device such as a game-dedicated device for home or business use. The server device 20 manages and controls the game performed by the user on the client terminal 10, and performs in-game billing processing and the like. The network N is the Internet or the like, and includes a mobile radio base station or the like.

なお、本発明は図1に示すクライアント・サーバー型の情報処理システム1の他、ゲーム内での課金処理を行う仕組みを別途設けることで単体のゲーム装置(情報処理装置)においても適用可能である。図1の情報処理システム1は一例であって用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、図1のサーバー装置20は複数のコンピューターに分散して構成してもよい。 In addition to the client-server type information processing system 1 shown in FIG. 1, the present invention can be applied to a single game device (information processing device) by separately providing a mechanism for performing in-game billing processing. .. It goes without saying that the information processing system 1 of FIG. 1 is an example, and there are various system configuration examples depending on the application and purpose. For example, the server device 20 of FIG. 1 may be distributed and configured in a plurality of computers.

<ハードウェア構成>
《クライアント端末》
図2は、本実施形態に係るコンピューター50の一例を示すハードウェア構成図である。本実施形態に係るクライアント端末10は、例えば図2に示すハードウェア構成のコンピューター50により実現される。なお、コンピューター50は情報処理装置の一例である。
<Hardware configuration>
《Client terminal》
FIG. 2 is a hardware configuration diagram showing an example of the computer 50 according to the present embodiment. The client terminal 10 according to the present embodiment is realized by, for example, a computer 50 having a hardware configuration shown in FIG. The computer 50 is an example of an information processing device.

コンピューター50は、図2に示すように、CPU51と、RAM52と、ROM53と、通信インタフェース54と、入力装置55と、表示装置56と、外部インタフェース57と、HDD58などを備えており、それぞれがバスラインBによって相互に接続されている。 As shown in FIG. 2, the computer 50 includes a CPU 51, a RAM 52, a ROM 53, a communication interface 54, an input device 55, a display device 56, an external interface 57, an HDD 58, and the like, each of which is a bus. They are connected to each other by line B.

CPU51は、ROM53やHDD58などの記憶装置からプログラムやデータをRAM52上に読み出し、読み出したプログラムやデータに基づく各種処理を実行することによって、コンピューター全体の制御や機能を実現する演算装置である。 The CPU 51 is an arithmetic unit that realizes control and functions of the entire computer by reading programs and data from storage devices such as ROM 53 and HDD 58 onto the RAM 52 and executing various processes based on the read programs and data.

RAM52は、プログラムやデータを一時保持するための揮発性の半導体メモリ(記憶装置)の一例であり、CPU51が各種処理を実行する際のワークエリアとしても利用される。 The RAM 52 is an example of a volatile semiconductor memory (storage device) for temporarily holding a program or data, and is also used as a work area when the CPU 51 executes various processes.

ROM53は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM53には、コンピューター50の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。 The ROM 53 is an example of a non-volatile semiconductor memory (storage device) capable of holding programs and data even when the power is turned off. The ROM 53 stores programs and data such as BIOS, OS settings, and network settings that are executed when the computer 50 starts up.

通信インタフェース54は、コンピューター50をネットワークNに接続するためのインタフェースである。これにより、コンピューター50は通信インタフェース54を介してデータ通信を行うことができる。 The communication interface 54 is an interface for connecting the computer 50 to the network N. As a result, the computer 50 can perform data communication via the communication interface 54.

入力装置55は、ユーザー又は管理者が各種信号を入力するのに用いる装置である。入力装置55は、例えば、タッチパネル、操作キーやボタン、キーボードやマウスなどの操作装置である。 The input device 55 is a device used by a user or an administrator to input various signals. The input device 55 is, for example, an operation device such as a touch panel, operation keys and buttons, a keyboard and a mouse.

本実施形態におけるクライアント端末10は、少なくともタッチパネルを有している。タッチパネルは、表示装置56の上に積層される静電容量式のパネルによって構成されている。このタッチパネルでは、ユーザーの指やタッチペン等によるタッチ操作が行われると、格子状に配列されている透明電極が静電容量の変化を検出してその検出信号を出力する。本実施形態においては、静電容量の変化が生じた透明電極の範囲から決まる重心位置が、画面上での指示位置(接触位置)として特定される。また、静電容量の変化が生じた透明電極の範囲が、画面上の指示位置における接触面積として特定される。 The client terminal 10 in this embodiment has at least a touch panel. The touch panel is composed of a capacitive panel laminated on the display device 56. In this touch panel, when a touch operation is performed with a user's finger or a touch pen, transparent electrodes arranged in a grid pattern detect a change in capacitance and output the detection signal. In the present embodiment, the position of the center of gravity determined from the range of the transparent electrode in which the change in capacitance has occurred is specified as the designated position (contact position) on the screen. Further, the range of the transparent electrode in which the capacitance is changed is specified as the contact area at the indicated position on the screen.

表示装置56は、タッチパネルを用いてゲームプレイを行なうユーザーに対して各種情報を画面表示するための装置である。表示装置56は、例えば、液晶や有機ELなどのディスプレイである。 The display device 56 is a device for displaying various information on the screen to a user who plays a game using a touch panel. The display device 56 is, for example, a display such as a liquid crystal display or an organic EL.

外部インタフェース57は、外部装置とデータ通信可能に接続するためのインタフェースである。これにより、コンピューター50は外部インタフェース57を介して記録媒体の読み取り及び/又は書き込みを行うことができる。外部装置は、例えば、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどの記録媒体である。 The external interface 57 is an interface for connecting to an external device so as to be capable of data communication. As a result, the computer 50 can read and / or write the recording medium via the external interface 57. The external device is, for example, a recording medium such as a flexible disk, a CD, a DVD, an SD memory card, or a USB memory.

HDD58は、プログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには、コンピューター全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。 The HDD 58 is an example of a non-volatile storage device that stores programs and data. The stored programs and data include an OS, which is basic software that controls the entire computer, and an application that provides various functions on the OS.

なお、HDD58に替えて、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用してもよい。 Instead of the HDD 58, a drive device (for example, a solid state drive: SSD) that uses a flash memory as a storage medium may be used.

本実施形態に係るクライアント端末10は、上述したハードウェア構成のコンピューター50においてプログラムを実行することにより、後述するような各種処理を実現することができる。 The client terminal 10 according to the present embodiment can realize various processes as described later by executing a program on the computer 50 having the hardware configuration described above.

<ソフトウェア構成>
《クライアント端末》
図3は、本実施形態に係るクライアント端末10の一例を示す機能ブロック図である。本実施形態に係るクライアント端末10は、例えば図3に示す機能ブロックにより実現される。
<Software configuration>
《Client terminal》
FIG. 3 is a functional block diagram showing an example of the client terminal 10 according to the present embodiment. The client terminal 10 according to the present embodiment is realized by, for example, the functional block shown in FIG.

本実施形態に係るクライアント端末10は、プログラムを実行することにより、制御部100と、記憶部120と、通信部140と、操作受付部150と、画面表示部160を実現する。 The client terminal 10 according to the present embodiment realizes a control unit 100, a storage unit 120, a communication unit 140, an operation reception unit 150, and a screen display unit 160 by executing a program.

制御部100は、クライアント端末10における各種処理を実行する機能を有する。この制御部100は、ゲーム実行部101と、指示位置決定部102と、接触面積決定部103と、操作入力判定部104と、オブジェクト制御部105と、画像生成部106を含む。 The control unit 100 has a function of executing various processes in the client terminal 10. The control unit 100 includes a game execution unit 101, an instruction position determination unit 102, a contact area determination unit 103, an operation input determination unit 104, an object control unit 105, and an image generation unit 106.

ゲーム実行部101は、クライアント端末10がユーザーから受け付けたゲーム操作に基づき、クライアント端末10でプレイ可能な各種ゲーム(アクションゲーム等)の進行を制御する。 The game execution unit 101 controls the progress of various games (action games, etc.) that can be played on the client terminal 10 based on the game operation received from the user by the client terminal 10.

指示位置決定部102は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置を決定する。具体的には、指示位置決定部102は、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の位置に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置(接触位置)を決定する。 The instruction position determination unit 102 determines the instruction position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Specifically, the instruction position determination unit 102 is instructed by a user's touch operation on the screen based on the position of the transparent electrode in which the capacitance is changed among the transparent electrodes arranged in a grid pattern. Determine the designated position (contact position).

接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。具体的には、接触面積決定部103は、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の範囲に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積(例えば、円の中心位置とその半径)を決定する。 The contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Specifically, the contact area determination unit 103 is instructed by a user's touch operation on the screen based on the range of the transparent electrodes in which the capacitance is changed among the transparent electrodes arranged in a grid pattern. The contact area at the indicated position (eg, the center position of the circle and its radius) is determined.

操作入力判定部104は、タッチパネルを用いてゲームプレイを行なうユーザーによって入力されたゲーム操作の種類を判定する。例えば、操作入力判定部104は、接触面積決定部103によって決定された画面上の指示位置における接触面積の大きさに基づいて、第1操作及び第2操作のいずれかの入力であるかを判定する。この第1操作及び第2操作については後述する。また例えば、ユーザーのタッチ操作により指示される画面上の指示位置が所定方向へ移動することによってスライド操作が入力されたか否かを判定する。 The operation input determination unit 104 determines the type of game operation input by the user who plays the game using the touch panel. For example, the operation input determination unit 104 determines whether the input is one of the first operation and the second operation based on the size of the contact area at the designated position on the screen determined by the contact area determination unit 103. do. The first operation and the second operation will be described later. Further, for example, it is determined whether or not the slide operation is input by moving the instruction position on the screen instructed by the user's touch operation in a predetermined direction.

オブジェクト制御部105は、仮想ゲーム空間に配置されるオブジェクトに関する制御を行なう。例えば、ユーザーのゲーム操作(第1操作や第2操作など)に基づいて、仮想ゲーム空間におけるオブジェクトの移動や攻撃等の動作を制御したり、そのオブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラを制御したりする。具体的には、オブジェクト制御部105は、仮想ゲーム空間(ワールド座標系)に配置されるオブジェクトの位置や方向等をフレーム毎(例えば、1/60秒毎)に制御する。また、オブジェクト制御部105は、仮想ゲーム空間(ワールド座標系)に配置されるオブジェクトの視点から見える画像を生成するための仮想カメラ(仮想視点)の視点位置、視方向、画角などを制御する。 The object control unit 105 controls the objects arranged in the virtual game space. For example, based on the user's game operation (first operation, second operation, etc.), the movement or attack of an object in the virtual game space can be controlled, or the virtual game space can be viewed from the viewpoint of the object. Control the virtual camera so that the situation changes. Specifically, the object control unit 105 controls the position, direction, and the like of the object arranged in the virtual game space (world coordinate system) for each frame (for example, every 1/60 second). Further, the object control unit 105 controls the viewpoint position, viewing direction, angle of view, etc. of the virtual camera (virtual viewpoint) for generating an image that can be seen from the viewpoint of the object arranged in the virtual game space (world coordinate system). ..

画像生成部106は、描画処理を行なうことによって仮想ゲーム空間に配置されるオブジェクトのゲーム画像を生成し画面表示部160に出力する。具体的には、画像生成部106は、ワールド座標系で表現される3次元座標(X、Y、Z)の仮想ゲーム空間にオブジェクトと仮想カメラを配置し、その仮想カメラを基準とする視点座標系への座標変換を行なう。そして、視点座標系に配置されたオブジェクトに対して透視変換等を行なって、その仮想カメラから見たときの仮想ゲーム空間の様子を2次元画像として生成する。また、画像生成部106は、光源処理などの補間処理や、オブジェクトにテクスチャをマッピングするための処理等も行なう。 The image generation unit 106 generates a game image of an object arranged in the virtual game space by performing drawing processing, and outputs the game image to the screen display unit 160. Specifically, the image generation unit 106 arranges an object and a virtual camera in a virtual game space of three-dimensional coordinates (X, Y, Z) represented by the world coordinate system, and the viewpoint coordinates based on the virtual camera. Perform coordinate conversion to the system. Then, perspective transformation or the like is performed on the object arranged in the viewpoint coordinate system, and the state of the virtual game space when viewed from the virtual camera is generated as a two-dimensional image. Further, the image generation unit 106 also performs interpolation processing such as light source processing, processing for mapping a texture to an object, and the like.

操作受付部150は、クライアント端末10を操作するユーザーからの操作を受け付ける。なお、本実施形態に係るクライアント端末10は前述したようにタッチパネルを備えるため、ユーザーからのタップ、スワイプ、フリック操作などのタッチパネルに特有な操作を受け付けることができる。 The operation reception unit 150 receives an operation from a user who operates the client terminal 10. Since the client terminal 10 according to the present embodiment is provided with a touch panel as described above, it is possible to accept operations peculiar to the touch panel such as tapping, swiping, and flicking operations from the user.

記憶部120は、インストールされたアプリケーション(ゲームアプリ等)やクライアント端末10において必要となる各種情報を記憶する。通信部140は、サーバー装置20との通信を行う。画面表示部160は、画像生成部106によって生成されたゲーム画像を取得してクライアント端末10にて画面表示を行う。 The storage unit 120 stores various information required for the installed application (game application or the like) or the client terminal 10. The communication unit 140 communicates with the server device 20. The screen display unit 160 acquires the game image generated by the image generation unit 106 and displays the screen on the client terminal 10.

なお、クライアント端末10の制御部100として、HTML(Hyper Text Markup Language)等で記載されたページデータやページデータ内に含まれるスクリプトなどをサーバー装置20から受信して、ゲームに関する処理を行うブラウザ型がある。また、クライアント端末10の制御部100として、インストールされたアプリケーションに基づいて、ゲームに関する処理を行うアプリケーション型がある。図3は一例としてアプリケーション型を示している。 As the control unit 100 of the client terminal 10, a browser type that receives page data described in HTML (Hyper Text Markup Language) or the like or a script included in the page data from the server device 20 and performs processing related to the game. There is. Further, as the control unit 100 of the client terminal 10, there is an application type that performs processing related to a game based on an installed application. FIG. 3 shows an application type as an example.

<操作方法の概要>
ここでは、本実施形態におけるクライアント端末10の操作方法の概要について、図4及び図5を用いて説明する。図4は、本実施形態に係るクライアント端末10の一例を示す外観図である。図5は、ユーザーがタッチパネルを用いて行なうタッチ操作について説明する図である。ここでは、ユーザーが第1操作を行なうときの操作状態を図5Aに示し、ユーザーが第2操作を行なうときの操作状態を図5Bに示している。
<Overview of operation method>
Here, an outline of the operation method of the client terminal 10 in the present embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is an external view showing an example of the client terminal 10 according to the present embodiment. FIG. 5 is a diagram illustrating a touch operation performed by the user using the touch panel. Here, the operation state when the user performs the first operation is shown in FIG. 5A, and the operation state when the user performs the second operation is shown in FIG. 5B.

本実施形態におけるクライアント端末10は、図4に示すように、画面上に積層されたタッチパネル500を有している。そして、クライアント端末10の画面には、オブジェクトの一例としてのキャラクター501が表示され、かつ、画面左側における左手用領域502(第1領域)に左手用ボタン503が表示されると共に、画面右側における右手用領域504(第2領域)には右手用ボタン505が表示されている。 As shown in FIG. 4, the client terminal 10 in the present embodiment has a touch panel 500 stacked on the screen. Then, the character 501 as an example of the object is displayed on the screen of the client terminal 10, the left hand button 503 is displayed in the left hand area 502 (first area) on the left side of the screen, and the right hand on the right side of the screen. A right-handed button 505 is displayed in the area 504 (second area).

キャラクター501については、ユーザーの操作に従って動作する状態がゲーム画面に表示される。左手用ボタン503及び右手用ボタン505については、その位置に固定された状態でゲーム画面上に配置されている。ユーザーは、左手用ボタン503及び右手用ボタン505のそれぞれに対し第1操作又は第2操作を行なうことによって、キャラクター501に動作させることができる。 For the character 501, the state of operating according to the user's operation is displayed on the game screen. The left-hand button 503 and the right-hand button 505 are arranged on the game screen in a state of being fixed at the positions. The user can operate the character 501 by performing the first operation or the second operation on each of the left-hand button 503 and the right-hand button 505.

本実施形態では、ユーザーは、図5Aに示すように、画面上の右手用ボタン505が配置された領域内に「指先」を接触させることによって第1操作を行なう(なお、左手用ボタン503でも同様に第1操作が可能である)。これに対して、図5Bに示すように、画面上の右手用ボタン505が配置された領域内に「指の腹」を接触させることによって第2操作を行なう(なお、左手用ボタン503でも同様に第2操作が可能である)。 In the present embodiment, as shown in FIG. 5A, the user performs the first operation by touching the "fingertip" in the area where the right-hand button 505 is arranged on the screen (note that the left-hand button 503 is also used). Similarly, the first operation is possible). On the other hand, as shown in FIG. 5B, the second operation is performed by touching the "finger pad" in the area on the screen where the right hand button 505 is arranged (the same applies to the left hand button 503). The second operation is possible).

すなわち、第1操作では「指先」を使って操作するのに対し第2操作では「指の腹」を使って操作することになるので、第1操作のときの「接触面積A」は第2操作のときの「接触面積B」よりも小さくなる。タッチパネル500は第1操作のときの「接触面積A」と第2操作のときの「接触面積B」をそれぞれ検出することができるので、それぞれの接触面積の大きさに応じたタッチ操作が認識されることになる。 That is, in the first operation, the operation is performed using the "fingertip", whereas in the second operation, the operation is performed using the "finger pad". Therefore, the "contact area A" in the first operation is the second. It is smaller than the "contact area B" at the time of operation. Since the touch panel 500 can detect the "contact area A" at the time of the first operation and the "contact area B" at the time of the second operation, the touch operation corresponding to the size of each contact area is recognized. Will be.

そして本実施形態では、ユーザーによって第1操作が行われた場合には、キャラクター501に関する第1制御が行われ、ユーザーによって第2操作が行われた場合には、キャラクター501に関する第2制御が行われるようになっている。例えば、アクションゲームの場合、左手用ボタン503が配置された領域内でユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクター501がゲームフィールドをゆっくり移動するように制御する一方で、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクター501がゲームフィールドを素早く移動(ダッシュ)するように制御することができる。そして、右手用ボタン505が配置された領域内でユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクター501の視点から見たときのゲームフィールドの様子が変化するように仮想カメラの制御が行われる一方で、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、ゲームフィールドに出現した対戦相手に対しキャラクター501が攻撃するように制御することができる。 Then, in the present embodiment, when the first operation is performed by the user, the first control regarding the character 501 is performed, and when the second operation is performed by the user, the second control regarding the character 501 is performed. It has come to be. For example, in the case of an action game, when the user performs the first operation (touch operation by "fingertip") in the area where the left hand button 503 is arranged, the character 501 is controlled to slowly move in the game field. Then, when the user performs the second operation (touch operation by "finger pad"), the character 501 can be controlled to move (dash) quickly in the game field. Then, when the user performs the first operation (touch operation by "fingertip") in the area where the right-hand button 505 is arranged, the appearance of the game field when viewed from the viewpoint of the character 501 is virtual. While the camera is controlled, when the user performs the second operation (touch operation by "finger pad"), the character 501 can be controlled to attack the opponent appearing in the game field. ..

このように、ユーザーが接触面積の大きさを変更させつつタッチ操作を行なうだけで、第1操作及び第2操作の2つの入力を使い分けることができる。そのため、第1操作に対応する操作ボタンと第2操作に対応する操作ボタンの双方を画面上に並べて配置させる必要がなくなるので、オブジェクトが見やすくなって操作しやすくなる。また、ユーザーが画面にタッチしたままその接触面積の大きさを変更する操作を行なうだけで、第1操作及び第2操作の2つの入力を即座に切り替えることも可能となる。そのため、長押し操作のように、切り替えのためにタッチしたまま長く待機したり、いったん画面から指を離して入力操作を切り替えたりする必要がなくなるので、操作性を向上させることができる。また、圧力操作のように、切り替えのために強弱の加減を気にしながら操作する必要もないので、操作性を向上させることができる。 In this way, the user can properly use the two inputs of the first operation and the second operation only by performing the touch operation while changing the size of the contact area. Therefore, it is not necessary to arrange both the operation buttons corresponding to the first operation and the operation buttons corresponding to the second operation side by side on the screen, so that the object is easy to see and operate. Further, it is possible to immediately switch between the two inputs of the first operation and the second operation simply by performing an operation of changing the size of the contact area while the user touches the screen. Therefore, unlike the long-press operation, it is not necessary to wait for a long time while touching for switching, or to switch the input operation by releasing the finger from the screen once, so that the operability can be improved. Further, unlike the pressure operation, it is not necessary to operate while paying attention to the adjustment of the strength for switching, so that the operability can be improved.

<動作>
《具体例1》
図6は、本実施形態におけるクライアント端末10の動作例(その1)について説明するフローチャートである。
<Operation>
<< Specific example 1 >>
FIG. 6 is a flowchart illustrating an operation example (No. 1) of the client terminal 10 in the present embodiment.

クライアント端末10は、図4に示すようなゲーム画面の表示中に、タッチパネルを用いたユーザーのタッチ操作によって左手用ボタン503が選択されたか否かを判定する(ステップS11)。 The client terminal 10 determines whether or not the left-hand button 503 is selected by the user's touch operation using the touch panel during the display of the game screen as shown in FIG. 4 (step S11).

具体的には、指示位置決定部102は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置が左手用ボタン503の領域内に含まれているか否かを判定する。この判定により、左手用ボタン503の領域内に含まれている場合には、ユーザーのタッチ操作によって左手用ボタン503が選択されたものと決定される。 Specifically, the instruction position determination unit 102 determines the instruction position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the determined designated position on the screen is included in the area of the left hand button 503. By this determination, when it is included in the area of the left-handed button 503, it is determined that the left-handed button 503 is selected by the user's touch operation.

次に、クライアント端末10は、ユーザーのタッチ操作によって左手用ボタン503が選択されなかったと判定された場合に(ステップS11:NO)、後述するステップS16へ処理を進める一方で、ユーザーのタッチ操作によって左手用ボタン503が選択されたと判定された場合には(ステップS11:YES)、左手用ボタン503に対するタッチ操作が第1操作であるか否かを判定する(ステップS12)。 Next, when it is determined that the left-hand button 503 is not selected by the user's touch operation (step S11: NO), the client terminal 10 proceeds to the process to be described later in step S16, while the user's touch operation causes the client terminal 10 to proceed. When it is determined that the left-hand button 503 is selected (step S11: YES), it is determined whether or not the touch operation for the left-hand button 503 is the first operation (step S12).

具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えなかった場合には、左手用ボタン503に対するタッチ操作が第1操作であるものと決定される。 Specifically, the contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the size of the contact area at the determined designated position on the screen exceeds a preset threshold value. Based on this determination, if the threshold value is not exceeded, it is determined that the touch operation on the left hand button 503 is the first operation.

次に、クライアント端末10は、左手用ボタン503に対するタッチ操作が第1操作でないと判定された場合に(ステップS12:NO)、後述するステップS14へ処理を進める一方で、左手用ボタン503に対するタッチ操作が第1操作であると判定された場合には(ステップS12:YES)、キャラクター501に関する第1制御を行なう(ステップS13)。 Next, when the client terminal 10 determines that the touch operation for the left-hand button 503 is not the first operation (step S12: NO), the client terminal 10 proceeds with the process to step S14 described later, while touching the left-hand button 503. If it is determined that the operation is the first operation (step S12: YES), the first control regarding the character 501 is performed (step S13).

具体的には、オブジェクト制御部105は、左手用ボタン503に対する第1操作がユーザーによって行われると、キャラクター501に関する第1制御として、そのキャラクター501が第1動作を行なうように制御する。本実施形態では、キャラクター501の第1動作として、キャラクター501がゲームフィールドをゆっくりと低速移動するように制御する。 Specifically, when the user performs the first operation on the left-hand button 503, the object control unit 105 controls the character 501 to perform the first operation as the first control regarding the character 501. In the present embodiment, as the first operation of the character 501, the character 501 is controlled to slowly move at a low speed in the game field.

次に、クライアント端末10は、左手用ボタン503に対するタッチ操作が第1操作でないと判定された場合に(ステップS12:NO)、左手用ボタン503に対するタッチ操作が第2操作であるか否かを判定する(ステップS14)。 Next, when the client terminal 10 determines that the touch operation for the left-hand button 503 is not the first operation (step S12: NO), the client terminal 10 determines whether or not the touch operation for the left-hand button 503 is the second operation. Determination (step S14).

具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えた場合には、左手用ボタン503に対するタッチ操作が第2操作であるものと決定される。 Specifically, the contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the size of the contact area at the determined designated position on the screen exceeds a preset threshold value. By this determination, when the threshold value is exceeded, it is determined that the touch operation on the left hand button 503 is the second operation.

次に、クライアント端末10は、左手用ボタン503に対するタッチ操作が第2操作でないと判定された場合に(ステップS14:NO)、後述するステップS16へ処理を進める一方で、左手用ボタン503に対するタッチ操作が第2操作であると判定された場合には(ステップS14:YES)、キャラクター501に関する第2制御を行なう(ステップS15)。 Next, when the client terminal 10 determines that the touch operation for the left-hand button 503 is not the second operation (step S14: NO), the client terminal 10 proceeds to the process to be described later in step S16, while touching the left-hand button 503. When it is determined that the operation is the second operation (step S14: YES), the second control regarding the character 501 is performed (step S15).

具体的には、オブジェクト制御部105は、左手用ボタン503に対する第2操作がユーザーによって行われると、キャラクター501に関する第2制御として、そのキャラクター501が第2動作を行なうように制御する。本実施形態では、キャラクター501の第2動作として、キャラクター501がゲームフィールドを素早く高速移動するように制御する。 Specifically, when the user performs the second operation on the left-hand button 503, the object control unit 105 controls the character 501 to perform the second operation as the second control regarding the character 501. In the present embodiment, as the second operation of the character 501, the character 501 is controlled to move quickly and at high speed in the game field.

次に、クライアント端末10は、ユーザーのタッチ操作によって左手用ボタン503が選択されなかったと判定された場合に(ステップS11:NO)、タッチパネルを用いたユーザーのタッチ操作によって右手用ボタン505が選択されたか否かを判定する(ステップS16)。 Next, when it is determined that the left-hand button 503 is not selected by the user's touch operation (step S11: NO), the client terminal 10 selects the right-hand button 505 by the user's touch operation using the touch panel. It is determined whether or not it is (step S16).

具体的には、指示位置決定部102は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置が右手用ボタン505の領域内に含まれているか否かを判定する。この判定により、右手用ボタン505の領域内に含まれている場合には、ユーザーのタッチ操作によって右手用ボタン505が選択されたものと決定される。 Specifically, the instruction position determination unit 102 determines the instruction position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the determined designated position on the screen is included in the area of the right-hand button 505. By this determination, when it is included in the area of the right-handed button 505, it is determined that the right-handed button 505 is selected by the user's touch operation.

次に、クライアント端末10は、ユーザーのタッチ操作によって右手用ボタン505が選択されなかったと判定された場合に(ステップS16:NO)、この処理を終了する一方で、ユーザーのタッチ操作によって右手用ボタン505が選択されたと判定された場合には(ステップS16:YES)、右手用ボタン505に対するタッチ操作が第1操作であるか否かを判定する(ステップS17)。 Next, when it is determined that the right-handed button 505 is not selected by the user's touch operation (step S16: NO), the client terminal 10 ends this process, while the right-handed button is operated by the user's touch operation. When it is determined that 505 is selected (step S16: YES), it is determined whether or not the touch operation for the right-hand button 505 is the first operation (step S17).

具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えなかった場合には、右手用ボタン505に対するタッチ操作が第1操作であるものと決定される。 Specifically, the contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the size of the contact area at the determined designated position on the screen exceeds a preset threshold value. Based on this determination, if the threshold value is not exceeded, it is determined that the touch operation on the right-hand button 505 is the first operation.

次に、クライアント端末10は、右手用ボタン505に対するタッチ操作が第1操作でないと判定された場合に(ステップS17:NO)、後述するステップS19へ処理を進める一方で、右手用ボタン505に対するタッチ操作が第1操作であると判定された場合には(ステップS17:YES)、キャラクター501に関する第1制御を行なう(ステップS18)。 Next, when the client terminal 10 determines that the touch operation for the right-hand button 505 is not the first operation (step S17: NO), the client terminal 10 proceeds with the process to step S19 described later, while touching the right-hand button 505. If it is determined that the operation is the first operation (step S17: YES), the first control regarding the character 501 is performed (step S18).

具体的には、オブジェクト制御部105は、右手用ボタン505に対する第1操作がユーザーによって行われると、キャラクター501に関する第1制御として、そのキャラクター501が第1動作を行なうように制御する。本実施形態では、キャラクター501の第1動作として、キャラクター501の視点から見たときのゲームフィールドの様子が変化するように、ワールド座標系に配置される仮想カメラの視点位置・視方向・画角などに関して制御を行なう。 Specifically, when the user performs the first operation on the right-hand button 505, the object control unit 105 controls the character 501 to perform the first operation as the first control regarding the character 501. In the present embodiment, as the first operation of the character 501, the viewpoint position, viewing direction, and angle of view of the virtual camera arranged in the world coordinate system so that the appearance of the game field when viewed from the viewpoint of the character 501 changes. Controls such as.

次に、クライアント端末10は、右手用ボタン505に対するタッチ操作が第1操作でないと判定された場合に(ステップS17:NO)、右手用ボタン505に対するタッチ操作が第2操作であるか否かを判定する(ステップS19)。 Next, when the client terminal 10 determines that the touch operation for the right-hand button 505 is not the first operation (step S17: NO), the client terminal 10 determines whether or not the touch operation for the right-hand button 505 is the second operation. Determination (step S19).

具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えた場合には、右手用ボタン505に対するタッチ操作が第2操作であるものと決定される。 Specifically, the contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the size of the contact area at the determined designated position on the screen exceeds a preset threshold value. Based on this determination, when the threshold value is exceeded, it is determined that the touch operation on the right-hand button 505 is the second operation.

次に、クライアント端末10は、右手用ボタン505に対するタッチ操作が第2操作でないと判定された場合に(ステップS19:NO)、この処理を終了する一方で、右手用ボタン505に対するタッチ操作が第2操作であると判定された場合には(ステップS19:YES)、キャラクター501に関する第2制御を行なう(ステップS20)。 Next, when it is determined that the touch operation for the right-hand button 505 is not the second operation (step S19: NO), the client terminal 10 ends this process, while the touch operation for the right-hand button 505 is the second operation. If it is determined that the operation is two (step S19: YES), the second control regarding the character 501 is performed (step S20).

具体的には、オブジェクト制御部105は、右手用ボタン505に対する第2操作がユーザーによって行われると、キャラクター501に関する第2制御として、そのキャラクター501が第2動作を行なうように制御する。本実施形態では、キャラクター501の第2動作として、ゲームフィールドに出現した対戦相手に対しキャラクター501が攻撃するように制御することができる。また、これに代えて、キャラクター501の第2動作として、キャラクター501の視点から見たときのゲームフィールドの様子が変化するように仮想カメラの制御を行なうと共に、ゲームフィールドに出現した対戦相手に対しキャラクター501が攻撃するように制御することも可能である。 Specifically, when the user performs the second operation on the right-hand button 505, the object control unit 105 controls the character 501 to perform the second operation as the second control regarding the character 501. In the present embodiment, as the second operation of the character 501, it is possible to control the character 501 to attack the opponent appearing in the game field. Instead of this, as the second action of the character 501, the virtual camera is controlled so that the appearance of the game field when viewed from the viewpoint of the character 501 is changed, and the opponent who appears in the game field is controlled. It is also possible to control the character 501 to attack.

このように、ユーザーが接触面積の大きさを変更させつつタッチ操作を行なうだけで、第1操作及び第2操作の2つの入力を使い分けることができるので、その操作性を向上させることが可能となる。 In this way, the user can use the two inputs of the first operation and the second operation properly only by performing the touch operation while changing the size of the contact area, so that the operability can be improved. Become.

《具体例2》
図7は、本実施形態におけるクライアント端末10の動作例(その2)について説明するフローチャートである。具体例2では、上述した具体例1とは異なり、ユーザーが画面上の任意の位置に対してタッチ操作を行なった際に、第1操作及び第2操作の2つの入力を使い分けることができるようにした場合について説明する。
<< Specific example 2 >>
FIG. 7 is a flowchart illustrating an operation example (No. 2) of the client terminal 10 in the present embodiment. In the second embodiment, unlike the first embodiment described above, when the user performs a touch operation on an arbitrary position on the screen, the two inputs of the first operation and the second operation can be used properly. The case of setting is explained.

クライアント端末10は、ゲーム画面の表示中に、タッチパネルを用いたユーザーのタッチ操作によって画面上の任意の位置を指定しているか否かを判定する(ステップS21)。 While the game screen is being displayed, the client terminal 10 determines whether or not an arbitrary position on the screen is specified by a user's touch operation using the touch panel (step S21).

具体的には、指示位置決定部102は、タッチパネルからの検出信号を取得することができたときに、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができる。そのため、操作入力判定部104は、ユーザーのタッチ操作により指示される画面上の指示位置が決定されたか否かに基づいて、ユーザーのタッチ操作によって画面上の任意の位置を指定しているか否かを判定する。 Specifically, the instruction position determination unit 102 can determine the instruction position on the screen instructed by the user's touch operation when the detection signal from the touch panel can be acquired. Therefore, whether or not the operation input determination unit 104 specifies an arbitrary position on the screen by the user's touch operation based on whether or not the instruction position on the screen instructed by the user's touch operation is determined. To judge.

次に、クライアント端末10は、タッチパネルを用いたユーザーのタッチ操作によって画面上の任意の位置を指定していないと判定された場合に(ステップS21:NO)、この処理を終了する一方で、ユーザーのタッチ操作によって画面上の任意の位置を指定していると判定された場合には(ステップS21:YES)、そのユーザーのタッチ操作が第1操作であるか否かを判定する(ステップS22)。 Next, when it is determined that the client terminal 10 does not specify an arbitrary position on the screen by the user's touch operation using the touch panel (step S21: NO), the client terminal 10 ends this process while the user. When it is determined that an arbitrary position on the screen is specified by the touch operation of (step S21: YES), it is determined whether or not the user's touch operation is the first operation (step S22). ..

具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えなかった場合には、そのユーザーのタッチ操作が第1操作であるものと決定される。 Specifically, the contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the size of the contact area at the determined designated position on the screen exceeds a preset threshold value. Based on this determination, if the threshold value is not exceeded, it is determined that the user's touch operation is the first operation.

次に、クライアント端末10は、そのユーザーのタッチ操作が第1操作でないと判定された場合に(ステップS22:NO)、後述するステップS24へ処理を進める一方で、そのユーザーのタッチ操作が第1操作であると判定された場合には(ステップS22:YES)、キャラクターに関する第1制御を行なう(ステップS23)。 Next, when the client terminal 10 determines that the user's touch operation is not the first operation (step S22: NO), the client terminal 10 proceeds to the process to be described later in step S24, while the user's touch operation is the first. If it is determined that the operation is performed (step S22: YES), the first control regarding the character is performed (step S23).

具体的には、オブジェクト制御部105は、第1操作がユーザーによって行われると、キャラクターに関する第1制御として、そのキャラクターが第1動作を行なうように制御する。本実施形態では、キャラクターの第1動作として、キャラクターがゲームフィールドを移動するように制御する。 Specifically, when the first operation is performed by the user, the object control unit 105 controls the character to perform the first operation as the first control regarding the character. In the present embodiment, as the first action of the character, the character is controlled to move in the game field.

次に、クライアント端末10は、そのユーザーのタッチ操作が第1操作でないと判定された場合に(ステップS22:NO)、そのユーザーのタッチ操作が第2操作であるか否かを判定する(ステップS24)。 Next, when it is determined that the user's touch operation is not the first operation (step S22: NO), the client terminal 10 determines whether or not the user's touch operation is the second operation (step). S24).

具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えた場合には、そのユーザーのタッチ操作が第2操作であるものと決定される。 Specifically, the contact area determination unit 103 determines the contact area at the designated position on the screen instructed by the user's touch operation based on the detection signal from the touch panel. Then, the operation input determination unit 104 determines whether or not the size of the contact area at the determined designated position on the screen exceeds a preset threshold value. By this determination, when the threshold value is exceeded, it is determined that the user's touch operation is the second operation.

次に、クライアント端末10は、そのユーザーのタッチ操作が第2操作でないと判定された場合に(ステップS24:NO)、この処理を終了する一方で、そのユーザーのタッチ操作が第2操作であると判定された場合には(ステップS24:YES)、キャラクターに関する第2制御を行なう(ステップS25)。 Next, when it is determined that the user's touch operation is not the second operation (step S24: NO), the client terminal 10 ends this process, while the user's touch operation is the second operation. If it is determined (step S24: YES), the second control regarding the character is performed (step S25).

具体的には、オブジェクト制御部105は、第2操作がユーザーによって行われると、キャラクターに関する第2制御として、そのキャラクターが第2動作を行なうように制御する。本実施形態では、キャラクターの第2動作として、キャラクターがゲームフィールドを移動すると共に、ゲームフィールドに出現した対戦相手に対しそのキャラクターが攻撃するように制御する。また、これに代えて、図8に示すように、キャラクターの第2動作として、キャラクター501の動作を選択するためのメニュー画像506をユーザーの指示位置の周囲に表示することも可能である。そして、そのメニュー画像506の表示後、ユーザーがタップやフリックなどのタッチ操作を行なうことによっていずれかのコマンドを選択すると、そのコマンドに対応する動作をキャラクター501に行なわせることも可能である。 Specifically, when the second operation is performed by the user, the object control unit 105 controls the character to perform the second operation as the second control regarding the character. In the present embodiment, as the second action of the character, the character moves in the game field and is controlled so that the character attacks the opponent who appears in the game field. Alternatively, as shown in FIG. 8, it is also possible to display a menu image 506 for selecting the action of the character 501 around the user's instruction position as the second action of the character. Then, after the menu image 506 is displayed, when the user selects one of the commands by performing a touch operation such as tapping or flicking, it is also possible to cause the character 501 to perform an operation corresponding to the command.

なお、前述の実施形態では、ユーザーによって第1操作が行われた際に、キャラクターの第1動作として、キャラクターがゲームフィールドを移動するように制御し、ユーザーによって第2操作が行われた際には、キャラクターの第2動作として、キャラクターがその移動と同時に攻撃するように制御する場合を例に挙げて説明したが、これに限定されるものではない。例えば、ユーザーによって第1操作が行われた際に、キャラクターの第1動作として、キャラクターがゲームフィールドを水平移動するように制御し、ユーザーによって第2操作が行われた際には、キャラクターの第2動作として、キャラクターがゲームフィールドを垂直移動するように制御することも可能である。これにより、例えば、水平移動していたキャラクターが壁に衝突したタイミングで、ユーザーがタッチ操作をこれまでの第1操作から第2操作に切り替えることで、そのキャラクターが壁に沿って垂直移動する(壁を登る)ように制御することも可能となる。その他にも、ジャンプする、扉や宝箱を開く、他のキャラクターに話しかける、ゲームフィールドの地面を調べる、遠距離攻撃をする、近距離攻撃をする、通常攻撃(物理攻撃など)をする、特殊攻撃(スキルや必殺技の発動)をするなどの動作を、キャラクターの第1動作又は第2動作として採用することも可能である。 In the above-described embodiment, when the first operation is performed by the user, the character is controlled to move in the game field as the first action of the character, and when the second operation is performed by the user. Has been described as an example of a case where the character is controlled to attack at the same time as the movement of the character as the second action of the character, but the present invention is not limited to this. For example, when the first operation is performed by the user, as the first action of the character, the character is controlled to move horizontally in the game field, and when the second operation is performed by the user, the character's first operation is performed. As two actions, it is also possible to control the character to move vertically in the game field. As a result, for example, when the character that has been horizontally moving collides with the wall, the user switches the touch operation from the first operation to the second operation so that the character moves vertically along the wall (for example). It is also possible to control to climb the wall). In addition, jump, open doors and treasure chests, talk to other characters, inspect the ground of the game field, make long-range attacks, make short-range attacks, make normal attacks (physical attacks, etc.), special attacks It is also possible to adopt an action such as (activating a skill or a special move) as the first action or the second action of the character.

このように、ユーザーが画面にタッチしたままその接触面積の大きさを変更する操作を行なうだけで、第1操作及び第2操作の2つの入力を即座に切り替えることができるので、その操作性を向上させることが可能となる。 In this way, the user can immediately switch between the two inputs of the first operation and the second operation simply by performing an operation of changing the size of the contact area while touching the screen, so that the operability can be improved. It will be possible to improve.

[その他の実施形態]
前述の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
[Other embodiments]
The above-described embodiment is for facilitating the understanding of the present invention, and is not for limiting the interpretation of the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof. In particular, even the embodiments described below are included in the present invention.

<スライド操作との組合せ>
前述の実施形態では、第1操作及び第2操作の夫々に対してスライド操作を組み合せて入力できるようにしてもよい。すなわち、ユーザーが画面上に「指先」を接触させることによって第1操作を行ないつつ、そのまま接触させた「指先」を画面上で連続移動させることによってスライド操作も併せて行なえるようにしてもよい。また、画面上に「指の腹」を接触させることによって第2操作を行ないつつ、そのまま接触させた「指の腹」を画面上で連続移動させることによってスライド操作も併せて行なえるようにしてもよい。例えば、ユーザーによって第1操作(「指先」によるタッチ操作)とスライド操作(そのまま「指先」を所定方向へ移動させるタッチ操作)が行われると、その所定方向に応じてキャラクターが低速移動を行ない、ユーザーによって第2操作(「指の腹」によるタッチ操作)とスライド操作(そのまま「指の腹」を所定方向へ移動させるタッチ操作)が行われると、その所定方向に応じてキャラクターが高速移動を行なうように制御してもよい。また例えば、ユーザーによって第1操作(「指先」によるタッチ操作)とスライド操作(そのまま「指先」を所定方向へ連続移動させるタッチ操作)が行われると、その所定方向に応じて仮想カメラの制御が行われ、ユーザーによって第2操作(「指の腹」によるタッチ操作)とスライド操作(そのまま「指の腹」を所定方向へ移動させるタッチ操作)が行われると、その所定方向に応じてキャラクターが動作するように制御してもよい。
<Combination with slide operation>
In the above-described embodiment, the slide operation may be combined and input for each of the first operation and the second operation. That is, the user may perform the first operation by touching the "fingertip" on the screen, and may also perform the slide operation by continuously moving the contacted "fingertip" on the screen. .. In addition, while performing the second operation by touching the "finger pad" on the screen, the slide operation can also be performed by continuously moving the touched "finger pad" on the screen. May be good. For example, when the user performs the first operation (touch operation by "fingertip") and slide operation (touch operation by moving the "fingertip" in a predetermined direction as it is), the character moves at a low speed according to the predetermined direction. When the user performs a second operation (touch operation by "finger pad") and slide operation (touch operation by moving "finger pad" in a predetermined direction as it is), the character moves at high speed according to the predetermined direction. It may be controlled to do so. Further, for example, when the user performs the first operation (touch operation by "fingertip") and slide operation (touch operation by continuously moving the "fingertip" in a predetermined direction), the virtual camera is controlled according to the predetermined direction. When the user performs a second operation (touch operation by "finger pad") and slide operation (touch operation by moving "finger pad" in a predetermined direction as it is), the character moves according to the predetermined direction. It may be controlled to operate.

<第1操作・第2操作>
前述の実施形態では、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクターが低速移動を行ない、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクターが高速移動を行なう場合を例に挙げて説明したが、キャラクターの動作を互いに入れ替えることも可能である。つまり、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクターが高速移動を行ない、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクターが低速移動を行なうように制御してもよい。また、前述の実施形態では、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、仮想カメラの制御が行われ、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクターが攻撃するように制御する場合を例に挙げて説明したが、これについてもキャラクターの動作を互いに入れ替えることも可能である。つまり、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクターが攻撃するように制御し、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、仮想カメラの制御を行なうようにしてもよい。その他の具体例においても、キャラクターの動作を互いに入れ替えることも可能である。
<1st operation / 2nd operation>
In the above-described embodiment, when the user performs the first operation (touch operation by "fingertip"), the character moves at a low speed, and the user performs the second operation (touch operation by "finger pad"). , The case where the character moves at high speed has been described as an example, but it is also possible to exchange the movements of the characters with each other. That is, when the user performs the first operation (touch operation by "fingertip"), the character moves at high speed, and when the user performs the second operation (touch operation by "finger pad"), the character slows down. It may be controlled to move. Further, in the above-described embodiment, when the first operation (touch operation by "fingertip") is performed by the user, the virtual camera is controlled, and the second operation (touch operation by "finger pad") is performed by the user. When it is done, the case where the character is controlled to attack is described as an example, but it is also possible to exchange the actions of the characters with each other. That is, when the user performs the first operation (touch operation by "fingertip"), the character is controlled to attack, and when the user performs the second operation (touch operation by "finger pad"), it is virtual. The camera may be controlled. In other specific examples, it is also possible to exchange the movements of the characters with each other.

また前述の実施形態では、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積の大きさに基づいて、第1操作と第2操作の2つの入力を行なうことができる場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、複数段階の閾値を予め設定することにより、画面上の指示位置における接触面積の大きさに応じて3つ以上の操作入力を使い分けることができるようにしてもよい。これにより、第1操作、第2操作、第3操作・・・と、1つのタッチ操作で複数の入力が簡単に行えるようになる。 Further, in the above-described embodiment, the case where two inputs, the first operation and the second operation, can be performed based on the size of the contact area at the designated position on the screen instructed by the user's touch operation is taken as an example. As described above, the present invention is not limited to this. For example, by setting a threshold value of a plurality of steps in advance, it may be possible to use three or more operation inputs properly according to the size of the contact area at the designated position on the screen. As a result, a plurality of inputs can be easily performed with one touch operation such as the first operation, the second operation, the third operation, and the like.

1 情報処理システム
10 クライアント端末
20 サーバー装置
50 コンピューター
51 CPU
52 RAM
53 ROM
54 通信インタフェース
55 入力装置
56 表示装置
57 外部インタフェース
58 HDD
100 制御部
101 ゲーム実行部
102 指示位置決定部
103 接触面積決定部
104 操作入力判定部
105 オブジェクト制御部
106 画像生成部
120 記憶部
140 通信部
150 操作受付部
160 画面表示部
500 タッチパネル
501 キャラクター
502 左手用領域
503 左手用ボタン
504 右手用領域
505 右手用ボタン
506 メニュー画像
B バスライン
N ネットワーク
1 Information processing system 10 Client terminal 20 Server device 50 Computer 51 CPU
52 RAM
53 ROM
54 Communication interface 55 Input device 56 Display device 57 External interface 58 HDD
100 Control unit 101 Game execution unit 102 Instruction position determination unit 103 Contact area determination unit 104 Operation input determination unit 105 Object control unit 106 Image generation unit 120 Storage unit 140 Communication unit 150 Operation reception unit 160 Screen display unit 500 Touch panel 501 Character 502 Left hand Area 503 Left-handed button 504 Right-handed area 505 Right-handed button 506 Menu image B Bus line N Network

Claims (5)

コンピュータを、Computer,
仮想カメラから見たゲームフィールドの様子をゲーム画像として生成する生成手段、A generation method that generates a game image of the game field as seen from a virtual camera.
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段、A control means that controls the virtual camera when the first operation is input and controls the operation of an object arranged in the game field when the second operation is input.
として機能させるプログラム。A program that functions as.
コンピュータを、Computer,
仮想カメラから見たゲームフィールドの様子をゲーム画像として生成する生成手段、A generation method that generates a game image of the game field as seen from a virtual camera.
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記仮想カメラを制御するとともに、前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段、A control means that controls the virtual camera when the first operation is input, controls the virtual camera when the second operation is input, and controls the operation of an object arranged in the game field. ,
として機能させるプログラム。A program that functions as.
前記制御手段は、前記仮想カメラの制御として、前記ゲームフィールドの様子が変化するように当該仮想カメラの位置又は視方向を制御する、The control means controls the position or viewing direction of the virtual camera so as to change the appearance of the game field as the control of the virtual camera.
請求項1又は請求項2に記載のプログラム。The program according to claim 1 or 2.
仮想カメラから見たゲームフィールドの様子をゲーム画像として生成する生成手段と、A generation method that generates a game image of the game field as seen from a virtual camera,
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段と、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段と、A control means for controlling the virtual camera when the first operation is input and controlling the operation of an object arranged in the game field when the second operation is input.
を備える情報処理装置。Information processing device equipped with.
仮想カメラから見たゲームフィールドの様子をゲーム画像として生成する生成手段と、A generation method that generates a game image of the game field as seen from a virtual camera,
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段と、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記仮想カメラを制御するとともに、前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段と、A control means that controls the virtual camera when the first operation is input, controls the virtual camera when the second operation is input, and controls the operation of an object arranged in the game field. When,
を備える情報処理装置。Information processing device equipped with.
JP2018139081A 2017-09-15 2018-07-25 Programs and information processing equipment Active JP6969516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018139081A JP6969516B2 (en) 2017-09-15 2018-07-25 Programs and information processing equipment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017178172A JP6418299B1 (en) 2017-09-15 2017-09-15 Information processing apparatus and program
JP2018139081A JP6969516B2 (en) 2017-09-15 2018-07-25 Programs and information processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017178172A Division JP6418299B1 (en) 2017-09-15 2017-09-15 Information processing apparatus and program

Publications (3)

Publication Number Publication Date
JP2019051297A JP2019051297A (en) 2019-04-04
JP2019051297A5 JP2019051297A5 (en) 2021-05-06
JP6969516B2 true JP6969516B2 (en) 2021-11-24

Family

ID=66013594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139081A Active JP6969516B2 (en) 2017-09-15 2018-07-25 Programs and information processing equipment

Country Status (1)

Country Link
JP (1) JP6969516B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11804064B2 (en) 2019-09-27 2023-10-31 Semiconductor Energy Laboratory Co., Ltd. Electronic device
CN111330276B (en) * 2020-03-05 2024-08-13 网易(杭州)网络有限公司 Game control method, game control device, electronic equipment and medium
JP2023006173A (en) * 2021-06-30 2023-01-18 株式会社Cygames Information processing program and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709405B2 (en) * 2010-05-18 2015-04-30 株式会社タイトー Graffiti device by image recognition
JP6021335B2 (en) * 2011-12-28 2016-11-09 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP6643776B2 (en) * 2015-06-11 2020-02-12 株式会社バンダイナムコエンターテインメント Terminal device and program

Also Published As

Publication number Publication date
JP2019051297A (en) 2019-04-04

Similar Documents

Publication Publication Date Title
JP6418299B1 (en) Information processing apparatus and program
JP5951638B2 (en) Virtual controller for touch display
KR101981158B1 (en) Interaction method for user interfaces
WO2020080346A1 (en) Information processing device and program
JP6969516B2 (en) Programs and information processing equipment
KR20140062257A (en) Method for providing virtual keyboard and an electronic device thereof
CN110069147B (en) Control device and control method thereof
JP2016134052A (en) Interface program and game program
JP5953418B1 (en) Program, electronic apparatus, system and method for improving user input operability
JP6581639B2 (en) Game program and game system
US11759702B2 (en) Game system, processing method, and information storage medium
JP6216862B1 (en) GAME METHOD AND GAME PROGRAM
JP6521146B1 (en) Information processing apparatus and program
JP2019202128A (en) Information processor and program
JP6236818B2 (en) Portable information terminal
JP2020062376A (en) Information processor and program
JP2015097583A (en) Game device with touch panel, its control method and program
JP5773818B2 (en) Display control apparatus, display control method, and computer program
JP2024130698A (en) PROGRAM, INFORMATION PROCESSING APPARATUS, AND METHOD
WO2017159796A1 (en) Information processing method and information processing device
JP2018069040A (en) GAME METHOD AND GAME PROGRAM
JP2017167792A (en) Information processing method and information processor
JP2019134881A (en) Program and game device
JP2012234456A (en) Page view switching device
KR20050112979A (en) Portable computer with pointing device&#39;s button having different use from original use and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200914

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6969516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250