JP6969516B2 - Programs and information processing equipment - Google Patents
Programs and information processing equipment Download PDFInfo
- Publication number
- JP6969516B2 JP6969516B2 JP2018139081A JP2018139081A JP6969516B2 JP 6969516 B2 JP6969516 B2 JP 6969516B2 JP 2018139081 A JP2018139081 A JP 2018139081A JP 2018139081 A JP2018139081 A JP 2018139081A JP 6969516 B2 JP6969516 B2 JP 6969516B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- input
- screen
- character
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 20
- 238000000034 method Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 230000009471 action Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000010079 rubber tapping Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
ユーザーの操作対象となるオブジェクトが表示された画面上に複数の操作ボタンを配置し、ユーザーがタッチパネルを用いて画面上の操作ボタンに対するタッチ操作を行なうことによって、その操作ボタンに対応付けられた動作をオブジェクトに行なわせる情報処理装置が知られている(たとえば、特許文献1)。 By arranging multiple operation buttons on the screen on which the object to be operated by the user is displayed and the user performing a touch operation on the operation button on the screen using the touch panel, the operation associated with the operation button is performed. There is known an information processing device that causes an object to perform the above (for example, Patent Document 1).
このような情報処理装置では、画面上に操作ボタンを多く配置するほど、その画面に表示されるオブジェクトに様々な動作等を行なわせることができる。しかしながら、画面上に多くの操作ボタンを配置することで、そのオブジェクトが見えにくくなってしまう場合があった。そのため、このような画面上のボタン配置がゲーム操作の妨げになってしまい、操作性を低下させるおそれがあった。
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、操作性を向上させることにある。
In such an information processing device, the more operation buttons are arranged on the screen, the more various operations can be performed on the object displayed on the screen. However, by arranging many operation buttons on the screen, the object may be difficult to see. Therefore, such a button arrangement on the screen hinders the game operation, and there is a possibility that the operability may be deteriorated.
The present invention has been made in view of such circumstances, and an object thereof is to improve operability.
上記課題を解決するための本発明の主たる発明は、
仮想ゲーム空間に配置されるオブジェクトのゲーム画像を生成する画像生成部と、
前記ゲーム画像が表示された画面に対するユーザーのタッチ操作を検出するタッチパネルと、
前記タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する接触面積決定部と、
決定された接触面積の大きさに基づいて、第1操作及び第2操作のいずれかの入力であるかを判定する操作入力判定部と、
第1操作が入力された場合に前記オブジェクトに関する第1制御を行ない、第2操作が入力された場合には前記オブジェクトに関する第2制御を行なうオブジェクト制御部と、
を備えたことを特徴とする情報処理装置である。
このような情報処理装置によれば、ユーザーが1つのタッチ操作を行なう際に、その接触面積の大きさを変更するだけで、第1操作及び第2操作の2つの入力を使い分けることができる。そのため、画面上に配置させる操作ボタンを減らすことができるようになるので、オブジェクトが見やすくなりその操作性を向上させることができる。
The main invention of the present invention for solving the above problems is
An image generator that generates game images of objects placed in the virtual game space,
A touch panel that detects the user's touch operation on the screen on which the game image is displayed, and
A contact area determination unit that determines the contact area at an instruction position on the screen instructed by a user's touch operation based on the detection signal from the touch panel.
An operation input determination unit that determines whether the input is one of the first operation and the second operation based on the size of the determined contact area, and the operation input determination unit.
An object control unit that performs the first control on the object when the first operation is input, and performs the second control on the object when the second operation is input.
It is an information processing device characterized by being equipped with.
According to such an information processing device, when the user performs one touch operation, the two inputs of the first operation and the second operation can be properly used only by changing the size of the contact area. Therefore, the number of operation buttons arranged on the screen can be reduced, so that the object can be easily seen and its operability can be improved.
また、前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの第1動作を制御し、第2操作が入力された場合には、前記オブジェクトに関する第2制御として、前記オブジェクトの第2動作の制御を行なうことが望ましい。
これにより、ユーザーがタッチ操作を行なう際に、その接触面積の大きさを変更するだけで、オブジェクトの第1動作と第2動作を切り替えながら操作できるようになる。そのため、オブジェクトに第1動作を行なわせるための操作ボタンとオブジェクトに第2動作を行なわせるための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the object control unit controls the first operation of the object as the first control regarding the object when the first operation is input, and when the second operation is input, the object is related to the object. As the second control, it is desirable to control the second operation of the object.
As a result, when the user performs a touch operation, the user can operate the object while switching between the first operation and the second operation simply by changing the size of the contact area. Therefore, it is not necessary to arrange the operation buttons for causing the object to perform the first operation and the operation buttons for causing the object to perform the second operation on the screen, which makes the object easier to see and improves its operability. be able to.
また、前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの第1動作を制御し、第2操作が入力された場合には、前記オブジェクトに関する第2制御として、前記オブジェクトの前記第1動作と共に、前記第1動作と異なる第2動作の制御を行なうことが望ましい。
これにより、オブジェクトに第1動作だけを行なわせたいときや、オブジェクトに第1動作及び第2動作の双方を行なわせたいときにも、ユーザーはその接触面積の大きさを変更させてタッチ操作を行なうだけで済む。また、オブジェクトに第1動作だけを行なわせるための操作ボタンとオブジェクトに第1動作及び第2動作の双方を行なわせるための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the object control unit controls the first operation of the object as the first control regarding the object when the first operation is input, and when the second operation is input, the object is related to the object. As the second control, it is desirable to control the first operation of the object and the second operation different from the first operation.
As a result, even when the object wants to perform only the first operation or the object wants to perform both the first operation and the second operation, the user changes the size of the contact area and performs a touch operation. All you have to do is do it. In addition, it is not necessary to arrange the operation buttons for causing the object to perform only the first operation and the operation buttons for causing the object to perform both the first operation and the second operation on the screen, so that the object is easy to see. The operability can be improved.
また、前記操作入力判定部は、ユーザーのタッチ操作により指示される画面上の指示位置が所定方向へ移動することによってスライド操作が入力されたか否かを判定し、
前記オブジェクト制御部は、スライド操作と第1操作が入力された場合に、前記所定方向に応じて前記第1動作を制御し、スライド操作と第2操作が入力された場合には、前記所定方向に応じた前記第2動作の制御を行なうことが望ましい。
これにより、第1操作及び第2操作の2つの入力それぞれに対してスライド操作入力を組み合せることで、簡単な操作入力でオブジェクトが行う動作のバリエーションを増やすことができる。
Further, the operation input determination unit determines whether or not a slide operation has been input by moving the instruction position on the screen instructed by the user's touch operation in a predetermined direction.
The object control unit controls the first operation according to the predetermined direction when the slide operation and the first operation are input, and when the slide operation and the second operation are input, the object control unit controls the predetermined direction. It is desirable to control the second operation according to the above.
As a result, by combining the slide operation input for each of the two inputs of the first operation and the second operation, it is possible to increase the variation of the operation performed by the object with a simple operation input.
また、前記画像生成部は、仮想ゲーム空間に配置されるオブジェクトを仮想カメラから見たときのゲーム画像を生成するものであり、
前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラの制御を行ない、第2操作が入力された場合には、前記オブジェクトの動作を制御することが望ましい。
これにより、ユーザーがタッチ操作を行なう際に、その接触面積の大きさを変更するだけで、仮想カメラの動作とオブジェクトの動作を切り替えながら操作できるようになる。そのため、仮想カメラの動作のための操作ボタンとオブジェクトの動作のための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the image generation unit generates a game image when an object arranged in the virtual game space is viewed from a virtual camera.
When the first operation is input, the object control unit controls the virtual camera so that the appearance of the virtual game space when viewed from the viewpoint of the object changes as the first control regarding the object. When the second operation is input, it is desirable to control the operation of the object.
As a result, when the user performs a touch operation, the operation can be performed while switching between the operation of the virtual camera and the operation of the object simply by changing the size of the contact area. Therefore, it is not necessary to arrange the operation buttons for the operation of the virtual camera and the operation buttons for the operation of the object on the screen, so that the object can be easily seen and the operability can be improved.
また、前記画像生成部は、仮想ゲーム空間に配置されるオブジェクトを仮想カメラから見たときのゲーム画像を生成するものであり、
前記オブジェクト制御部は、第1操作が入力された場合に、前記オブジェクトに関する第1制御として、前記オブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラの制御を行ない、第2操作が入力された場合には、前記オブジェクトに関する第2制御として、前記オブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラの制御を行なうと共に、前記オブジェクトの動作を制御することが望ましい。
これにより、仮想カメラを動作させたいときや、仮想カメラの動作に加えてオブジェクトにも動作させたいときにも、ユーザーはその接触面積の大きさを変更させてタッチ操作を行なうだけで済む。また、仮想カメラの動作のための操作ボタンと仮想カメラ及びオブジェクトの動作のための操作ボタンのそれぞれを画面上に配置させる必要がなくなるので、オブジェクトが見やすくなりその操作性を向上させることができる。
Further, the image generation unit generates a game image when an object arranged in the virtual game space is viewed from a virtual camera.
When the first operation is input, the object control unit controls the virtual camera so that the appearance of the virtual game space when viewed from the viewpoint of the object changes as the first control regarding the object. When the second operation is input, as the second control regarding the object, the virtual camera is controlled so that the appearance of the virtual game space when viewed from the viewpoint of the object is changed, and the operation of the object is performed. It is desirable to control.
As a result, when the user wants to operate the virtual camera, or when he / she wants to operate the object in addition to the operation of the virtual camera, the user only has to change the size of the contact area and perform a touch operation. Further, since it is not necessary to arrange the operation buttons for the operation of the virtual camera and the operation buttons for the operation of the virtual camera and the object on the screen, the object can be easily seen and the operability thereof can be improved.
また、前記操作入力判定部は、ユーザーのタッチ操作により指示される画面上の指示位置が所定方向へ移動することによってスライド操作が入力されたか否かを判定し、
前記オブジェクト制御部は、スライド操作と第1操作が入力された場合に、前記所定方向に応じて前記仮想カメラの制御を行ない、スライド操作と第2操作が入力された場合には、前記所定方向に応じてオブジェクトの前記動作を制御することが望ましい。
これにより、第1操作及び第2操作の2つの入力それぞれに対してスライド操作入力を組み合せることで、簡単な操作入力でオブジェクトが行う動作のバリエーションを増やすことができる。
Further, the operation input determination unit determines whether or not a slide operation has been input by moving the instruction position on the screen instructed by the user's touch operation in a predetermined direction.
The object control unit controls the virtual camera according to the predetermined direction when the slide operation and the first operation are input, and when the slide operation and the second operation are input, the object control unit controls the virtual camera in the predetermined direction. It is desirable to control the behavior of the object according to the above.
As a result, by combining the slide operation input for each of the two inputs of the first operation and the second operation, it is possible to increase the variation of the operation performed by the object with a simple operation input.
また、前記接触面積決定部は、ユーザーのタッチ操作により指示される画面上の第1領域での指示位置における接触面積を決定すると共に、ユーザーのタッチ操作により指示される画面上の第2領域での指示位置における接触面積を決定し、
前記操作入力判定部は、画面上の第1領域での指示位置における接触面積の大きさに基づいて第1操作及び第2操作のいずれかの入力であるか判定する共に、画面上の第2領域での指示位置における接触面積の大きさに基づいて第1操作及び第2操作のいずれかの入力であるか判定することが望ましい。
これにより、画面上の操作領域である第1領域と第2領域を区別して設けることによって、その領域毎に第1操作及び第2操作を入力できるようになる。
Further, the contact area determination unit determines the contact area at the designated position in the first area on the screen instructed by the user's touch operation, and in the second area on the screen instructed by the user's touch operation. Determine the contact area at the indicated position of
The operation input determination unit determines whether the input is one of the first operation and the second operation based on the size of the contact area at the designated position in the first area on the screen, and the second operation on the screen. It is desirable to determine whether the input is one of the first operation and the second operation based on the size of the contact area at the indicated position in the region.
As a result, by separately providing the first area and the second area, which are the operation areas on the screen, the first operation and the second operation can be input for each area.
また、コンピューターを、
仮想ゲーム空間に配置されるオブジェクトのゲーム画像を生成する画像生成手段、
タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する接触面積決定手段、
決定された接触面積の大きさに基づいて、第1操作及び第2操作のいずれかの入力であるかを判定する操作入力判定手段、
第1操作が入力された場合に前記オブジェクトに関する第1制御を行ない、第2操作が入力された場合には前記オブジェクトに関する第2制御を行なうオブジェクト制御手段、
として機能させるためのプログラムである。
このようなプログラムによれば、操作性を向上させることが可能となる。
Also, the computer
Image generation means, which generates game images of objects placed in virtual game space,
A contact area determining means for determining a contact area at a designated position on the screen instructed by a user's touch operation based on a detection signal from the touch panel.
An operation input determination means for determining whether the input is one of the first operation and the second operation based on the size of the determined contact area.
An object control means that performs the first control on the object when the first operation is input, and performs the second control on the object when the second operation is input.
It is a program to function as.
According to such a program, it is possible to improve the operability.
以下では、本発明の実施形態に係る情報処理装置、プログラム及び情報処理システムについて詳細に説明する。なお、本発明はタッチパネルでプレイ可能なゲームを採用する情報処理装置、プログラム及び情報処理システム等に広く適用できる。 Hereinafter, the information processing apparatus, program, and information processing system according to the embodiment of the present invention will be described in detail. The present invention can be widely applied to information processing devices, programs, information processing systems, and the like that employ games that can be played on a touch panel.
[実施形態]
<システム構成>
図1は、本実施形態に係る情報処理システム1の一例を示す構成図である。図1に示すように、本実施形態に係る情報処理システム1は、1台以上のクライアント端末10とサーバー装置20とがネットワークNを介して接続されている。
[Embodiment]
<System configuration>
FIG. 1 is a configuration diagram showing an example of an information processing system 1 according to the present embodiment. As shown in FIG. 1, in the information processing system 1 according to the present embodiment, one or
クライアント端末10は、ユーザーが操作するスマートフォン、タブレット、PCなどの端末装置や、家庭用や業務用のゲーム専用機器などの端末装置である。サーバー装置20は、クライアント端末10でユーザーにより行われるゲームの管理や制御、ゲーム内での課金処理等を行う。ネットワークNは、インターネット等であって、移動無線基地局などを含む。
The
なお、本発明は図1に示すクライアント・サーバー型の情報処理システム1の他、ゲーム内での課金処理を行う仕組みを別途設けることで単体のゲーム装置(情報処理装置)においても適用可能である。図1の情報処理システム1は一例であって用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、図1のサーバー装置20は複数のコンピューターに分散して構成してもよい。
In addition to the client-server type information processing system 1 shown in FIG. 1, the present invention can be applied to a single game device (information processing device) by separately providing a mechanism for performing in-game billing processing. .. It goes without saying that the information processing system 1 of FIG. 1 is an example, and there are various system configuration examples depending on the application and purpose. For example, the
<ハードウェア構成>
《クライアント端末》
図2は、本実施形態に係るコンピューター50の一例を示すハードウェア構成図である。本実施形態に係るクライアント端末10は、例えば図2に示すハードウェア構成のコンピューター50により実現される。なお、コンピューター50は情報処理装置の一例である。
<Hardware configuration>
《Client terminal》
FIG. 2 is a hardware configuration diagram showing an example of the
コンピューター50は、図2に示すように、CPU51と、RAM52と、ROM53と、通信インタフェース54と、入力装置55と、表示装置56と、外部インタフェース57と、HDD58などを備えており、それぞれがバスラインBによって相互に接続されている。
As shown in FIG. 2, the
CPU51は、ROM53やHDD58などの記憶装置からプログラムやデータをRAM52上に読み出し、読み出したプログラムやデータに基づく各種処理を実行することによって、コンピューター全体の制御や機能を実現する演算装置である。
The
RAM52は、プログラムやデータを一時保持するための揮発性の半導体メモリ(記憶装置)の一例であり、CPU51が各種処理を実行する際のワークエリアとしても利用される。
The
ROM53は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM53には、コンピューター50の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。
The
通信インタフェース54は、コンピューター50をネットワークNに接続するためのインタフェースである。これにより、コンピューター50は通信インタフェース54を介してデータ通信を行うことができる。
The
入力装置55は、ユーザー又は管理者が各種信号を入力するのに用いる装置である。入力装置55は、例えば、タッチパネル、操作キーやボタン、キーボードやマウスなどの操作装置である。
The
本実施形態におけるクライアント端末10は、少なくともタッチパネルを有している。タッチパネルは、表示装置56の上に積層される静電容量式のパネルによって構成されている。このタッチパネルでは、ユーザーの指やタッチペン等によるタッチ操作が行われると、格子状に配列されている透明電極が静電容量の変化を検出してその検出信号を出力する。本実施形態においては、静電容量の変化が生じた透明電極の範囲から決まる重心位置が、画面上での指示位置(接触位置)として特定される。また、静電容量の変化が生じた透明電極の範囲が、画面上の指示位置における接触面積として特定される。
The
表示装置56は、タッチパネルを用いてゲームプレイを行なうユーザーに対して各種情報を画面表示するための装置である。表示装置56は、例えば、液晶や有機ELなどのディスプレイである。
The
外部インタフェース57は、外部装置とデータ通信可能に接続するためのインタフェースである。これにより、コンピューター50は外部インタフェース57を介して記録媒体の読み取り及び/又は書き込みを行うことができる。外部装置は、例えば、フレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどの記録媒体である。
The
HDD58は、プログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには、コンピューター全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーションなどがある。
The
なお、HDD58に替えて、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用してもよい。
Instead of the
本実施形態に係るクライアント端末10は、上述したハードウェア構成のコンピューター50においてプログラムを実行することにより、後述するような各種処理を実現することができる。
The
<ソフトウェア構成>
《クライアント端末》
図3は、本実施形態に係るクライアント端末10の一例を示す機能ブロック図である。本実施形態に係るクライアント端末10は、例えば図3に示す機能ブロックにより実現される。
<Software configuration>
《Client terminal》
FIG. 3 is a functional block diagram showing an example of the
本実施形態に係るクライアント端末10は、プログラムを実行することにより、制御部100と、記憶部120と、通信部140と、操作受付部150と、画面表示部160を実現する。
The
制御部100は、クライアント端末10における各種処理を実行する機能を有する。この制御部100は、ゲーム実行部101と、指示位置決定部102と、接触面積決定部103と、操作入力判定部104と、オブジェクト制御部105と、画像生成部106を含む。
The
ゲーム実行部101は、クライアント端末10がユーザーから受け付けたゲーム操作に基づき、クライアント端末10でプレイ可能な各種ゲーム(アクションゲーム等)の進行を制御する。
The
指示位置決定部102は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置を決定する。具体的には、指示位置決定部102は、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の位置に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置(接触位置)を決定する。
The instruction
接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。具体的には、接触面積決定部103は、格子状に配列されている透明電極のうち静電容量の変化が生じた透明電極の範囲に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積(例えば、円の中心位置とその半径)を決定する。
The contact
操作入力判定部104は、タッチパネルを用いてゲームプレイを行なうユーザーによって入力されたゲーム操作の種類を判定する。例えば、操作入力判定部104は、接触面積決定部103によって決定された画面上の指示位置における接触面積の大きさに基づいて、第1操作及び第2操作のいずれかの入力であるかを判定する。この第1操作及び第2操作については後述する。また例えば、ユーザーのタッチ操作により指示される画面上の指示位置が所定方向へ移動することによってスライド操作が入力されたか否かを判定する。
The operation
オブジェクト制御部105は、仮想ゲーム空間に配置されるオブジェクトに関する制御を行なう。例えば、ユーザーのゲーム操作(第1操作や第2操作など)に基づいて、仮想ゲーム空間におけるオブジェクトの移動や攻撃等の動作を制御したり、そのオブジェクトの視点から見たときの仮想ゲーム空間の様子が変化するように仮想カメラを制御したりする。具体的には、オブジェクト制御部105は、仮想ゲーム空間(ワールド座標系)に配置されるオブジェクトの位置や方向等をフレーム毎(例えば、1/60秒毎)に制御する。また、オブジェクト制御部105は、仮想ゲーム空間(ワールド座標系)に配置されるオブジェクトの視点から見える画像を生成するための仮想カメラ(仮想視点)の視点位置、視方向、画角などを制御する。
The
画像生成部106は、描画処理を行なうことによって仮想ゲーム空間に配置されるオブジェクトのゲーム画像を生成し画面表示部160に出力する。具体的には、画像生成部106は、ワールド座標系で表現される3次元座標(X、Y、Z)の仮想ゲーム空間にオブジェクトと仮想カメラを配置し、その仮想カメラを基準とする視点座標系への座標変換を行なう。そして、視点座標系に配置されたオブジェクトに対して透視変換等を行なって、その仮想カメラから見たときの仮想ゲーム空間の様子を2次元画像として生成する。また、画像生成部106は、光源処理などの補間処理や、オブジェクトにテクスチャをマッピングするための処理等も行なう。
The
操作受付部150は、クライアント端末10を操作するユーザーからの操作を受け付ける。なお、本実施形態に係るクライアント端末10は前述したようにタッチパネルを備えるため、ユーザーからのタップ、スワイプ、フリック操作などのタッチパネルに特有な操作を受け付けることができる。
The
記憶部120は、インストールされたアプリケーション(ゲームアプリ等)やクライアント端末10において必要となる各種情報を記憶する。通信部140は、サーバー装置20との通信を行う。画面表示部160は、画像生成部106によって生成されたゲーム画像を取得してクライアント端末10にて画面表示を行う。
The
なお、クライアント端末10の制御部100として、HTML(Hyper Text Markup Language)等で記載されたページデータやページデータ内に含まれるスクリプトなどをサーバー装置20から受信して、ゲームに関する処理を行うブラウザ型がある。また、クライアント端末10の制御部100として、インストールされたアプリケーションに基づいて、ゲームに関する処理を行うアプリケーション型がある。図3は一例としてアプリケーション型を示している。
As the
<操作方法の概要>
ここでは、本実施形態におけるクライアント端末10の操作方法の概要について、図4及び図5を用いて説明する。図4は、本実施形態に係るクライアント端末10の一例を示す外観図である。図5は、ユーザーがタッチパネルを用いて行なうタッチ操作について説明する図である。ここでは、ユーザーが第1操作を行なうときの操作状態を図5Aに示し、ユーザーが第2操作を行なうときの操作状態を図5Bに示している。
<Overview of operation method>
Here, an outline of the operation method of the
本実施形態におけるクライアント端末10は、図4に示すように、画面上に積層されたタッチパネル500を有している。そして、クライアント端末10の画面には、オブジェクトの一例としてのキャラクター501が表示され、かつ、画面左側における左手用領域502(第1領域)に左手用ボタン503が表示されると共に、画面右側における右手用領域504(第2領域)には右手用ボタン505が表示されている。
As shown in FIG. 4, the
キャラクター501については、ユーザーの操作に従って動作する状態がゲーム画面に表示される。左手用ボタン503及び右手用ボタン505については、その位置に固定された状態でゲーム画面上に配置されている。ユーザーは、左手用ボタン503及び右手用ボタン505のそれぞれに対し第1操作又は第2操作を行なうことによって、キャラクター501に動作させることができる。
For the
本実施形態では、ユーザーは、図5Aに示すように、画面上の右手用ボタン505が配置された領域内に「指先」を接触させることによって第1操作を行なう(なお、左手用ボタン503でも同様に第1操作が可能である)。これに対して、図5Bに示すように、画面上の右手用ボタン505が配置された領域内に「指の腹」を接触させることによって第2操作を行なう(なお、左手用ボタン503でも同様に第2操作が可能である)。
In the present embodiment, as shown in FIG. 5A, the user performs the first operation by touching the "fingertip" in the area where the right-
すなわち、第1操作では「指先」を使って操作するのに対し第2操作では「指の腹」を使って操作することになるので、第1操作のときの「接触面積A」は第2操作のときの「接触面積B」よりも小さくなる。タッチパネル500は第1操作のときの「接触面積A」と第2操作のときの「接触面積B」をそれぞれ検出することができるので、それぞれの接触面積の大きさに応じたタッチ操作が認識されることになる。
That is, in the first operation, the operation is performed using the "fingertip", whereas in the second operation, the operation is performed using the "finger pad". Therefore, the "contact area A" in the first operation is the second. It is smaller than the "contact area B" at the time of operation. Since the
そして本実施形態では、ユーザーによって第1操作が行われた場合には、キャラクター501に関する第1制御が行われ、ユーザーによって第2操作が行われた場合には、キャラクター501に関する第2制御が行われるようになっている。例えば、アクションゲームの場合、左手用ボタン503が配置された領域内でユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクター501がゲームフィールドをゆっくり移動するように制御する一方で、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクター501がゲームフィールドを素早く移動(ダッシュ)するように制御することができる。そして、右手用ボタン505が配置された領域内でユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクター501の視点から見たときのゲームフィールドの様子が変化するように仮想カメラの制御が行われる一方で、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、ゲームフィールドに出現した対戦相手に対しキャラクター501が攻撃するように制御することができる。
Then, in the present embodiment, when the first operation is performed by the user, the first control regarding the
このように、ユーザーが接触面積の大きさを変更させつつタッチ操作を行なうだけで、第1操作及び第2操作の2つの入力を使い分けることができる。そのため、第1操作に対応する操作ボタンと第2操作に対応する操作ボタンの双方を画面上に並べて配置させる必要がなくなるので、オブジェクトが見やすくなって操作しやすくなる。また、ユーザーが画面にタッチしたままその接触面積の大きさを変更する操作を行なうだけで、第1操作及び第2操作の2つの入力を即座に切り替えることも可能となる。そのため、長押し操作のように、切り替えのためにタッチしたまま長く待機したり、いったん画面から指を離して入力操作を切り替えたりする必要がなくなるので、操作性を向上させることができる。また、圧力操作のように、切り替えのために強弱の加減を気にしながら操作する必要もないので、操作性を向上させることができる。 In this way, the user can properly use the two inputs of the first operation and the second operation only by performing the touch operation while changing the size of the contact area. Therefore, it is not necessary to arrange both the operation buttons corresponding to the first operation and the operation buttons corresponding to the second operation side by side on the screen, so that the object is easy to see and operate. Further, it is possible to immediately switch between the two inputs of the first operation and the second operation simply by performing an operation of changing the size of the contact area while the user touches the screen. Therefore, unlike the long-press operation, it is not necessary to wait for a long time while touching for switching, or to switch the input operation by releasing the finger from the screen once, so that the operability can be improved. Further, unlike the pressure operation, it is not necessary to operate while paying attention to the adjustment of the strength for switching, so that the operability can be improved.
<動作>
《具体例1》
図6は、本実施形態におけるクライアント端末10の動作例(その1)について説明するフローチャートである。
<Operation>
<< Specific example 1 >>
FIG. 6 is a flowchart illustrating an operation example (No. 1) of the
クライアント端末10は、図4に示すようなゲーム画面の表示中に、タッチパネルを用いたユーザーのタッチ操作によって左手用ボタン503が選択されたか否かを判定する(ステップS11)。
The
具体的には、指示位置決定部102は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置が左手用ボタン503の領域内に含まれているか否かを判定する。この判定により、左手用ボタン503の領域内に含まれている場合には、ユーザーのタッチ操作によって左手用ボタン503が選択されたものと決定される。
Specifically, the instruction
次に、クライアント端末10は、ユーザーのタッチ操作によって左手用ボタン503が選択されなかったと判定された場合に(ステップS11:NO)、後述するステップS16へ処理を進める一方で、ユーザーのタッチ操作によって左手用ボタン503が選択されたと判定された場合には(ステップS11:YES)、左手用ボタン503に対するタッチ操作が第1操作であるか否かを判定する(ステップS12)。
Next, when it is determined that the left-
具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えなかった場合には、左手用ボタン503に対するタッチ操作が第1操作であるものと決定される。
Specifically, the contact
次に、クライアント端末10は、左手用ボタン503に対するタッチ操作が第1操作でないと判定された場合に(ステップS12:NO)、後述するステップS14へ処理を進める一方で、左手用ボタン503に対するタッチ操作が第1操作であると判定された場合には(ステップS12:YES)、キャラクター501に関する第1制御を行なう(ステップS13)。
Next, when the
具体的には、オブジェクト制御部105は、左手用ボタン503に対する第1操作がユーザーによって行われると、キャラクター501に関する第1制御として、そのキャラクター501が第1動作を行なうように制御する。本実施形態では、キャラクター501の第1動作として、キャラクター501がゲームフィールドをゆっくりと低速移動するように制御する。
Specifically, when the user performs the first operation on the left-
次に、クライアント端末10は、左手用ボタン503に対するタッチ操作が第1操作でないと判定された場合に(ステップS12:NO)、左手用ボタン503に対するタッチ操作が第2操作であるか否かを判定する(ステップS14)。
Next, when the
具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えた場合には、左手用ボタン503に対するタッチ操作が第2操作であるものと決定される。
Specifically, the contact
次に、クライアント端末10は、左手用ボタン503に対するタッチ操作が第2操作でないと判定された場合に(ステップS14:NO)、後述するステップS16へ処理を進める一方で、左手用ボタン503に対するタッチ操作が第2操作であると判定された場合には(ステップS14:YES)、キャラクター501に関する第2制御を行なう(ステップS15)。
Next, when the
具体的には、オブジェクト制御部105は、左手用ボタン503に対する第2操作がユーザーによって行われると、キャラクター501に関する第2制御として、そのキャラクター501が第2動作を行なうように制御する。本実施形態では、キャラクター501の第2動作として、キャラクター501がゲームフィールドを素早く高速移動するように制御する。
Specifically, when the user performs the second operation on the left-
次に、クライアント端末10は、ユーザーのタッチ操作によって左手用ボタン503が選択されなかったと判定された場合に(ステップS11:NO)、タッチパネルを用いたユーザーのタッチ操作によって右手用ボタン505が選択されたか否かを判定する(ステップS16)。
Next, when it is determined that the left-
具体的には、指示位置決定部102は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置が右手用ボタン505の領域内に含まれているか否かを判定する。この判定により、右手用ボタン505の領域内に含まれている場合には、ユーザーのタッチ操作によって右手用ボタン505が選択されたものと決定される。
Specifically, the instruction
次に、クライアント端末10は、ユーザーのタッチ操作によって右手用ボタン505が選択されなかったと判定された場合に(ステップS16:NO)、この処理を終了する一方で、ユーザーのタッチ操作によって右手用ボタン505が選択されたと判定された場合には(ステップS16:YES)、右手用ボタン505に対するタッチ操作が第1操作であるか否かを判定する(ステップS17)。
Next, when it is determined that the right-
具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えなかった場合には、右手用ボタン505に対するタッチ操作が第1操作であるものと決定される。
Specifically, the contact
次に、クライアント端末10は、右手用ボタン505に対するタッチ操作が第1操作でないと判定された場合に(ステップS17:NO)、後述するステップS19へ処理を進める一方で、右手用ボタン505に対するタッチ操作が第1操作であると判定された場合には(ステップS17:YES)、キャラクター501に関する第1制御を行なう(ステップS18)。
Next, when the
具体的には、オブジェクト制御部105は、右手用ボタン505に対する第1操作がユーザーによって行われると、キャラクター501に関する第1制御として、そのキャラクター501が第1動作を行なうように制御する。本実施形態では、キャラクター501の第1動作として、キャラクター501の視点から見たときのゲームフィールドの様子が変化するように、ワールド座標系に配置される仮想カメラの視点位置・視方向・画角などに関して制御を行なう。
Specifically, when the user performs the first operation on the right-
次に、クライアント端末10は、右手用ボタン505に対するタッチ操作が第1操作でないと判定された場合に(ステップS17:NO)、右手用ボタン505に対するタッチ操作が第2操作であるか否かを判定する(ステップS19)。
Next, when the
具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えた場合には、右手用ボタン505に対するタッチ操作が第2操作であるものと決定される。
Specifically, the contact
次に、クライアント端末10は、右手用ボタン505に対するタッチ操作が第2操作でないと判定された場合に(ステップS19:NO)、この処理を終了する一方で、右手用ボタン505に対するタッチ操作が第2操作であると判定された場合には(ステップS19:YES)、キャラクター501に関する第2制御を行なう(ステップS20)。
Next, when it is determined that the touch operation for the right-
具体的には、オブジェクト制御部105は、右手用ボタン505に対する第2操作がユーザーによって行われると、キャラクター501に関する第2制御として、そのキャラクター501が第2動作を行なうように制御する。本実施形態では、キャラクター501の第2動作として、ゲームフィールドに出現した対戦相手に対しキャラクター501が攻撃するように制御することができる。また、これに代えて、キャラクター501の第2動作として、キャラクター501の視点から見たときのゲームフィールドの様子が変化するように仮想カメラの制御を行なうと共に、ゲームフィールドに出現した対戦相手に対しキャラクター501が攻撃するように制御することも可能である。
Specifically, when the user performs the second operation on the right-
このように、ユーザーが接触面積の大きさを変更させつつタッチ操作を行なうだけで、第1操作及び第2操作の2つの入力を使い分けることができるので、その操作性を向上させることが可能となる。 In this way, the user can use the two inputs of the first operation and the second operation properly only by performing the touch operation while changing the size of the contact area, so that the operability can be improved. Become.
《具体例2》
図7は、本実施形態におけるクライアント端末10の動作例(その2)について説明するフローチャートである。具体例2では、上述した具体例1とは異なり、ユーザーが画面上の任意の位置に対してタッチ操作を行なった際に、第1操作及び第2操作の2つの入力を使い分けることができるようにした場合について説明する。
<< Specific example 2 >>
FIG. 7 is a flowchart illustrating an operation example (No. 2) of the
クライアント端末10は、ゲーム画面の表示中に、タッチパネルを用いたユーザーのタッチ操作によって画面上の任意の位置を指定しているか否かを判定する(ステップS21)。
While the game screen is being displayed, the
具体的には、指示位置決定部102は、タッチパネルからの検出信号を取得することができたときに、ユーザーのタッチ操作により指示される画面上の指示位置を決定することができる。そのため、操作入力判定部104は、ユーザーのタッチ操作により指示される画面上の指示位置が決定されたか否かに基づいて、ユーザーのタッチ操作によって画面上の任意の位置を指定しているか否かを判定する。
Specifically, the instruction
次に、クライアント端末10は、タッチパネルを用いたユーザーのタッチ操作によって画面上の任意の位置を指定していないと判定された場合に(ステップS21:NO)、この処理を終了する一方で、ユーザーのタッチ操作によって画面上の任意の位置を指定していると判定された場合には(ステップS21:YES)、そのユーザーのタッチ操作が第1操作であるか否かを判定する(ステップS22)。
Next, when it is determined that the
具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えなかった場合には、そのユーザーのタッチ操作が第1操作であるものと決定される。
Specifically, the contact
次に、クライアント端末10は、そのユーザーのタッチ操作が第1操作でないと判定された場合に(ステップS22:NO)、後述するステップS24へ処理を進める一方で、そのユーザーのタッチ操作が第1操作であると判定された場合には(ステップS22:YES)、キャラクターに関する第1制御を行なう(ステップS23)。
Next, when the
具体的には、オブジェクト制御部105は、第1操作がユーザーによって行われると、キャラクターに関する第1制御として、そのキャラクターが第1動作を行なうように制御する。本実施形態では、キャラクターの第1動作として、キャラクターがゲームフィールドを移動するように制御する。
Specifically, when the first operation is performed by the user, the
次に、クライアント端末10は、そのユーザーのタッチ操作が第1操作でないと判定された場合に(ステップS22:NO)、そのユーザーのタッチ操作が第2操作であるか否かを判定する(ステップS24)。
Next, when it is determined that the user's touch operation is not the first operation (step S22: NO), the
具体的には、接触面積決定部103は、タッチパネルからの検出信号に基づいて、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積を決定する。そして、操作入力判定部104は、その決定された画面上の指示位置における接触面積の大きさが予め設定された閾値を超えたか否かを判定する。この判定により、その閾値を超えた場合には、そのユーザーのタッチ操作が第2操作であるものと決定される。
Specifically, the contact
次に、クライアント端末10は、そのユーザーのタッチ操作が第2操作でないと判定された場合に(ステップS24:NO)、この処理を終了する一方で、そのユーザーのタッチ操作が第2操作であると判定された場合には(ステップS24:YES)、キャラクターに関する第2制御を行なう(ステップS25)。
Next, when it is determined that the user's touch operation is not the second operation (step S24: NO), the
具体的には、オブジェクト制御部105は、第2操作がユーザーによって行われると、キャラクターに関する第2制御として、そのキャラクターが第2動作を行なうように制御する。本実施形態では、キャラクターの第2動作として、キャラクターがゲームフィールドを移動すると共に、ゲームフィールドに出現した対戦相手に対しそのキャラクターが攻撃するように制御する。また、これに代えて、図8に示すように、キャラクターの第2動作として、キャラクター501の動作を選択するためのメニュー画像506をユーザーの指示位置の周囲に表示することも可能である。そして、そのメニュー画像506の表示後、ユーザーがタップやフリックなどのタッチ操作を行なうことによっていずれかのコマンドを選択すると、そのコマンドに対応する動作をキャラクター501に行なわせることも可能である。
Specifically, when the second operation is performed by the user, the
なお、前述の実施形態では、ユーザーによって第1操作が行われた際に、キャラクターの第1動作として、キャラクターがゲームフィールドを移動するように制御し、ユーザーによって第2操作が行われた際には、キャラクターの第2動作として、キャラクターがその移動と同時に攻撃するように制御する場合を例に挙げて説明したが、これに限定されるものではない。例えば、ユーザーによって第1操作が行われた際に、キャラクターの第1動作として、キャラクターがゲームフィールドを水平移動するように制御し、ユーザーによって第2操作が行われた際には、キャラクターの第2動作として、キャラクターがゲームフィールドを垂直移動するように制御することも可能である。これにより、例えば、水平移動していたキャラクターが壁に衝突したタイミングで、ユーザーがタッチ操作をこれまでの第1操作から第2操作に切り替えることで、そのキャラクターが壁に沿って垂直移動する(壁を登る)ように制御することも可能となる。その他にも、ジャンプする、扉や宝箱を開く、他のキャラクターに話しかける、ゲームフィールドの地面を調べる、遠距離攻撃をする、近距離攻撃をする、通常攻撃(物理攻撃など)をする、特殊攻撃(スキルや必殺技の発動)をするなどの動作を、キャラクターの第1動作又は第2動作として採用することも可能である。 In the above-described embodiment, when the first operation is performed by the user, the character is controlled to move in the game field as the first action of the character, and when the second operation is performed by the user. Has been described as an example of a case where the character is controlled to attack at the same time as the movement of the character as the second action of the character, but the present invention is not limited to this. For example, when the first operation is performed by the user, as the first action of the character, the character is controlled to move horizontally in the game field, and when the second operation is performed by the user, the character's first operation is performed. As two actions, it is also possible to control the character to move vertically in the game field. As a result, for example, when the character that has been horizontally moving collides with the wall, the user switches the touch operation from the first operation to the second operation so that the character moves vertically along the wall (for example). It is also possible to control to climb the wall). In addition, jump, open doors and treasure chests, talk to other characters, inspect the ground of the game field, make long-range attacks, make short-range attacks, make normal attacks (physical attacks, etc.), special attacks It is also possible to adopt an action such as (activating a skill or a special move) as the first action or the second action of the character.
このように、ユーザーが画面にタッチしたままその接触面積の大きさを変更する操作を行なうだけで、第1操作及び第2操作の2つの入力を即座に切り替えることができるので、その操作性を向上させることが可能となる。 In this way, the user can immediately switch between the two inputs of the first operation and the second operation simply by performing an operation of changing the size of the contact area while touching the screen, so that the operability can be improved. It will be possible to improve.
[その他の実施形態]
前述の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
[Other embodiments]
The above-described embodiment is for facilitating the understanding of the present invention, and is not for limiting the interpretation of the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof. In particular, even the embodiments described below are included in the present invention.
<スライド操作との組合せ>
前述の実施形態では、第1操作及び第2操作の夫々に対してスライド操作を組み合せて入力できるようにしてもよい。すなわち、ユーザーが画面上に「指先」を接触させることによって第1操作を行ないつつ、そのまま接触させた「指先」を画面上で連続移動させることによってスライド操作も併せて行なえるようにしてもよい。また、画面上に「指の腹」を接触させることによって第2操作を行ないつつ、そのまま接触させた「指の腹」を画面上で連続移動させることによってスライド操作も併せて行なえるようにしてもよい。例えば、ユーザーによって第1操作(「指先」によるタッチ操作)とスライド操作(そのまま「指先」を所定方向へ移動させるタッチ操作)が行われると、その所定方向に応じてキャラクターが低速移動を行ない、ユーザーによって第2操作(「指の腹」によるタッチ操作)とスライド操作(そのまま「指の腹」を所定方向へ移動させるタッチ操作)が行われると、その所定方向に応じてキャラクターが高速移動を行なうように制御してもよい。また例えば、ユーザーによって第1操作(「指先」によるタッチ操作)とスライド操作(そのまま「指先」を所定方向へ連続移動させるタッチ操作)が行われると、その所定方向に応じて仮想カメラの制御が行われ、ユーザーによって第2操作(「指の腹」によるタッチ操作)とスライド操作(そのまま「指の腹」を所定方向へ移動させるタッチ操作)が行われると、その所定方向に応じてキャラクターが動作するように制御してもよい。
<Combination with slide operation>
In the above-described embodiment, the slide operation may be combined and input for each of the first operation and the second operation. That is, the user may perform the first operation by touching the "fingertip" on the screen, and may also perform the slide operation by continuously moving the contacted "fingertip" on the screen. .. In addition, while performing the second operation by touching the "finger pad" on the screen, the slide operation can also be performed by continuously moving the touched "finger pad" on the screen. May be good. For example, when the user performs the first operation (touch operation by "fingertip") and slide operation (touch operation by moving the "fingertip" in a predetermined direction as it is), the character moves at a low speed according to the predetermined direction. When the user performs a second operation (touch operation by "finger pad") and slide operation (touch operation by moving "finger pad" in a predetermined direction as it is), the character moves at high speed according to the predetermined direction. It may be controlled to do so. Further, for example, when the user performs the first operation (touch operation by "fingertip") and slide operation (touch operation by continuously moving the "fingertip" in a predetermined direction), the virtual camera is controlled according to the predetermined direction. When the user performs a second operation (touch operation by "finger pad") and slide operation (touch operation by moving "finger pad" in a predetermined direction as it is), the character moves according to the predetermined direction. It may be controlled to operate.
<第1操作・第2操作>
前述の実施形態では、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクターが低速移動を行ない、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクターが高速移動を行なう場合を例に挙げて説明したが、キャラクターの動作を互いに入れ替えることも可能である。つまり、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクターが高速移動を行ない、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクターが低速移動を行なうように制御してもよい。また、前述の実施形態では、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、仮想カメラの制御が行われ、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、キャラクターが攻撃するように制御する場合を例に挙げて説明したが、これについてもキャラクターの動作を互いに入れ替えることも可能である。つまり、ユーザーによって第1操作(「指先」によるタッチ操作)が行われると、キャラクターが攻撃するように制御し、ユーザーによって第2操作(「指の腹」によるタッチ操作)が行われると、仮想カメラの制御を行なうようにしてもよい。その他の具体例においても、キャラクターの動作を互いに入れ替えることも可能である。
<1st operation / 2nd operation>
In the above-described embodiment, when the user performs the first operation (touch operation by "fingertip"), the character moves at a low speed, and the user performs the second operation (touch operation by "finger pad"). , The case where the character moves at high speed has been described as an example, but it is also possible to exchange the movements of the characters with each other. That is, when the user performs the first operation (touch operation by "fingertip"), the character moves at high speed, and when the user performs the second operation (touch operation by "finger pad"), the character slows down. It may be controlled to move. Further, in the above-described embodiment, when the first operation (touch operation by "fingertip") is performed by the user, the virtual camera is controlled, and the second operation (touch operation by "finger pad") is performed by the user. When it is done, the case where the character is controlled to attack is described as an example, but it is also possible to exchange the actions of the characters with each other. That is, when the user performs the first operation (touch operation by "fingertip"), the character is controlled to attack, and when the user performs the second operation (touch operation by "finger pad"), it is virtual. The camera may be controlled. In other specific examples, it is also possible to exchange the movements of the characters with each other.
また前述の実施形態では、ユーザーのタッチ操作により指示される画面上の指示位置における接触面積の大きさに基づいて、第1操作と第2操作の2つの入力を行なうことができる場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、複数段階の閾値を予め設定することにより、画面上の指示位置における接触面積の大きさに応じて3つ以上の操作入力を使い分けることができるようにしてもよい。これにより、第1操作、第2操作、第3操作・・・と、1つのタッチ操作で複数の入力が簡単に行えるようになる。 Further, in the above-described embodiment, the case where two inputs, the first operation and the second operation, can be performed based on the size of the contact area at the designated position on the screen instructed by the user's touch operation is taken as an example. As described above, the present invention is not limited to this. For example, by setting a threshold value of a plurality of steps in advance, it may be possible to use three or more operation inputs properly according to the size of the contact area at the designated position on the screen. As a result, a plurality of inputs can be easily performed with one touch operation such as the first operation, the second operation, the third operation, and the like.
1 情報処理システム
10 クライアント端末
20 サーバー装置
50 コンピューター
51 CPU
52 RAM
53 ROM
54 通信インタフェース
55 入力装置
56 表示装置
57 外部インタフェース
58 HDD
100 制御部
101 ゲーム実行部
102 指示位置決定部
103 接触面積決定部
104 操作入力判定部
105 オブジェクト制御部
106 画像生成部
120 記憶部
140 通信部
150 操作受付部
160 画面表示部
500 タッチパネル
501 キャラクター
502 左手用領域
503 左手用ボタン
504 右手用領域
505 右手用ボタン
506 メニュー画像
B バスライン
N ネットワーク
1
52 RAM
53 ROM
54
100
Claims (5)
仮想カメラから見たゲームフィールドの様子をゲーム画像として生成する生成手段、A generation method that generates a game image of the game field as seen from a virtual camera.
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段、A control means that controls the virtual camera when the first operation is input and controls the operation of an object arranged in the game field when the second operation is input.
として機能させるプログラム。A program that functions as.
仮想カメラから見たゲームフィールドの様子をゲーム画像として生成する生成手段、A generation method that generates a game image of the game field as seen from a virtual camera.
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記仮想カメラを制御するとともに、前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段、A control means that controls the virtual camera when the first operation is input, controls the virtual camera when the second operation is input, and controls the operation of an object arranged in the game field. ,
として機能させるプログラム。A program that functions as.
請求項1又は請求項2に記載のプログラム。The program according to claim 1 or 2.
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段と、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段と、A control means for controlling the virtual camera when the first operation is input and controlling the operation of an object arranged in the game field when the second operation is input.
を備える情報処理装置。Information processing device equipped with.
タッチパネルに接触した指の接触面積の大きさに基づいて、第1操作及び第2操作のいずれの入力であるかを判定する判定手段と、A determination means for determining whether the input is the first operation or the second operation based on the size of the contact area of the finger in contact with the touch panel.
前記第1操作が入力された場合に前記仮想カメラを制御し、前記第2操作が入力された場合に前記仮想カメラを制御するとともに、前記ゲームフィールドに配置されたオブジェクトの動作を制御する制御手段と、A control means that controls the virtual camera when the first operation is input, controls the virtual camera when the second operation is input, and controls the operation of an object arranged in the game field. When,
を備える情報処理装置。Information processing device equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018139081A JP6969516B2 (en) | 2017-09-15 | 2018-07-25 | Programs and information processing equipment |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017178172A JP6418299B1 (en) | 2017-09-15 | 2017-09-15 | Information processing apparatus and program |
JP2018139081A JP6969516B2 (en) | 2017-09-15 | 2018-07-25 | Programs and information processing equipment |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017178172A Division JP6418299B1 (en) | 2017-09-15 | 2017-09-15 | Information processing apparatus and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019051297A JP2019051297A (en) | 2019-04-04 |
JP2019051297A5 JP2019051297A5 (en) | 2021-05-06 |
JP6969516B2 true JP6969516B2 (en) | 2021-11-24 |
Family
ID=66013594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018139081A Active JP6969516B2 (en) | 2017-09-15 | 2018-07-25 | Programs and information processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6969516B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11804064B2 (en) | 2019-09-27 | 2023-10-31 | Semiconductor Energy Laboratory Co., Ltd. | Electronic device |
CN111330276B (en) * | 2020-03-05 | 2024-08-13 | 网易(杭州)网络有限公司 | Game control method, game control device, electronic equipment and medium |
JP2023006173A (en) * | 2021-06-30 | 2023-01-18 | 株式会社Cygames | Information processing program and information processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5709405B2 (en) * | 2010-05-18 | 2015-04-30 | 株式会社タイトー | Graffiti device by image recognition |
JP6021335B2 (en) * | 2011-12-28 | 2016-11-09 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP6643776B2 (en) * | 2015-06-11 | 2020-02-12 | 株式会社バンダイナムコエンターテインメント | Terminal device and program |
-
2018
- 2018-07-25 JP JP2018139081A patent/JP6969516B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019051297A (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6418299B1 (en) | Information processing apparatus and program | |
JP5951638B2 (en) | Virtual controller for touch display | |
KR101981158B1 (en) | Interaction method for user interfaces | |
WO2020080346A1 (en) | Information processing device and program | |
JP6969516B2 (en) | Programs and information processing equipment | |
KR20140062257A (en) | Method for providing virtual keyboard and an electronic device thereof | |
CN110069147B (en) | Control device and control method thereof | |
JP2016134052A (en) | Interface program and game program | |
JP5953418B1 (en) | Program, electronic apparatus, system and method for improving user input operability | |
JP6581639B2 (en) | Game program and game system | |
US11759702B2 (en) | Game system, processing method, and information storage medium | |
JP6216862B1 (en) | GAME METHOD AND GAME PROGRAM | |
JP6521146B1 (en) | Information processing apparatus and program | |
JP2019202128A (en) | Information processor and program | |
JP6236818B2 (en) | Portable information terminal | |
JP2020062376A (en) | Information processor and program | |
JP2015097583A (en) | Game device with touch panel, its control method and program | |
JP5773818B2 (en) | Display control apparatus, display control method, and computer program | |
JP2024130698A (en) | PROGRAM, INFORMATION PROCESSING APPARATUS, AND METHOD | |
WO2017159796A1 (en) | Information processing method and information processing device | |
JP2018069040A (en) | GAME METHOD AND GAME PROGRAM | |
JP2017167792A (en) | Information processing method and information processor | |
JP2019134881A (en) | Program and game device | |
JP2012234456A (en) | Page view switching device | |
KR20050112979A (en) | Portable computer with pointing device's button having different use from original use and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200914 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6969516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |