[go: up one dir, main page]

JP7232054B2 - 画像測定機およびプログラム - Google Patents

画像測定機およびプログラム Download PDF

Info

Publication number
JP7232054B2
JP7232054B2 JP2019002410A JP2019002410A JP7232054B2 JP 7232054 B2 JP7232054 B2 JP 7232054B2 JP 2019002410 A JP2019002410 A JP 2019002410A JP 2019002410 A JP2019002410 A JP 2019002410A JP 7232054 B2 JP7232054 B2 JP 7232054B2
Authority
JP
Japan
Prior art keywords
tool
measuring machine
touch panel
displayed
image measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019002410A
Other languages
English (en)
Other versions
JP2019124688A (ja
Inventor
玉武 張
浩一 小松
康弘 ▲高▼▲濱▼
拓 石山
セイラー バリー
大海 于
ノースラップ ライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Publication of JP2019124688A publication Critical patent/JP2019124688A/ja
Application granted granted Critical
Publication of JP7232054B2 publication Critical patent/JP7232054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像測定機をはじめとする測定装置のタッチパネルディスプレイを用いたユーザインタフェースに関する。
被測定物(以下、「ワーク」という)を撮像して得られる画像を用いて、ワークの寸法や形状を測定及び評価する測定装置として画像測定機が用いられる。画像測定機では、撮像したワークの画像に含まれる測定対象図形のエッジ情報(位置座標など)を取得し、エッジ情報に基づいてワークの形状や寸法の評価を行う。
ところで、近年、タッチパネルディスプレイの普及に伴い、ディスプレイなどに触れることで操作できる直感的に使いやすいユーザインタフェースとして、いわゆるタッチインタフェースが広く利用されるようになってきており、画像測定機にも応用されている(例えば、特開2016-173703号公報参照)。
しかし、従来のマウス等を用いた操作用のインタフェースをタッチインタフェースにそのまま転用したのでは、直感的な操作が難しい場合がある。
このような問題に鑑みて、本発明は、タッチパネルディスプレイを用いた操作に適した画像測定機を提供することを目的とする。
上記の課題を解決すべく、本発明に係る画像測定機は、測定対象物を撮像し、タッチパネルディスプレイに表示された測定対象物の撮像画像に基づき、測定対象物の寸法や形状を測定する。画像測定機は、タッチパネルディスプレイに対して接触入力されたジェスチャに応じタッチパネルディスプレイから出力された信号から、当該ジェスチャに対応するコマンドを特定し、当該コマンドの実行対象の画像測定機の部位に対して当該コマンドを実行する制御手段を備え、ジェスチャは2点以上の同時接触状態で行われるジェスチャであることを特徴とする。
本発明では、前記コマンドは、画像測定機の部位に物理的な移動・運動をさせるコマンドとするとよい。
また、本発明では、2点以上の同時接触状態で行われるジェスチャは、タップ、ダブルタップ、ロングタップ、フリック、スワイプ、又はローテートとするとよい。
上記課題を解決すべく本発明に係るプログラムは、コンピュータを上記いずれかに記載の制御手段として機能させる。
画像測定機の全体構成の一例を示す。 コンピュータシステムの機能ブロック図を示す。 タッチパネルディスプレイに表示される表示画面の例を示す。 タッチパネルディスプレイに表示される表示画面の例を示す。 2指でのタッチパネルディスプレイ144への同時接触状態の例を示す。 位置指定処理のフローチャートを示す。 図7(a)及び(b)は画面(第1ウィンドウW1)を指でタッチしたときの様子を模式的に示す。初期接触位置P1から接触位置CPまでの距離が所定距離に達したときの画面の表示例をユーザの指とともに示す。 図8(a)及び(b)は、接触位置CPを初期接触位置P1から少し移動させたときの様子を模式的に示す。 初期接触位置P1から接触位置CPまでの距離が所定距離に達したときの画面の表示例をユーザの指とともに示している。 図9の状態からさらに接触位置CPを移動させたときの画面の表示例をユーザの指とともに示す。 位置指定確定操作を検知した後の画面の表示例を示す。 矩形のエッジ検出ツールが編集可能に第1ウィンドウW1に表示された表示画面の例を示す。 円形のエッジ検出ツールが編集可能に第1ウィンドウW1に表示された表示画面の例を示す。
以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。
〔画像測定機の構成〕
図1は、画像測定機の全体構成の一例を示している。
測定部100は、架台101と、試料台(ステージ)102と、支持アーム103aおよび103bと、X軸ガイド104と、撮像ユニット105とを備える。図1に示されるように、測定部100は、フロアに設置された除振台3上に配置される。除振台3はフロアの振動が台上の測定装置1に伝搬するのを防ぐ。除振台3はアクティブ型及びパッシブ型のいずれであってもよい。除振台3の天板上には架台101が配置され、その上に、ワークWを載置するステージ102がその上面をベース面として水平面と一致するように載置される。ステージ102は、図示しないY軸駆動機構によってY軸方向に駆動され、ワークWを撮像ユニットに対してY軸方向に移動可能とされている。架台101の両側縁中央部には上方に延びる支持アーム103a、103bが固定され、この支持アーム103a、103bの両上端部を連結するようにX軸ガイド104が固定される。このX軸ガイド104は、撮像ユニット105を支持する。撮像ユニット105は、図示しないX軸駆動機構によってX軸ガイド104に沿って駆動される。撮像ユニット105は、図示しないZ軸駆動機構によって鉛直方向(Z軸方向)に沿って駆動される。
撮像ユニット105の下端部には、CCDカメラ等の撮像素子が、ステージ102と対向するように設けられている。撮像ユニット105は、コンピュータシステム2が設定する測定位置でワークを測定する。
コンピュータシステム140は、測定部100を制御してワークWの撮像画像を取得したり、ユーザに操作環境を提供したりする。コンピュータシステム140は、例えばコンピュータ本体141、キーボード142、マウス143、及びタッチパネルディスプレイ144、ジョイスティック145等を備える。コンピュータ本体141は、制御ボード等の回路(ハードウェア)及びCPUで実行されるプログラム(測定用アプリケーションソフトウェア)によって測定部100の動作を制御する。また、コンピュータ本体141は、測定部100から出力される信号に基づきワークWの情報を取得・演算し、演算結果をタッチパネルディスプレイ144に表示する処理を行う。キーボード142、マウス143及びジョイスティック145は、コンピュータ本体141に対する入力手段である。タッチパネルディスプレイ144は、コンピュータ本体が出力する画像を表示する表示手段として機能するほか、画面に対する接触による操作を検出しコンピュータ本体141に入力する入力手段としても機能する。タッチパネルディスプレイ144に表示されたメニューやアイコンへのタッチ操作は、コンピュータシステム140内ではメニューやアイコンに対するマウスでのクリック等の操作にエミュレーションされて処理される。画像測定機の操作、エッジ検出ツールの貼り付けや編集など、画像測定機用のプログラムに特有な操作についてのタッチインタフェースを示現する方法については、後に詳述する。
図2はコンピュータシステム140の機能ブロック図を示している。コンピュータシステム140の機能ブロックとしては、CPU(Central Processing Unit)211、インタフェース212、出力部213、入力部214、主記憶部215及び副記憶部216が設けられる。
CPU211は、各種プログラムの実行によって各部を制御する。インタフェース212は、例えば、測定部100から送られる情報をコンピュータシステム140に取り込む、コンピュータシステム140から情報を測定部100へ送る、コンピュータシステム140をLAN(Local Area Network)やWAN(Wide Area Network)に接続する等の役割を持つ、外部機器との情報入出力を行う部分である。なお、本実施形態において、測定用アプリケーションソフトウェアの機能として説明される内容は、CPU211が測定用アプリケーションソフトウェアを実行することにより実現されるものである。
出力部213は、コンピュータシステム140で処理した結果を出力する。出力部213は、例えば、図1に示すタッチパネルディスプレイ144や、プリンタなどが用いられる。入力部214は、オペレータから情報を受け付ける。入力部214には、例えば、図1に示すキーボード142、マウス143、タッチパネルディスプレイ144、ジョイスティック145などが用いられる。また、入力部214は、記録媒体MMに記録された情報を読み取る機能を含む。
主記憶部215には、例えばRAM(Random Access Memory)が用いられる。主記憶部215の一部として、副記憶部216の一部が用いられてもよい。副記憶部216には、例えばHDD(Hard disk drive)やSSD(Solid State Drive)が用いられる。副記憶部216は、ネットワークを介して接続された外部記憶装置であってもよい。
〔画面表示〕
次に、コンピュータ本体141のCPU211で実行されるプログラム(測定用アプリケーションソフトウェア)によってタッチパネルディスプレイ144に映し出される画面表示について説明する。
図3(a)は、測定用アプリケーションソフトウェアの実行によってタッチパネルディスプレイ144に表示される表示画面の例を示す図である。図3(a)に示したように、タッチパネルディスプレイ144にはメインウィンドウMWが表示される。タッチパネルディスプレイ144に表示されるメインウィンドウMWは、マウスによる操作、及びタッチ入力による操作の何れによっても操作可能とされる。ただし、マウスによる操作とタッチ入力による操作とを区別して認識し、両者で異なる反応をするように構成してもよい。例えば、タッチ入力による操作を受けたときの方がマウスによる操作を受けたときと比べてメニューやアイコンの表示間隔を広げるように構成してもよい。このようにすれば、タッチ入力で誤入力をする可能性を低減するとともに、マウス操作では高密度で効率的な表示によるインタフェースを提供することができる。
メインウィンドウMWの中には複数のウィンドウが表示される。メインウィンドウMWの上側には、各種操作及び設定のためのメニューバーが表示される。また、メインウィンドウMWの下側及び右側には、各種操作及び設定のためのアイコンが並んだツールバーが表示される。ツールバーには、ユーザによって選択可能なファンクションのアイコン、第1ウィンドウW1内において測定ポイントを指定するための指定方法に応じたツールのアイコン等を含むとよい。
第1ウィンドウW1には、画像測定機1で取り込んだワークWの画像WGが表示される。タッチインタフェースでの操作性を踏まえ、第1ウィンドウW1はメインウィンドウMWの中央部に表示されるとよい。ユーザは、例えば、マウス143でアイコンを選択したり、タッチパネルディスプレイ144における第1ウィンドウW1の表示領域に対し二本の指による接触位置の間隔を狭めたり広げたりする操作(いわゆるピンチアウト/ピンチイン)をしたりすることにより、ワークWの画像WGを拡大/縮小することができる。また、タッチパネルディスプレイ144における第1ウィンドウW1の表示領域に触れた状態で指を滑らせる操作(いわゆるスワイプ)により、第1ウィンドウW1に表示させるワークWの画像WGの位置を調整することができる。
図3(a)に示されるように、第1ウィンドウW1の左下及び右下の領域には、タッチ入力及びマウス操作によって画像測定機1を操作するための操作ボタンが表示される。
操作ボタンとしては、例えば、第1ウィンドウW1の左下の領域に、当該領域に表示するボタンを切り替えるための切替ボタンBS1を表示するとともに、この切替ボタンBS1へのタッチ入力により設定されるモードに応じた操作ボタンを切替ボタンBS1の周囲に表示する。例えば、切替ボタンBS1を押すごとにモードが順次切り替わるようにするとよい。切替ボタンBS1の周囲に表示する操作ボタンとしては、例えば、切替ボタンBS1がステージ102をXY方向に移動させるモードとされている場合には、ステージ102を+X方向及び-X方向のそれぞれに移動させるコマンドを入力するためのボタンBX1及びBX2を切替ボタンBS1の左右に表示し、ステージ102を+Y方向及び-Y方向のそれぞれに移動させるコマンドを入力するためのボタンBY1及びBY2を切替ボタンBS1の上下に表示するとよい。また、切替ボタンBS1が、ステージ102を撮像光学系に対しZ方向に相対的に移動させるモードとされている場合には、図3(b)に示されるように、+Z方向及び-Z方向のそれぞれに移動させるコマンドを入力するためのボタンBZ1及びBZ2を切替ボタンBS1の上下に表示するとよい。
また、第1ウィンドウW1の右下の領域にも各種のボタンが配置される。例えばボタンBL1及びBL2は、照明の光量を増減させるためのボタンである。ボタンBL1とBL2の間には、切替ボタンBS2が設けられる。切替ボタンBS2を押すと光量調整の対象とする光源(落射照明、透過照明、リング照明等)を選択するポップアップメニューが表示され、当該メニューの選択結果に応じて切替ボタンBS2の図柄が変化するとともに、ボタンBL1及びBL2による調整の対象となる光源の種類が変更される。また、ボタンBD1及びBD2は、第1ウィンドウW1に表示する画像WG像の表示倍率を増減するためのボタンである。ボタンBD1及びBD2を押すと、押したボタンの種類及び回数に応じて、撮像ユニット105に搭載された光学系の撮像倍率が段階的に変更され、これに伴い第1ウィンドウW1におけるワークWの表示倍率が変更される。ボタンBD1とBD2の間には、切替ボタンBS3が設けられる。切替ボタンBS3を押すと、設定可能な倍率を選択するポップアップメニューが表示され、当該メニューの選択結果に応じて表示倍率が希望の倍率に変更される。また、ボタンBJ は、ジョイスティック145によるステージ制御と、タッチパネルディスプレイ144を利用したインタフェースによるステージ制御(各種ボタンBX1,BX2,BY1,BY2,BZ1,BZ2等やジェスチャ)との、いずれによる操作を利用可能とするかを切り替えるためのボタンある。ジョイスティック145によるステージ制御と、タッチパネルディスプレイ144を利用したインタフェースによるステージ制御は、意図せぬ接触等による誤操作を防ぐ観点から、排他的にいずれか一方のみ利用可能とされる。また、ボタンBCは、画像の表示状態を変更するためのボタンである。ボタンBCを押したときに行われる表示状態の変更の一例としては、照明が明るすぎて画像の輝度値が飽和していないかを確認するため、第1ウィンドウW1の画像WGにおける飽和した画素を赤色に変更するとよい。また、表示切替ボタンBMは、第1ウィンドウW1へのボタンの表示を隠すためのボタンである。
なお、各ボタンの表示は、撮像画像WGを表示する際に同時に表示してもよいし、当初は表示せずにユーザによる何らかの入力操作が行われたことを契機に表示してもよい。この場合例えば、図4に示すように表示切替ボタンBMのみを、撮像画像WGを表示する際に同時に表示しておき、この表示切替ボタンBMにタッチ入力操作が行われたことを契機に、図3(a)に示すように各種ボタンを表示するようにしてもよい。
第2ウィンドウW2には、ワークWに照射する照明をコントロールするためのスライダが照明の種類毎に表示される。ユーザは、このスライダを操作することで、ワークWに対して所望の照明を当てることができる。また、タップすることにより光量を増減するためのボタンも照明の種類毎に表示される。
第3ウィンドウW3には、ステージ102のXY座標値が表示される。第3ウィンドウW3に表示されるXY座標値は、所定の原点に対するステージ102のX軸方向の座標及びY軸方向の座標である。
第4ウィンドウW4には、選択した測定方法に応じて、公差判定結果、測定結果等が表示される。なお、公差判定結果及び測定結果の表示例の詳細は図示を省略する。
なお、図3に示した例では、メインウィンドウMWの中に4つのウィンドウを表示したが、必要に応じて4つ以外のウィンドウ表示を行うことも許容される。また、メニュー等の選択に応じて一時的にメニューに応じたウィンドウやツールバーを表示することも許容される。
また、各ウィンドウやツールバーの画面レイアウトはユーザの操作によって自由に変更することが可能とされる。そして、ユーザが任意に変更した画面レイアウトについて、名前を付けて主記憶部215または副記憶部216に保存することが可能とされ、保存されている画面レイアウトをメニュー等から選択して呼び出し、メインウィンドウMWに適用できるように構成される。また、タッチインタフェース用の標準レイアウトを予め主記憶部215または副記憶部216保存しておくとよい。図3(a)は、タッチインタフェース用の標準レイアウトの一例であり、画面中央に画像WGを表示する第1ウィンドウW1が配置され、画面下部及び側部にタッチ入力が容易なサイズのアイコンが並んだツールバーが配置される。
〔タッチインタフェースによる画像測定機の操作〕
続いて、タッチインタフェースにより画像測定機1を操作する手法について説明する。
本実施形態の画像測定機1は、第1ウィンドウW1に画像WGに重畳して表示されたボタンへのタッチ入力により操作することが可能とされる。各ボタンにはそれぞれ画像測定機1を操作するためのコマンド(例えば、「ステージ102を+X方向に所定ステップだけ移動させる」といったコマンド)が割り当てられる。コンピュータ本体141のCPU211で実行される測定用アプリケーションソフトウェアは、ユーザによりボタンにタッチ入力操作がされると、これに応じてタッチパネルディスプレイ144から出力された信号から、操作されたボタンに対応するコマンドを特定し、測定部100における当該コマンドの実行対象の部位に対して当該コマンドを実行する。
〔ジェスチャ入力による画像測定機の操作〕
本実施形態の画像測定機1は、タッチパネルディスプレイ144に対して接触入力されたジェスチャにより操作することが可能とされる。すなわち、コンピュータ本体141のCPU211で実行される測定用アプリケーションソフトウェアは、タッチパネルディスプレイ144に対して接触入力されたジェスチャに応じてタッチパネルディスプレイ144から出力された信号から、当該ジェスチャに対応するコマンドを特定し、測定部100における当該コマンドの実行対象の部位に対して当該コマンドを実行する。
入力されるジェスチャは、2点以上(例えば指であれば2指以上)のタッチパネルディスプレイ144への同時接触状態で行われるジェスチャであり、具体的には例えば、タップ、ダブルタップ、ロングタップ、フリック、スワイプ、ドラッグ又はローテートなどが挙げられるが、2点以上の同時接触で行われるものであれば、その他のジェスチャでも構わない。図5は、2指でのタッチパネルディスプレイ144への同時接触状態の例を示す図である。
ジェスチャに対応するコマンドは任意であるが、2点以上の同時接触が要求されることで、タッチパネルへの意図せぬ接触によりコマンドが入力されて誤動作する危険性が軽減されるため、入力に際しての安全性が求められるコマンドへの適用が好適である。例えば、測定部100のX軸駆動機構、Y軸駆動機構、Z軸駆動機構などの部位に物理的な移動・運動をさせるコマンドなどが挙げられる。
ジェスチャに対するコマンドの割り当て方として、具体的には次のような例が挙げられる。
(1)タッチパネルディスプレイ144に表示されたワークWの撮像画像WG上において2点以上の同時接触状態でX軸又はY軸方向に行うスワイプに対して、ステージ102をX軸又はY軸方向に移動させるモータの駆動コマンドをそれぞれ割り当てる。
(2)タッチパネルディスプレイ144に表示されたワークWの撮像画像WG上において2点以上の同時接触状態で行うタップに対して、撮像画像WGがワークウインドウWWの中心に表示されるようにステージ102を移動させるモータの駆動コマンドを割り当てる。
(3)タッチパネルディスプレイ144に表示されたワークWの撮像画像WG上において2点以上の同時接触状態で行うダブルタップに対して、筐体110の光学系に対しオートフォーカスを実行させるコマンドを割り当てる。
(4)タッチパネルディスプレイ144に表示されたワークWの撮像画像WG上において2点以上の同時接触状態で行うローテートに対して、筐体110の光学系をZ軸方向に低速で移動させるモータの駆動コマンドを割り当てる。
このような対応関係は、例えば、副記憶部216に記憶しておき測定用アプリケーションソフトウェアの実行時に参照にしてもよいし、測定用アプリケーションソフトウェア自体に書き込んでおいてもよい。
また、上記のように、1つのジェスチャに1つのコマンドを割り当てる態様だけでなく、タッチパネルディスプレイ144に表示されたワークWの撮像画像WG上において2点以上の同時接触状態でドラッグ(接触を維持したまま任意の軌跡で異動する操作)に対して、ドラッグに追随して第1ウィンドウW1に表示された画像WGが変化するようにステージ102を移動させるよう、ステージ102をX軸又はY軸方向に移動させるモータの駆動コマンドが複数組み合わされて実行されるようにしてもよい。
2指でのタッチパネルディスプレイ144へのジェスチャ入力を、2つの接触位置の距離が所定の閾値よりも長い場合には受け付けないようにすることが好ましい。例えば、1指でタッチ入力をしたときに、当該1指とは別の部位等が意図せずタッチパネルディスプレイに触れていた結果、2指でのジェスチャ入力として受け付けられる可能性があるが、上記のように構成し、閾値を平均的な体格の人が人差指と中指を広げたときの間隔程度とすることで、上記のような誤入力を防ぐことができる。2指でのジェスチャ入力に安全性が求められるコマンドが割り当てられている場合には、意図せずこのようなコマンドが実行されることを防ぐことができる点で効果的である。
ここまで主に2指でのジェスチャ入力を例に説明したが、3指以上でのジェスチャ入力にもコマンドを割り当ててよいことは言うまでもない。例えば、3指での上方へのスワイプ(またはドラッグ)には照明を明るくするコマンドを割り当て、3指での下方へのスワイプ(またはドラッグ)には照明を暗くするコマンドを割り当ててもよい。
〔ワンクリックでのエッジ検出ツール貼りつけ〕
本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアは、第1ウィンドウW1に表示したワークWの画像WGに含まれる測定対象図形のエッジ情報(位置座標など)を取得するためのエッジ検出ツール(単に「ツール」呼ぶ場合もある)を、タッチパネルディスプレイ144に対する1回のタップ操作により画像WGに適用することを可能とする。なお、画像WGの所望の位置にエッジ検出ツールを適用することを、以下では「ツールを貼る」と称する。
測定用アプリケーションソフトウェアは、エッジ検出ツールとして、1点のエッジを検出するシンプルツール、円形のエッジを検出する円ツール、直線状のエッジを検出する直線ツール等が利用可能とされる。これらの各種ツールは、ツールバーにおける各ツールに対応するアイコンをタップすることにより選択できる。
タッチ入力により画像WGにツールを貼る方法としては、ドラッグによる方法とタップによる方法が可能とされる。ドラッグによる方法では、貼り付けるツールを選択した状態で第1ウィンドウW1に対しドラッグ操作をすることにより、ドラッグの開始位置と終点位置に応じて決まる位置、大きさ及び方向で、画像WGにツールを貼ることができる。このように、ドラッグによる方法では、ユーザがツールの位置、大きさ、及び方向を指定することができる。
タップによる方法では、貼り付けるツールを選択した状態で第1ウィンドウW1内のツールを貼りたい位置の近傍をタップすると、選択されているツールに適したエッジをタップした位置の近傍において探索し、見つかったエッジに合わせた位置、大きさ、及び方向でツールを自動的に貼り付ける。なお、適切なエッジが見つからない場合には、あらかじめ定められたデフォルトの大きさ及び方向で、タップされた位置にツールを貼り付ける。
なお、ドラッグによる方法とタップによる方法は、第1ウィンドウW1への接触操作がドラッグ及びタップの何れかを測定用アプリケーションソフトウェアが判別して、自動的にいずれかが適用される。なお、タップを意図した操作において、接触位置がわずかに移動してドラッグ操作として扱われると、意図したのとは異なる微小なツールが貼られてしまう恐れがある。特に、タップによる方法は、複数のツールを素早く連続して貼る目的で使われることがあるが、前述のような意図せぬツールが貼り付けられた場合、作業性が著しく損なわれることになる。
このような不都合を解消すべく、タッチ入力による接触位置が移動した場合でもその移動距離が所定の閾値以下である場合には、タップとみなしてタップによるツール貼り付け方法を適用するとよい。このようにした場合、ドラッグによって閾値以下の大きさの微小なツールを貼ることはできなくなるが、後述するツールの編集によってツールの大きさを縮小することは可能とされる。
〔タッチ入力による位置指定〕
ツールの貼り付けや編集などで、表示画面内における詳細な位置指定が必要となる場合がある。このような場合、マウスをはじめとする従来の入力手段では、マウス等を用いて画面内に表示されるカーソルを移動させ、意図した位置に正確にカーソルを合わせて位置を指定することができる。これに対して、タッチインタフェースでは、通常、指やペン先によりディスプレイに接触している領域の重心を指定した位置とする。この接触している領域の重心は、ユーザからは指やペン先の裏に隠れて見えないので、ユーザは自らが指定している位置を正確に知ることができず、意図した位置を正確に指定することは容易でない。
そこで本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアは、以下で説明するように、タッチインタフェースに適した位置指定の方法を可能とする。
図6は、測定用アプリケーションソフトウェアで実現される位置指定処理のフローチャートを示している。位置指定処理は、ユーザが第1ウィンドウW1内をタッチしたことに応じて、処理が開始される。なお、処理が開始されると、コンピュータシステム140は、接触位置を継続的に取得して、スライド操作や離す操作を認識する。
処理が開始されると、コンピュータシステム140は、ユーザが最初にタッチした第1ウィンドウW1の位置を初期接触位置として取得(ステップS100)し、初期接触位置に位置指定カーソルを表示する(ステップS110)。
続いて、コンピュータシステム140は、初期接触位置から接触位置までの距離が、所定距離に達しているか否かを判定する(ステップS120)。初期接触位置から接触位置までの距離が所定距離に達していない場合(ステップS120;No)、コンピュータシステム140は、接触位置が検知できるか否か(つまり、接触が終了しているか否か)を判定する(ステップS180)。ここで、所定距離は、初期接触位置に接触した指やペンなどをその距離だけ移動させることで初期接触位置がユーザから十分に視認できるようになる程度の距離とするとよく、例えば2cm程度とするとよい。接触位置が検知できない場合(ステップS180;Yes)、コンピュータシステム140は、位置指定カーソルを非表示とし(ステップS190)、指定位置を取得することなく処理を終了する。一方、ステップS180において接触位置が検知できる場合(ステップS180;No)には、処理をステップS120に戻す。したがって、コンピュータシステム140は、接触位置を検知できる限り、接触位置が所定距離に達するまで、ステップS120とステップS180とを繰り返し実行する。
一方、ステップS120において、初期接触位置から接触位置までの距離が所定距離に達した場合(ステップS120;Yes)、コンピュータシステム140は、位置指定カーソルの表示態様を変更する(ステップS130)。位置指定カーソルの表示態様を変更することにより、初期接触位置からの接触位置の移動量が所定距離に達したことをユーザに知らせることができる。後述するように、初期接触位置から接触位置までの距離が所定距離に達した以後は、コンピュータシステム140は、所定の位置指定確定操作を検知することに応じて指定位置を取得できるようなる。そこで、初期接触位置からの接触位置の移動量が所定距離に達していないときの位置指定カーソルの表示態様を「非有効状態」、初期接触位置からの接触位置の移動量が所定距離に達した以後の位置指定カーソルの表示態様を「有効状態」と呼ぶ。
続いて、コンピュータシステム140は、検知する接触位置の更なる移動に応じて、初期接触位置から接触位置までの距離が所定距離に達したときの位置指定カーソルと接触位置との相対的な位置関係を維持するように、位置指定カーソルを接触位置に追随させて移動する(ステップS140)。
続いて、コンピュータシステム140は、位置指定確定操作を検知したか否かを判定する(ステップS150)。「位置指定確定操作」とは、位置指定カーソルが表示されている位置を指定位置としてコンピュータシステム140に取得させるための特定の操作を指し、本例では、接触を終了する(つまり画面に触れていた指を離す)操作とする。位置指定確定操作を検知していない場合(ステップS150;No)、コンピュータシステム140は、処理をステップS140に戻す。したがって、コンピュータシステム140は、位置指定確定操作を検知するまで、ステップS140とステップS150とを繰り返し実行して、接触位置に追随させて位置指定カーソルを移動させ続ける。一方、ステップS150において、位置指定確定操作を検知した場合(S150;Yes)、コンピュータシステム140は、位置指定確定操作を検知したときの位置指定カーソルの表示位置を指定位置として取得(ステップS160)する。そして、コンピュータシステム140は、第1ウィンドウW1内における指定位置に応じた処理(例えば指定位置に目印を表示する、指定位置の周辺でエッジを検索する等)を実行し(ステップS170)、処理を終了する。
続いて、表示画面の例を示す参照しつつ、本実施形態の位置指定方法の具体例を説明する。
図7(a)及び(b)は画面(第1ウィンドウW1)を指でタッチしたときの様子を模式的に示している。図7(a)は、画面を指でタッチしたときにユーザに見えるタッチパネルディスプレイ144の画面と操作する手を示しており、図7(b)は、画面を指でタッチしたときの画面の表示例をタッチする指の仮想線とともに示している。コンピュータシステム140は、ユーザが画面を指やペンでタッチすることに応じて、位置指定処理を開始する。コンピュータシステム140は、接触を検知した領域の重心を初期接触位置P1として認識し、この初期接触位置P1に位置指定カーソルCSを表示する。本例では、位置指定カーソルCSは、初期接触位置P1で交差する十字マークである。
図8(a)及び(b)は、接触位置CPを初期接触位置P1から少し移動させたときの様子を模式的に示している。なお、このときの初期接触位置P1から接触位置CPまでの距離は、所定距離未満である。図8(a)は、ユーザに見えるタッチパネルディスプレイ144の画面と操作する手を示しており、図8(b)は、画面の表示例をタッチする指の仮想線とともに示している。初期接触位置P1から現在の接触位置CPまでの距離が所定距離未満である間、コンピュータシステム140は、図8に示したように位置指定カーソルCSを初期接触位置P1に表示し続ける。なお、コンピュータシステム140は、図5または図8の状態で接触が検知できなくなると(つまり、ユーザが画面から指を離すと)、位置指定カーソルCSを非表示として、指定位置処理を終了する(図6におけるステップS190に相当)。
図9は、初期接触位置P1から接触位置CPまでの距離が所定距離に達したときの画面の表示例をユーザの指とともに示している。コンピュータシステム140は、初期接触位置P1から接触位置CPまでの距離が所定距離に達したことを検知すると、位置指定カーソルCSの表示態様を変更する。このときの表示態様の変更例としては、変更の前後でその変化をユーザが視認できれば如何なるものでもよいが、例えば、図9に示したように変更前よりも変更後に位置指定カーソルCSの線を太くしたり、彩度の高い色としたりといったように、変更前よりも変更後に視認性が高まるような変更とすることが好ましい。
図10は、図9の状態からさらに接触位置CPを移動させたときの画面の表示例をユーザの指とともに示している。なお、図10において、図9の状態での位置指定カーソルを仮想的に破線で示した。図10に示したように、コンピュータシステム140は、初期接触位置P1から接触位置CPまでの距離が所定距離に達したときの位置指定カーソルCSと接触位置CPとの相対的な位置関係を維持するように、位置指定カーソルCSを接触位置CPに追随させて移動する。つまり、図9に示したように、初期接触位置P1から接触位置CPまでの距離が所定距離に達したときに、接触位置CPが初期接触位置P1の右下に位置している場合(つまり、位置指定カーソルCSが接触位置CPの左上に表示されている)場合には、それ以後さらに接触位置CPを移動させると、位置指定カーソルCSは、接触位置CPに触れている指等で隠されることなく、常に接触位置CPの左上に表示される。
図11は、位置指定確定操作(本例では、接触の終了)を検知した後の画面の表示例を示している。所望の位置に位置指定カーソルCSが表示されるように、ユーザが接触位置CPを移動させて、位置指定確定操作を行うと(つまり、指等を画面から離すと)、これに応じて、コンピュータシステム140は、位置指定確定操作が行われたときに位置指定カーソルCSが表示されていた位置を指定位置として取得するとともに、位置指定カーソルCSを非表示とする。そして、指定位置に応じた処理(本例では指定位置にツールTを貼り付けて表示する処理)を実行して、処理を終了する。
このようにして、タッチパネルディスプレイ144での操作に適したタッチパネルディスプレイの位置指定方法およびプログラムを実現することができる。特に、指やスタイラスペンでのタッチ入力で正確に位置を指定することができる。また、意図せぬ接触により不要な位置指定処理が行われることを防ぐことができる。
なお、上記の例では、コンピュータシステム140は、接触を検知すると初期接触位置P1に位置指定カーソルCSを表示したが、初期接触位置P1に応じた位置、すなわち、初期接触位置P1から所定の方向及び距離だけずらした位置に位置指定カーソルCSを表示するようにしてもよい。
また、位置指定カーソルの非有効状態及び有効状態における表示態様は、ユーザが両者を視覚的に識別できればいかなる表示態様としてもよい。
〔エッジ検出ツールの編集〕
本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアは、以下で説明するように、第1ウィンドウW1に表示された画像WGに対して貼り付けたエッジ検出ツールの位置、大きさ、及び方向を編集したり、貼り付けてあるツールを削除したりといった編集を可能とする。以下、編集対象とするツールの選択方法、及びツールを編集する操作の方法について説明する。
〔編集対象ツールの選択〕
本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアでは、第1ウィンドウW1に表示された画像WGに対して貼り付けられているツールを、直接タッチして選択する方法、及び、ツール操作ウィンドウに配置されたボタンを操作する方法によって選択することができる。
直接タッチして選択する方法では、第1ウィンドウW1内へのツール選択ジェスチャが検出されると、ツール選択ジェスチャの検出位置の周辺における所定範囲にあるツールをサーチし、ツール選択ジェスチャの検出位置に最も近いツールを選択状態とする。なお、ツール選択ジェスチャは、例えば、タップ、ダブルタップ、又はロングタップなど任意のジェスチャを採用してよい。
図12は、測定用アプリケーションソフトウェアにおいて、矩形のエッジ検出ツールが編集可能に第1ウィンドウW1に表示された表示画面の例を示している。
ツール操作ウィンドウWTを用いて選択する方法では、図12に示したツール操作ウィンドウWTにおけるツール選択ボタンBTSがタップされることに応じて、第1ウィンドウW1に表示されているツールについて、選択状態とするツールを順次切り替える。
いずれの選択方法による場合でも、選択状態のツールは、非選択状態のツールと視覚的に識別可能な態様で表示される。例えば、エッジ検出ツールの色の変更、編集ハンドルの表示の追加など、任意の表現で識別可能とするとよい。図12は、矩形のエッジ検出ツールの四隅に編集ハンドルHを示す図形「□」の表示を追加して認識可能とした例である
〔ジェスチャによる編集操作〕
本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアは、エッジ検出ツールが選択状態となっている状態で、ユーザによりタッチパネルディスプレイ144上の任意の位置でエッジ検出ツールTを編集するためのジェスチャであるツール編集ジェスチャが接触入力されると、ツール編集ジェスチャに対応する編集を選択状態となっているツールに施し、タッチパネルディスプレイ144におけるツールの表示に反映させる。
ツール編集ジェスチャは、ピンチ(2点の接触位置の距離を狭める操作)、アンピンチ(2点の接触位置の距離を広げる操作)、ローテート(2点の接触位置を結ぶ直線の角度を変える操作)、2点の同時接触状態で行われるスワイプ(接触位置を移動させる操作)など、ツール選択ジェスチャと異なる任意のジェスチャを採用してよい。ただし、直感的に入力できるように、エッジ検出ツールTの編集態様に合ったジェスチャを採用するのが望ましい。例えば、ピンチ及びアンピンチにそれぞれ対応する編集を縮小及び拡大とし、ローテートに対応する編集を回転(ツールの方向の回転)とする。また、2点の同時接触状態で行われるスワイプに対応する編集をスワイプ方向への平行移動とする。なお、2点の同時接触状態で行われるスワイプによってツールが第1ウィンドウW1の枠外まで移動された場合にツールが削除されたものとして処理するとよい。あるいは、2点の同時接触状態で行われるスワイプによってツールが第1ウィンドウW1の枠に達した場合、それ以上ツールを移動させないようにしてもよい。
〔編集ハンドルによる編集操作〕
本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアは、選択状態となっているエッジ検出ツールに編集ハンドルを表示する。編集ハンドルHには、伸縮ハンドルH1、回転ハンドルH2等が含まれる。伸縮ハンドルH1は、ツールの伸縮可能な位置に「□」の図形として表示される。この伸縮ハンドルがドラッグされると、ドラッグに追随してツールの大きさが変更される。また、回転ハンドルH2は、ツール毎に規定される回転中心からずれた位置に表示される。この回転ハンドルH2がドラッグされると、ドラッグに追随してツールの方向が変更される。
具体例としては、矩形のツールの場合、図12に示すように、ツールTの四隅や各辺の中心に伸縮ハンドルH1が表示される。また、ツールTの一辺の中央から延出した直線の先端に回転ハンドルH2が表示される。また、円形のエッジを検出する円ツールの場合、図13に示すように、エッジサーチを行う範囲を規定する内円及び外円のそれぞれについて伸縮ハンドルH1が表示される。なお、円ツールでは回転に意味がないので回転ハンドルは表示されない。
なお、選択状態となっているツールの大きさが所定の閾値より小さい場合、通常は編集ハンドルHが表示される位置から延出した直線の先端に編集ハンドルを表示するようにするとよい。このようにすれば、編集ハンドルHが密集してタッチ入力による操作性が低下するのを防ぐことができる。
あるいは、ツールTの大きさが所定の閾値より小さい場合、機能が冗長するハンドルHを消すことにより、操作性が低下するのを防いでもよい。例えば、図12に示した矩形のツールTの場合、伸縮ハンドルH1が8つ(矩形の各頂点及び各辺の中央に)配置されているところ、ツールTの大きさが所定の閾値より小さくなった場合に、右上と左下のハンドルを残し、それ以外のハンドルを消すとよい。これにより、操作性の自由度が減るものの、ユーザが意図しないハンドルを誤って掴み、操作するという問題を低減することができる。
〔エッジ検出ツールの削除〕
本実施形態の画像測定機1に適用される測定用アプリケーションソフトウェアでは、選択状態となっているツールを、直接タッチ入力によって削除する方法、及び、ツール操作ウィンドウに配置されたボタンを操作して削除する方法によって削除することを可能とする。直接タッチ入力により削除する方法では、選択状態のツールが第1ウィンドウW1の枠外までドラッグされた場合に、当該ツールが削除される。また、ツール操作ウィンドウWTを用いて削除する方法では、ツール操作ウィンドウWTにおけるツール削除ボタンBTDがタップされることに応じて、そのとき選択状態となっているツールを削除する。
1…画像測定機
100…測定部
102…ステージ
140…コンピュータシステム
W…ワーク
141…コンピュータ本体
142…キーボード
143…マウス
144…タッチパネルディスプレイ
145…ジョイスティック
211…CPU
212…インタフェース
213…出力部
214…入力部
215…主記憶部
216…副記憶部
MM…記録媒体
W1…第1ウィンドウ
W2…第2ウィンドウ
W3…第3ウィンドウ
W4…第4ウィンドウ

Claims (4)

  1. 測定対象物を撮像し、タッチパネルディスプレイに表示された前記測定対象物の撮像画像に基づき、前記測定対象物の寸法や形状を測定する画像測定機であって、
    前記タッチパネルディスプレイに対して接触入力されたジェスチャに応じ前記タッチパネルディスプレイから出力された信号から、当該ジェスチャに対応するコマンドを特定し、当該コマンドの実行対象の前記画像測定機の部位に対して当該コマンドを実行する制御手段を備え、
    前記ジェスチャは2点以上の同時接触状態で行われるジェスチャであり、
    前記コマンドには、前記画像測定機の部位に物理的な移動・運動をさせるコマンドが含まれ、
    前記制御手段は、前記2点以上の同時接触状態で行われるジェスチャに対応して、複数の前記コマンドの組み合わせを実行す
    ことを特徴とする画像測定機。
  2. 前記2点以上の同時接触状態で行われるジェスチャは、接触を維持したまま任意の軌跡で移動する操作であるドラッグを含み、
    前記制御手段は、ドラッグに追随して前記タッチパネルディスプレイにおける前記測定対象物の画像の表示位置が変化するように前記画像測定機に対する前記測定対象物の位置を相対的に移動させる複数のコマンドを組み合わせて実行することを特徴とする、請求項1に記載の画像測定機。
  3. 前記制御手段は、前記タッチパネルディスプレイに対し2点の同時接触が生じたときの2点間の距離が所定の閾値よりも長い場合には、当該同時接触によるジェスチャを受け付けないことを特徴とする、請求項1または2に記載の画像測定機。
  4. コンピュータを請求項1から3のいずれかに記載の制御手段として機能させるためのプログラム。
JP2019002410A 2018-01-12 2019-01-10 画像測定機およびプログラム Active JP7232054B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862616570P 2018-01-12 2018-01-12
US62/616,570 2018-01-12

Publications (2)

Publication Number Publication Date
JP2019124688A JP2019124688A (ja) 2019-07-25
JP7232054B2 true JP7232054B2 (ja) 2023-03-02

Family

ID=67068528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019002410A Active JP7232054B2 (ja) 2018-01-12 2019-01-10 画像測定機およびプログラム

Country Status (4)

Country Link
US (1) US20190220185A1 (ja)
JP (1) JP7232054B2 (ja)
CN (1) CN110058774A (ja)
DE (1) DE102019200287A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7365108B2 (ja) * 2018-06-05 2023-10-19 株式会社ディスコ 処理装置
CN111625112A (zh) * 2019-02-28 2020-09-04 松下液晶显示器株式会社 内嵌式触控面板
CN111443802B (zh) * 2020-03-25 2023-01-17 维沃移动通信有限公司 测量方法及电子设备
JP1705500S (ja) 2021-03-05 2022-01-20 画像測定機
JP1705501S (ja) 2021-03-05 2022-01-20 画像測定機
JP1705499S (ja) 2021-03-05 2022-01-20 画像測定機

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096035A (ja) 2012-11-09 2014-05-22 Omron Corp 制御装置および制御プログラム
JP2016173703A (ja) 2015-03-17 2016-09-29 株式会社ミツトヨ タッチディスプレイを用いた入力操作を支援する方法
JP2017049152A (ja) 2015-09-03 2017-03-09 株式会社 日立産業制御ソリューションズ クラック幅計測システム
JP7078403B2 (ja) 2018-01-12 2022-05-31 株式会社ミツトヨ 画像測定機およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04105005A (ja) * 1990-08-27 1992-04-07 Toshiba Corp 画像表示装置
JP5832083B2 (ja) * 2010-10-27 2015-12-16 株式会社牧野フライス製作所 工具寸法の測定方法及び測定装置
CA2855830A1 (en) * 2011-11-16 2013-05-23 Volcano Corporation Medical measuring system and method
AU2013239179B2 (en) * 2012-03-26 2015-08-20 Apple Inc. Enhanced virtual touchpad and touchscreen
US20140082520A1 (en) * 2012-05-24 2014-03-20 Monir Mamoun Method and System for Gesture- and Animation-Enhanced Instant Messaging
JP5812054B2 (ja) * 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス
CN103970460A (zh) * 2013-01-30 2014-08-06 三星电子(中国)研发中心 基于触摸屏的操作方法和使用该方法的终端设备
US10387021B2 (en) * 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096035A (ja) 2012-11-09 2014-05-22 Omron Corp 制御装置および制御プログラム
JP2016173703A (ja) 2015-03-17 2016-09-29 株式会社ミツトヨ タッチディスプレイを用いた入力操作を支援する方法
JP2017049152A (ja) 2015-09-03 2017-03-09 株式会社 日立産業制御ソリューションズ クラック幅計測システム
JP7078403B2 (ja) 2018-01-12 2022-05-31 株式会社ミツトヨ 画像測定機およびプログラム

Also Published As

Publication number Publication date
CN110058774A (zh) 2019-07-26
JP2019124688A (ja) 2019-07-25
DE102019200287A1 (de) 2019-07-18
US20190220185A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP7232054B2 (ja) 画像測定機およびプログラム
JP5230733B2 (ja) ポインター制御装置
JP5552772B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
EP2482175A1 (en) Method and interface for man-machine interaction
US10620808B2 (en) Method for assisting user input with touch display
JP2010224764A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2004078693A (ja) 視野移動操作方法
JP5809202B2 (ja) 画面操作可能な画像表示装置及びその操作方法
JP5864319B2 (ja) 電子機器、電子機器を制御するための方法、および、電子機器を制御するためのプログラム
JPH10283115A (ja) 表示入力装置
JP6923361B2 (ja) 位置計測装置の操作方法
US12210722B2 (en) Position specifying method and program
JP7113625B2 (ja) 位置指定方法およびプログラム
JP6985158B2 (ja) 画像測定機およびプログラム
JP2018023792A (ja) ゲーム装置及びプログラム
JP6991754B2 (ja) 端末装置およびプログラム
JP6985157B2 (ja) 画像測定機、ツール編集方法、およびプログラム
JP2019124992A (ja) 位置指定方法及びプログラム
JP2019124994A (ja) 画像測定機およびプログラム
JP2019124996A (ja) 画像測定機、画像測定方法、及び画像測定用プログラム
JP6204414B2 (ja) ゲーム装置及びプログラム
JP2011172939A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R150 Certificate of patent or registration of utility model

Ref document number: 7232054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150