JP6501525B2 - INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM - Google Patents
INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP6501525B2 JP6501525B2 JP2015002524A JP2015002524A JP6501525B2 JP 6501525 B2 JP6501525 B2 JP 6501525B2 JP 2015002524 A JP2015002524 A JP 2015002524A JP 2015002524 A JP2015002524 A JP 2015002524A JP 6501525 B2 JP6501525 B2 JP 6501525B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- area
- unit
- image
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 16
- 238000003672 processing method Methods 0.000 title claims description 4
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000001514 detection method Methods 0.000 claims description 61
- 230000008859 change Effects 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 5
- 239000000463 material Substances 0.000 description 99
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 20
- 238000013500 data storage Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 229920000535 Tan II Polymers 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 239000012567 medical material Substances 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013077 target material Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Digital Computer Display Output (AREA)
- User Interface Of Digital Computer (AREA)
Description
開示の技術は、情報処理装置、情報処理方法およびプログラムに関する。 The disclosed technology relates to an information processing device, an information processing method, and a program.
比較対象となる複数の画像同士を並べて表示するため、画像表示領域を複数の領域に分割し、複数の領域それぞれに画像を表示することが知られている。さらに、複数の領域に画像を表示するために、表示部に表示されたサムネイルまたはアイコン等を各領域へドラッグ&ドロップすることが行われている。画像を簡便な操作で所望の領域に表示させる方法として、ドラッグしたサムネイルの近傍に画像の表示位置を指定するためのウインドウを表示し、このウインドウへのドロップ位置によって画像の表示位置を決定することが知られている(特許文献1)。この技術によれば実際に画像を表示する領域までサムネイルをドラッグする必要がなく簡単にサムネイルに対応付けられた画像を表示させることが可能となる。 In order to display a plurality of images to be compared side by side, it is known to divide an image display area into a plurality of areas and display the images in each of the plurality of areas. Furthermore, in order to display images in a plurality of areas, dragging and dropping a thumbnail, an icon or the like displayed on the display unit into each area is performed. As a method of displaying an image in a desired area by a simple operation, a window for designating a display position of the image is displayed in the vicinity of the dragged thumbnail, and the display position of the image is determined by the drop position on this window. Is known (Patent Document 1). According to this technique, it is possible to easily display an image associated with a thumbnail without having to drag the thumbnail to an area for actually displaying the image.
しかしながら、サムネイルをドロップした位置で画像の表示位置を決定しているため、ユーザーに細かい操作が要求されるという問題がある。また、表示領域をどのように分割するかの指定はドラッグ&ドロップの操作とは別に行わなければならず煩雑である。 However, since the display position of the image is determined at the position where the thumbnail is dropped, there is a problem that the user is required to perform a detailed operation. Also, designation of how to divide the display area is complicated because it must be performed separately from the drag and drop operation.
開示の技術はこのような状況に鑑みてなされたものであり簡単な操作で、表示領域を分割し、分割された領域の所望の位置に画像を表示させることを目的の1つとする。 The technology disclosed herein has been made in view of such a situation, and has an object of dividing a display area and displaying an image at a desired position of the divided area with a simple operation.
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。 It is to be noted that the operation and effect are not limited to the above object but are derived from the respective configurations shown in the embodiments for carrying out the invention described later, and it is another object of the present invention to exert the operation and effect not obtained by the prior art. It can be positioned as one.
上記目的を達成するための一手段として、開示の情報処理装置は、表示部に表示されたオブジェクトに対するフリック操作またはドラッグ操作の操作方向を検知する検知手段と、前記検知手段により検知された操作方向に基づいて、前記表示部の表示領域を複数の領域に分割する分割手段と、前記検知手段により検知された操作方向に基づいて、前記複数の領域のうち前記オブジェクトに対応付けられた画像を表示する領域を決定する決定手段と、前記決定手段により決定された領域に前記オブジェクトに対応付けられた画像を表示させる表示制御手段と、を備え、前記検知手段により前記オブジェクトがユーザーによって選択されたことを検知した場合、前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させる。 As a means for achieving the above object, the information processing apparatus disclosed herein includes a detection unit that detects an operation direction of a flick operation or a drag operation on an object displayed on the display unit, and an operation direction detected by the detection unit. Based on the division means for dividing the display area of the display unit into a plurality of areas, and based on the operation direction detected by the detection means, displaying an image associated with the object among the plurality of areas Determining means for determining an area to be selected, and display control means for displaying an image associated with the object in the area determined by the determining means, wherein the object is selected by the user by the detection means When the display control means detects the flick operation or the drag operation. An indication of division results in areas of the display unit by the dividing means in the case of performing click operation or drag operation Ru is displayed for each of the operation direction.
開示の技術によれば、簡単な操作で、表示領域を分割し、分割された領域の所望の位置に画像を表示させることが可能となる。 According to the disclosed technology, it is possible to divide the display area and display an image at a desired position of the divided area with a simple operation.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は以下の実施例に限定されるものではない。 Hereinafter, the present invention will be described in detail based on preferred embodiments thereof with reference to the attached drawings. In addition, the structure shown in the following embodiment is only an example, and this invention is not limited to a following example.
また、以下の実施形態では資料として医療画像や医療文書を扱う医療向け資料表示装置を実施例としているが、本発明は医療以外の分野の画像や文書に対しても適用可能である。 In the following embodiments, a medical material display apparatus for medical treatment that treats medical images and medical documents as materials is taken as an example, but the present invention is also applicable to images and documents in fields other than medical treatment.
<実施形態1>
図1(a)に本実施形態における資料表示装置(情報処理装置)の全体構成を示す。資料表示装置1はUI(User Interface)デバイス101、CPU(Central Processing Unit)102、RAM(Random Access Memory)103、通信IF(Inter Face)104、UI表示部105、プログラム用記憶領域106、データ用記憶領域107を備える。
First Embodiment
FIG. 1A shows an entire configuration of a material display apparatus (information processing apparatus) according to the present embodiment. The data display device 1 includes a UI (User Interface)
UIデバイス101は資料表示装置1を操作する医師等のユーザーからの入力を受け付け、ユーザーのUIデバイス101に対する操作に応じた信号を出力するデバイスである。例えば、UIデバイス101はマウスおよび/またはキーボードにより構成される。また、UIデバイス101はUI表示部105の表示画面上に指等の物体がタッチした位置等を検出するタッチセンサー等により構成されることとしてもよい。すなわち、UIデバイス101は、資料表示装置1にユーザーの指示を入力するために用いられる。
The
CPU102は、プログラム用記憶領域106からRAM103に読み込んだプログラムをCPU102によって解釈・実行することによって資料表示装置1内の各種制御や計算、UIの表示が可能である。すなわち、CPU102がプログラムを実行することにより、資料表示装置1は後述するフローチャートに示す各処理を実行するための各種手段として機能する。CPU102がプログラム実行することにより実現される機能については図1(b)を参照して後述する。
The
RAM103はCPU102の動作に必要な作業メモリとして使用される。
The
通信IF 104は院内ネットワークに繋がっており、病院内のPACS(Picture Archiving and Communication System)サーバーやファイルサーバー等から資料を取得する際に用いる通信インタフェースである。すなわち、CPU102がPACSサーバー等からX線画像等の医用画像を取得する場合、通信IF104を介して医用画像を取得する。
The
UI表示部105は装置の状態や処理内容を表示するLED(Light Emitting Diode)や液晶パネル等である。
The
さらに、資料表示装置1は、プログラム用記憶領域106とデータ用記憶領域107とを備える。具体的には、プログラム用記憶領域106とデータ用記憶領域107とはハードディスクまたはフラッシュメモリを用いて実現される。例えば、プログラム用記憶領域はROM(Read Only Memory)により実現され、データ用記憶領域107はHDD(Hard Disk Drive)により実現される。しかしながら、プログラム用記憶領域106とデータ用記憶領域107とは特定の記憶媒体に限定されるものではない。
Furthermore, the material display device 1 includes a
資料表示装置1では、例えば、データ用記憶領域107に画像や文書等のUI表示部105への表示対象の資料が保存される。なお、病院内のPACSサーバーやファイルサーバー等に表示対象の資料が保存される構成とし、CPU102は通信IF104を介して各種のサーバーから資料を取得するものとしても構わない。
In the material display device 1, for example, materials to be displayed on the
次に、CPU102の機能の一例を図1(b)を参照して説明する。
Next, an example of the function of the
CPU102は、プログラム用記憶領域106に記憶されたプログラムを実行することで図1(b)に示す各手段として機能する。具体的にはCPU103は、検知手段112、分割手段122、決定手段132、表示制御手段142として機能する。
The
なお、資料表示装置1が備えるCPU102およびプログラム用記憶領域106は1つであってもよいし複数であってもよい。すなわち、少なくとも1以上の処理装置(CPU)と少なくとも1つの記憶装置(ROM)とが接続されており、少なくとも1以上の処理装置が少なくとも1以上の記憶装置に記憶されたプログラムを実行した場合に資料表示装置1は上記の各手段として機能する。
The
検知手段112は、ユーザーによる資料表示装置1に対する操作を検知する。より具体的には、検知手段112はUI表示部105に表示されたサムネイルまたはアイコン等のオブジェクトに対してUIデバイス101を用いて行われるフリック操作およびドラッグ操作の操作方向を検知する。ここで、フリック操作とはUIデバイス101がタッチセンサーにより構成されている場合において、タッチセンサーにより指等の接触が検知された状態で所定の距離以上を素早く指等を動かした後、そのまま指等をタッチセンサーから離す操作である。つまり、フリック操作とは、タッチパネル(タッチセンサー)を指等で弾くように素早くなぞる操作である。検知手段112は、タッチダウン検知後、所定の距離以上、所定の速度以上で指等が移動したことを検知した後、そのままタッチアップを検知するとフリックが行なわれたと判定する。すなわち、検知手段112は、指等のUIデバイス101への接触の有無によってUIデバイス101から出力される信号に基づいてフリック操作を検出する。なお、検知手段112は指等の移動に伴うUIデバイス101からの出力の変化に基づいてフリック操作の方向を検知することが可能である。また、検知手段112は、UIデバイス101に指等が接触していることを示す信号がUIデバイス101から所定時間以上出力されている場合には長押しが発生したことを検知することができる。なお、タッチダウンとはタッチパネルへの指等の接触を示し、タッチアップとはタッチパネルから指等を離すことを示す。
The
UIデバイス101がマウスで構成されている場合において、検知手段はマウスが備えるボタンの押し下げによりUIデバイス101から出力される信号およびマウスの移動によりUIデバイス101から出力される信号に基づいてドラッグを検知する。また検知手段112はドラッグ検知後、マウスが備えるボタンの押し下げ解除によりUIデバイス101から出力される信号(またはボタン押し下げによる信号の停止)に基づいてドロップを検知することができる。また、マウスの移動によりUIデバイス101から出力される信号に基づいて検知手段112はドラッグ操作の方向を検知することが可能である。すなわち、検知手段112は表示部に表示されたオブジェクトに対するフリック操作またはドラッグ操作の操作方向を検知する検知手段の一例に相当する。なお、フリック操作またはドラッグ操作の操作方向の検知方法については図10を用いて後述する。
When the
分割手段122は、検知手段112の検出結果に基づいてUI表示部105における画像が表示される領域(画像表示領域)を分割する。ここで、画像とはサムネイルまたはアイコン等のオブジェクトに対応付けられている画像である。画像の一例としてはX線画像、CT画像等が挙げられる。分割手段122は具体的には検知手段112により検知されたフリック操作またはドラッグ操作の操作方向に基づいてUI表示部105における画像表示領域を分割する。例えば、検知手段112により検知された操作方向に応じて、画像表示領域の分割の仕方は異なる。一例として操作方向が上下方向である場合には分割手段122は画像表示領域を上下に二分割する。また、例えば、操作方向が左右方向である場合には分割手段122は画像表示領域を左右に二分割する。すなわち、分割手段122は、検知手段により検知された操作方向に基づいて、表示部の表示領域を複数の領域に分割する分割手段の一例に相当する。なお、操作方向と分割の仕方との関係は上述の例に限定されるものではなく、他の関係であってもよい。
The dividing
決定手段132は、検知手段112の検出結果に基づいてUI表示部105における分割された画像の表示領域のうちどの領域に画像を表示するかを決定する。決定手段132は具体的には検知手段112により検知されたフリック操作またはドラッグ操作の操作方向に基づいてUI表示部105における画像の表示領域を決定する。すなわち、決定手段132は、検知手段112により検知された操作方向に基づいて画像表示領域における画像の表示位置を決定する。つまり、決定手段132は、検知手段により検知された操作方向に基づいて、複数の領域のうちオブジェクトに対応付けられた画像を表示する領域を決定する決定手段の一例に相当する。例えば、検知手段112により検知された操作方向に応じて、画像表示領域における画像の表示位置は異なる。一例として操作方向が上方向である場合には分割手段122により上下に二分割された画像表示領域のうち上の領域を画像の表示位置と決定する。また、例えば、操作方向が左方向である場合には分割手段122により左右に二分割された画像表示領域のうち左の領域を画像の表示位置と決定する。なお、操作方向と画像の表示位置との関係は上述の例に限定されるものではなく、他の関係であってもよい。
The
なお、例えば、画像表示領域に既に画像が表示されている場合において、検知手段112が操作方向が左方向であることを検知した場合には、既に表示されている画像の表示位置を左右に二分割された画像表示領域の右側とする。そして、フリック操作等が行われたオブジェクトに対応する画像の表示位置を二分割された画像表示領域の左側と決定手段132は決定する。
Note that, for example, when an image is already displayed in the image display area, when the
表示制御手段142は、決定手段132によって決定された位置に画像を表示させる。具体的には表示制御手段142はUI表示部105を制御することで、決定手段132によって決定された位置に画像を表示させる。すなわち、表示制御手段142は決定手段により決定された領域にオブジェクトに対応付けられた画像を表示させる表示制御手段の一例に相当する。
The display control means 142 causes the image to be displayed at the position determined by the determination means 132. Specifically, the
また、表示制御手段142は分割手段122により分割された領域の境界を示す線または点線等の表示をUI表示部105に行わせることとしてもよい。なお、表示制御部142は、操作対象となっているオブジェクトに対応付けられている画像をデータ用記憶領域107から読み出してUI表示部105に表示させる。すなわち、データ用記憶領域107にはオブジェクトと画像との対応関係を示すテーブルが格納され、当該テーブルに基づいて表示制御手段142は操作対象となっているオブジェクトに対応する画像を取得することが可能となっている。なお、オブジェクトに対応付けられるものとしては画像を例に説明したが電子カルテまたは問診票等の文書データが対応付けられることとしてもよい。以下、画像および文書データを総括して単に資料という場合がある。
Further, the
次に、資料表示装置1のUI表示部105に表示される画面の構成を、図2を用いて説明する。UI表示部105に表示されるUIはオブジェクト表示エリア10と資料表示エリア12を含む資料表示スペース11を備える。オブジェクト表示エリア10には、サムネイルまたはアイコン等のオブジェクト(シンボル画像)がマトリクス状に表示される。ここで、シンボル画像とは、資料を表すサムネイル、資料名を示す画像またはアイコンを含む。また、オブジェクト表示エリア10において縦軸は資料の種別を示し、横軸は検査日時を示す。具体的には縦軸は画像を取得したモダリティの種別または文書データの種別を示している。さらに、横軸は画像が撮影された日時または文書データが作成された日時を示している。なお、縦軸および横軸が示す情報は図2の形態に限定されるものではなく、例えば逆であってもよい。本実施例ではシンボル画像をマトリクス状に表示する形態としたが、単純に各資料をリスト状に表示する表示形態でも構わない。
Next, the configuration of the screen displayed on the
図2の資料表示スペース11の内部には、資料表示エリア12が存在する。資料表示エリア11にはシンボル画像に対応付けられた画像または文書データ等が表示される。具体的には、UIデバイス101を用いてユーザーにより選択されたシンボル画像に対応付けられた画像または文書データ等を表示制御手段142が資料表示エリア12に表示させる。
A
次に、図3を用いてフリック操作等により資料表示エリア12に資料を表示する際に用いられるUIの一例を説明する。図3には表示エリア選択UI14が示されている。表示エリア選択UI14は、例えば、資料一覧10上の任意のシンボル画像15を指やマウスカーソル等のユーザー指示13で所定時間以上選択する(長押しする)ことを契機に表示制御手段142によって表示される。表示エリア選択UI14の詳細を図15に示す。図15に示すように、この表示エリア選択UI14には、資料表示スペース11の分割パターンと、その分割パターンを選択した場合にどこに資料が表示されるのかが図示されている。すなわち、表示エリア選択UI14は、検知手段によりオブジェクトがユーザーによって選択されたことを検知した場合に表示制御手段により操作方向毎に表示される、フリック操作またはドラッグ操作が行われる前にフリック操作またはドラッグ操作を行った場合の分割手段による表示部の領域の分割結果を示す表示の一例に相当する。図15に示す例では、上下方向にフリック操作が行われた場合、資料表示スペース11が上下に二分割されることを示している。また、左右方向にフリック操作が行われた場合、資料表示スペース11が左右方向に二分割されることを示している。さらに、斜め方向にフリック操作が行われた場合、資料表示スペース11は上下左右に四分割されることを示している。また図15における黒丸は分割された領域における資料の表示位置を示している。すなわち、この黒丸はフリック操作またはドラッグ操作を行った場合に決定手段より決定される画像を表示する領域を示す表示の一例に相当する。例えば、上方向にフリック操作が行われた場合、フリック操作の対象となったシンボル画像15に対応づけられた資料が上下に分割された領域のうち上の領域に表示される。
Next, an example of a UI used when displaying material in the
なお、図15に示す例では八方向のフリック操作に対応して領域を分割しているがこれに限定されるものではない。例えば、斜め方向のフリックには対応せず上下左右の四方向のフリック操作に対応する仕様としてもよい。また、図15において黒丸は分割された領域における資料の表示位置を示しているがこれを表示しないこととしてもよい。 In the example shown in FIG. 15, the area is divided corresponding to the flick operation in eight directions, but the present invention is not limited to this. For example, the specification may not correspond to the flick in the oblique direction, but may correspond to the flick operation in the up, down, left, and right directions. Further, in FIG. 15, the black circles indicate the display position of the material in the divided area, but this may not be displayed.
図4は図3の状態から右方向にフリック操作が行われた後のUI表示部105の表示画面を示す。右方向にフリック操作が行われたため資料表示スペース11は資料表示エリア12(A)、12(B)に左右二分割されている。また、右方向にフリック操作が行われたため左右に分割された領域のうち右の領域にフリック対象となったシンボル画像15に対応付けられた資料が表示されている。なお図3の段階で既に資料表示スペース11に表示されている資料は、分割された領域おいてフリック方向に基づいて定まる表示位置以外の領域に表示される。図4に示す例ではフリック操作により左右に分割された領域のうち右の領域に新たな資料が表示されることとなるため、右の領域以外の領域(すなわち左の領域)にフリック操作以前に表示されていた資料が表示されることとなる。
FIG. 4 shows a display screen of the
図5は図3の状態から下方向にフリック操作が行われた後のUI表示部105の表示画面を示す。下方向にフリック操作が行われたため資料表示スペース11は資料表示エリア12(C)、12(D)に上下二分割されている。また、下方向にフリック操作が行われたため上下に分割された領域のうち下の領域にフリック対象となったシンボル画像15に対応付けられた資料が表示されている。なお図3の段階で既に資料表示スペース11に表示されている資料は、分割された領域おいてフリック方向に基づいて定まる表示位置以外の領域に表示される。図5に示す例ではフリック操作により上下に分割された領域のうち下の領域に新たな資料が表示されることとなるため、下の領域以外の領域(すなわち上の領域)にフリック操作以前に表示されていた資料が表示されることとなる。
FIG. 5 shows a display screen of the
図6は図3の状態から左下方向にフリック操作が行われた後のUI表示部105の表示画面を示す。左下方向にフリック操作が行われたため資料表示スペース11は資料表示エリア12(E)〜12(H)に上下左右四分割されている。また、左下方向にフリック操作が行われたため上下左右に分割された領域のうち左下の領域にフリック対象となったシンボル画像15に対応付けられた資料が表示されている。なお図3の段階で既に資料表示スペース11に表示されている資料は、分割された領域おいてフリック方向に基づいて定まる表示位置以外の領域に表示される。図5に示す例ではフリック操作により上下左右に分割された領域のうち左下の領域に新たな資料が表示されることとなるため、左下の領域以外の領域(例えば左上の領域)にフリック操作以前に表示されていた資料が表示されることとなる。
FIG. 6 shows a display screen of the
次に、資料表示装置1の動作を図9に示すフローチャートを参照しながら説明する。また、図9に示すフローチャートの説明に際して、UI表示部105の表示画面例を示す図7、図8を参照する。
Next, the operation of the material display device 1 will be described with reference to the flowchart shown in FIG. In the description of the flowchart shown in FIG. 9, reference is made to FIG. 7 and FIG. 8 showing an example of the display screen of the
まず、S100において表示制御手段142は所定の患者に係るシンボル画像をマトリクス状にUI表示部105に表示させる。すなわち、S100において図2のオブジェクトエリア10にシンボル画像15がマトリクス状に表示される。なお、所定の患者の指定はUIデバイス101を介した患者ID等の入力により行われる。表示制御部142は、例えば、入力された患者IDに基づいて当該患者IDを有する資料をデータ用記憶領域107から探し、シンボル画像15としてオブジェクトエリア10に表示させる。
First, in S100, the
次に、S101において、検知手段112は、シンボル画像15に対してUIデバイス101を介して操作が行われたか否かを判定する。シンボル画像15に対して操作が行われていなければ再びS101の判断を行う。一方、検知手段112がシンボル画像15に対する操作を検知した場合、検知手段112は検知した操作がクリック操作またはタップ操作か否かを判断する。タップ操作またはクリック操作であると検知手段112が判定した場合には、表示制御手段142はシンボル画像に対応付けられている資料をデータ用記憶領域107から取得して資料表示スペース11に資料を表示させる(S103)。一方、検知手段112が検知したシンボル画像15に対する操作がタップ操作およびクリック操作以外の場合には長押しまたはフリック操作が行われたものと検知手段112は判断する。そしてS104において、表示制御手段142は図3に示すように表示エリア選択UI14をUI表示部105に表示させる。具体的には、表示制御手段142は、長押しまたはフリック操作の対象となったシンボル画像15を中心として表示エリア選択UI14を表示する。なお、表示エリア選択UI14の表示位置は上記に限定されるものではなく、他の位置に表示されることとしてもよい。図7(a)、(b)はS104による画面遷移の一例を示している。図7(a)または図8(a)のようにユーザーがシンボル画像15上で長押しすると、表示制御手段142により図7(b)または図8(b)のように表示エリア選択UI14が表示される。ここで、検知手段112により長押しと判定される前にフリック操作またはドラッグ操作した場合には、表示制御手段114はフリック操作等の検知後すぐに表示エリア選択UI14を表示させることとしてもよい。また、表示エリア選択UI14を表示させないこととしてもよい。
Next, in S101, the
次にS105において検知手段112はユーザーによるフリック操作等の操作方向を判定する。操作方向の判定、すなわち操作方向の検知について図10のフローチャートを用いて詳細に述べる。
Next, in step S105, the
操作方向の検知処理が開始すると(S200)、S201において検知手段112は、UI表示部105の表示領域上においてタッチダウンされた座標Bおよびタッチアップされた座標EをUIデバイス101の出力に基づいて取得する。UIデバイスとしてマウス等のポインティングデバイスを用いている場合には、マウスのボタンを押し下げた時のマウスカーソル位置の座標がタッチダウンされた座標に対応する。また、マウスボタンを解放した時のマウスカーソルの位置の座標がタッチアップされた座標に対応する。
When the process of detecting the operation direction starts (S200), the
検知手段112は座標Bおよび座標Eを用いて操作方向ベクトルDをD←E・Bとして算出する。 The detection means 112 uses the coordinates B and the coordinates E to calculate the operation direction vector D as D ← E · B.
S202では、検知手段112が、S201で算出した操作方向ベクトルDが0もしくは所定の閾値以下であるか(十分小さいか)を判断する。操作方向ベクトルDが0もしくは所定の閾値以下であると判定された場合には、S203へ進み、検知手段はクリックまたはタップであると検知手段112は判定すし、処理を終了する(S204)。ここで、例えばS102の処理はS203の判定結果に基づいて行われる。
In S202, the
操作方向ベクトルDが0もしくは所定の閾値以下ではないと判定された場合、S205へ進む。S205では検知手段112が操作方向ベクトルDと表示領域のx軸とのなす角θ[rad]を算出する。なお、θは、θ=atan2(y,x)[ただし、−π<θ≦π]と表すことができる。ここで、atan2(y,x)関数はベクトルD(x,y)とx軸とのなす角θを算出するアークタンジェント関数である。 If it is determined that the operation direction vector D is not 0 or less than a predetermined threshold, the process proceeds to S205. In S205, the detection means 112 calculates an angle θ [rad] between the operation direction vector D and the x axis of the display area. Note that θ can be expressed as θ = a tan 2 (y, x) [wherein, −π <θ ≦ π]. Here, the a tan 2 (y, x) function is an arc tangent function that calculates an angle θ between the vector D (x, y) and the x axis.
次に、S206で検知手段112はθの範囲に応じてユーザーのフリック操作等の操作方向を判定し、処理を終了する(S207)。具体的にはS206において検知手段112は、−(7/8)π<θ≦−(5/8)πであれば操作方向を左下方向と判定し、−(5/8)π<θ≦−(3/8)πであれば下方向と判定し、−(3/8)π<θ≦−(1/8)πであれば右下方向と判定する。また、検知手段112は、−(1/8)π<θ≦(1/8)πであれば操作方向を右方向と判定し、(1/8)π<θ≦(3/8)πであれば右上方向と判定し、(3/8)π<θ≦(5/8)πであれば上方向と判定する。さらに、検知手段112は、(5/8)π<θ≦(7/8)πであれば操作方向を左上方向と判定し、(7/8)π<θ≦πもしくは−π<θ≦−(7/8)πであれば左方向と判定する。
Next, in S206, the detection means 112 determines the operation direction of the user's flick operation or the like according to the range of θ, and ends the processing (S207). Specifically, in S206, the
図9のフローチャートの説明に戻り、S105以降の処理について説明する。 Returning to the description of the flowchart in FIG. 9, the processing after S105 will be described.
S105で操作方向が左方向または右方向と判定された場合にはS106へ、操作方向が上方向または下方向と判定された場合にはS107へ、操作方向が右上、右下、左下方向のいずれかであると判定された場合にはS108へ進む。S106では分割手段122が資料表示スペース11を左右に二分割し、S107では分割手段122が資料表示スペース11を上下に二分割する。また、S108では分割手段122が資料表示スペース11を上下左右に四分割する。 If the operation direction is determined to be left or right in S105, the process proceeds to S106. If the operation is determined to be upward or downward, the process proceeds to S107. The operation is either upper right, lower right, or lower left. If it is determined that it is the case, the process proceeds to S108. In S106, the dividing means 122 divides the data display space 11 into two left and right, and in S107, the dividing means 122 divides the data display space 11 into upper and lower parts. Further, in S108, the dividing means 122 divides the data display space 11 into upper, lower, left and right.
操作方向が左方向の場合S106の後S109へ進み、S109では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図4に示した資料表示エリア12(A)と決定する。そして表示制御手段142は資料表示エリア12(A)をフォーカスする。フォーカスの一例として決定手段132により決定された領域の枠を他の領域の枠とは異なる色で表示する等して強調表示することとしてもよい。また、操作方向が右方向の場合S106の後S110へ進み、S110では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図4に示した資料表示エリア12(B)と決定する。そして表示制御手段142は資料表示エリア12(B)をフォーカスする。
If the operation direction is the left direction, the process proceeds to S109 after S106. In S109, the
操作方向が上方向の場合S107の後S111へ進み、S111では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図5に示した資料表示エリア12(C)と決定する。そして表示制御手段142は資料表示エリア12(C)をフォーカスする。また、操作方向が下方向の場合S107の後S112へ進み、S112では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図5に示した資料表示エリア12(D)と決定する。そして表示制御手段142は資料表示エリア12(D)をフォーカスする。
If the operation direction is upward, the process proceeds to step S111 after step S107. In step S111, the
さらに、操作方向が左上方向の場合S108の後S113へ進み、S113では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(E)と決定する。そして表示制御手段142は資料表示エリア12(E)をフォーカスする。また、操作方向が左下方向の場合S108の後S114へ進み、S114では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(F)と決定する。そして表示制御手段142は資料表示エリア12(F)をフォーカスする。さらに、操作方向が右上方向の場合S108の後S115へ進み、S115では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(G)と決定する。そして表示制御手段142は資料表示エリア12(G)をフォーカスする。また、操作方向が右下方向の場合S108の後S116へ進み、S116では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(H)と決定する。そして表示制御手段142は資料表示エリア12(H)をフォーカスする。
Furthermore, when the operation direction is the upper left direction, the process proceeds to S113 after S108, and in S113, the
S117では、表示制御手段142がS109−116で決定された領域(フォーカスされてた領域)にシンボル画像に対応付けられている資料をデータ用記憶領域107から取得して表示させる。例えば、S110を経由した場合、図7(c)に示す表示画面がUI表示部105に表示される。また、S114を経由した場合、図8(c)に示す表示画面がUI表示部105に表示される。すなわち、分割手段は、異なる複数の前記操作方向に対して前記表示部の領域を異なる様式で分割し、決定手段は、異なる複数の前記操作方向に対して前記画像を表示する領域を異なる領域としている。
In S117, the display control means 142 acquires the material associated with the symbol image in the area (the focused area) determined in S109-116 from the
なお、フリックの際にユーザーがフリック方向を認識し易くするために、表示エリア選択UI14上のフリック方向に対応する部分を強調表示してもよい。
In order to make it easy for the user to recognize the flick direction when flicking, a portion corresponding to the flicking direction on the display
本実施形態では、表示エリア選択UI14によって資料の表示エリアと各操作方向との対応付けをユーザーに提示しているが、表示エリア選択UI14を出さないこととしてもよい。また、視覚的なUIの代わりに、ユーザーの操作方向に応じて操作音の音色を変える等の聴覚的なUIや、ユーザーの操作方向に応じてバイブレーション・パターンを変える等の触覚的なUIを用いても構わない。また、上記の実施形態ではフリック操作の場合を主として説明したがこれに限定されるものではなく、ドラッグ操作等他の操作方法に適用することとしてもよい。
In the present embodiment, the display
上記の実施形態によれば、1度のフリック操作によって表示領域の分割および画像の表示を行うことができる。すなわち簡単な操作で、表示領域を分割し、分割された領域の所望の位置に画像を表示させることができる。従って、ユーザーの操作負担の軽減が可能となる。また、表示エリア選択UI14はフリック後の表示領域のレイアウトを示しているため、フリック後の表示形態を把握した上でフリック操作を行うことが可能となる。従って、ユーザーの意図と異なる表示形態となることを防止することが可能となる。
According to the above embodiment, the division of the display area and the display of the image can be performed by one flick operation. That is, the display area can be divided and the image can be displayed at a desired position of the divided area by a simple operation. Therefore, the user's operation burden can be reduced. In addition, since the display
<実施形態2>
第2の実施形態としては、図11や図12に示すように画面サイズに応じて表示エリア選択UI14を表示エリア選択UI14(a)や14(b)のように変更し、左右2分割や上下2分割での表示しか出来ないようにすることも可能である。
Second Embodiment
In the second embodiment, the display
図11のように左右2分割でしか表示出来ないように制限する例としては、画面サイズが図11のように横長で縦に2段並べると見づらくなる場合があげられる。例えば、表示制御手段142は、UI表示部105に表示されるオブジェクト表示エリア10と資料表示スペース11とを含む表示領域の縦横比に基づいて表示エリア選択UI14を表示エリア選択UI14(a)のように変更する。例えば、表示制御手段142は表示領域の縦の長さに対して横の長さが所定値以上大きい場合には表示エリア選択UI14を表示エリア選択UI14(a)のように変更する。すなわち、表示制御手段142はフリック操作またはドラッグ操作が行われる前にフリック操作またはドラッグ操作を行った場合の分割手段による表示部の領域の分割結果を示す表示を表示部の表示領域の大きさに基づいて変更する。なお、図11の場合、左右方向以外にフリック操作が行われたとしても分割手段122による領域の分割は行われない。
As an example of restricting display to only the left and right two divisions as shown in FIG. 11, there are cases where it becomes difficult to see if the screen size is arranged horizontally in two rows and vertically as shown in FIG. For example, the
また、図12のように上下2分割でしか表示出来ないように制限する例としては、画面サイズが図12のように縦長で横に2列並べると見づらくなる場合があげられる。例えば、表示制御手段142は、UI表示部105に表示されるオブジェクト表示エリア10と資料表示スペース11とを含む表示領域の縦横比に基づいて表示エリア選択UI14を表示エリア選択UI14(b)のように変更する。例えば、表示制御手段142は表示領域の横の長さに対して縦の長さが所定値以上大きい場合には表示エリア選択UI14を表示エリア選択UI14(a)のように変更する。なお、図11の場合、上下方向以外にフリック操作が行われたとしても分割手段122による領域の分割は行われない。
Further, as an example in which the display can be limited to only the upper and lower two divisions as shown in FIG. 12, the case where the screen size is vertically long and arranged horizontally in two rows as shown in FIG. For example, the
本実施形態によれば第1実施形態における効果に加えて、表示領域のサイズの特性に合わせて領域の分割が可能となる。従って、領域を分割して画像を表示した場合にユーザーにとって見づらい表示となることを防ぐことが可能となる。 According to the present embodiment, in addition to the effects of the first embodiment, it is possible to divide the area in accordance with the characteristics of the size of the display area. Therefore, when the area is divided and the image is displayed, it is possible to prevent the display from being difficult for the user to see.
<実施形態3>
第3の実施形態としては、図13や図14に示すように表示対象資料の属性に応じて表示エリア選択UI14を表示エリア選択UI14(c)や14(d)のように変更する。そして、右側のみまたは下側のみにしかフリック操作の表示出来ないようにすることも可能である。
Embodiment 3
In the third embodiment, as shown in FIGS. 13 and 14, the display
図13のように右側のみにしか表示出来ないように制限する例としては、資料の取り違えを防止する目的で、現在表示されている資料の患者と別の患者の資料は、右側にのみ表示するという例があげられる。具体的には、表示制御手段142は、現在資料表示スペース11に表示されている画像に対応付けられている患者識別情報をデータ用記憶領域107から取得する。表示制御手段142は、同様にフリック操作の対象となっているシンボル画像に対応する資料の患者識別情報も取得する。そして、表示制御手段142はフリック操作の対象となっているシンボル画像に対応する資料の患者識別情報と現在資料表示スペース11に表示されている画像に対応付けられている患者識別情報とを比較する。比較の結果、異なっていれば、表示制御手段142は表示エリア選択UI14を図13に示す表示エリア選択UI14(c)のように変更する。通常着目した患者の情報を左に表示し参照用の他の患者の情報は右側に表示されることが多いため、上記のようにすればユーザーに違和感を与えてしまうことを防ぐことが可能となる。
As an example of restricting display to only the right side as shown in FIG. 13, for the purpose of preventing confusion of the data, the data of the patient currently displayed and the data of another patient are displayed only on the right An example is given. Specifically, the
また、別の例としては、検査日時がより最近の資料は右側にのみ表示するという例があげられる。具体的には、表示制御手段142は、現在資料表示スペース11に表示されている画像に対応付けられている撮影日時をデータ用記憶領域107から取得する。表示制御手段142は、同様にフリック操作の対象となっているシンボル画像に対応する資料の撮影日時等も取得する。そして、表示制御手段142はフリック操作の対象となっているシンボル画像に対応する資料の撮影日時と現在資料表示スペース11に表示されている画像に対応付けられている撮影日時とを比較する。比較の結果、フリック操作の対象となっているシンボル画像に対応する資料の撮影日時の方が新しければ、表示制御手段142は表示エリア選択UI14を図13に示す表示エリア選択UI14(c)のように変更する。通常新しい資料は右側に表示されるため、上記のようにすればユーザーに違和感を与えてしまうことを防ぐことが可能となる。
As another example, there is an example in which the material with the latest examination date and time is displayed only on the right side. Specifically, the display control means 142 acquires from the
なお、上記の例ではフリック操作の対象となっているシンボル画像に対応する資料を分割された領域の右側に表示する例について述べたが、これに限定されるものではなく、ユーザーによって分割された領域の左側に表示するようにしてもよい。 In the above example, the document corresponding to the symbol image subjected to the flick operation is displayed on the right side of the divided area. However, the present invention is not limited to this, and it is divided by the user It may be displayed on the left side of the area.
次に、図14のように下側のみにしか表示出来ないように制限する例としては、画像の部位の実際の位置的関係を反映させ、腹部の画像は胸部の画像の下側にしか表示出来ないようにするという例があげられる。この際、部位はDICOM画像であればBody Part Examinedタグから取得することが可能である。また、部位同士の位置の関係は、例えば上から順に頭部、胸部、上肢、脊椎、腹部、骨盤、下肢のように定義したテーブル等の情報をデータ用記憶領域107に記憶し、これを参照するようにする。具体的には、表示制御手段142は、現在資料表示スペース11に表示されている画像に対応付けられている部位情報をデータ用記憶領域107から取得する。表示制御手段142は、同様にフリック操作の対象となっているシンボル画像に対応する資料の部位情報も取得する。そして、表示制御手段142はフリック操作の対象となっているシンボル画像に対応する資料の部位と現在資料表示スペース11に表示されている画像に対応付けられている部位とを上記のテーブルを用いて比較する。比較の結果、フリック操作の対象となっているシンボル画像に対応する資料の部位の方が人体構造上、現在資料表示スペース11に表示されている画像に対応付けられている部位より下に位置する部位の場合以下のような処理が行われる。例えば、表示制御手段142は表示エリア選択UI14を図14に示す表示エリア選択UI14(d)のように変更する。また、フリック操作の対象となっているシンボル画像に対応する資料の部位の方が人体構造上、現在資料表示スペース11に表示されている画像に対応付けられている部位より上に位置する部位の場合以下のような処理が行われる。例えば、表示制御手段142は表示エリア選択UI14を分割された領域の上側に表示するためのUIに変更してもよい。
Next, as an example of restricting the display to only the lower side as shown in FIG. 14, the actual positional relationship of the parts of the image is reflected, and the image of the abdomen is displayed only on the lower side of the image of the chest There is an example of making it impossible. At this time, in the case of a DICOM image, the site can be acquired from a Body Part Examined tag. Further, as for the positional relationship between the parts, for example, information on a table defined like head, chest, upper limbs, spine, abdomen, pelvis, lower limbs in order from the top is stored in the
上述したように第3実施例において表示制御手段142はフリック操作またはドラッグ操作が行われる前にフリック操作またはドラッグ操作を行った場合の分割手段による表示部の領域の分割結果を示す表示をオブジェクトに対応付けられた画像の撮影日時、撮影部位または画像の被検者を識別する識別情報のいずれかに基づいて変更する。
As described above, in the third embodiment, the
また別の例としては、画像のモダリティの一般的な表示順序を反映させ、CT画像は単純X線の下側にしか表示出来ないようにするようにしてもよい。 As another example, a general display order of image modality may be reflected so that CT images can be displayed only below simple X-rays.
本実施形態によれば第1実施形態における効果に加えて、より直感的な表示をユーザーに提供することが可能となる。 According to the present embodiment, it is possible to provide a more intuitive display to the user in addition to the effects in the first embodiment.
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other Embodiments>
Although the embodiment has been described above in detail, the present invention can be embodied as, for example, a system, an apparatus, a method, a program, or a recording medium (storage medium). Specifically, the present invention may be applied to a system configured of a plurality of devices (for example, a host computer, interface device, imaging device, web application, etc.), or may be applied to a device including one device. good.
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Further, it goes without saying that the object of the present invention can be achieved by the following. That is, a recording medium (or storage medium) storing a program code (computer program) of software for realizing the functions of the above-described embodiments is supplied to a system or apparatus. Such storage media are, of course, computer readable storage media. Then, the computer (or CPU or MPU) of the system or apparatus reads out and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the present invention.
1 資料表示装置
112 検知手段
122 分割手段
132 決定手段
142 表示制御手段
DESCRIPTION OF SYMBOLS 1
Claims (9)
前記検知手段により検知された操作方向に基づいて、前記表示部の表示領域を複数の領域に分割する分割手段と、
前記検知手段により検知された操作方向に基づいて、前記複数の領域のうち前記オブジェクトに対応付けられた画像を表示する領域を決定する決定手段と、
前記決定手段により決定された領域に前記オブジェクトに対応付けられた画像を表示させる表示制御手段と、
を備え、
前記検知手段により前記オブジェクトがユーザーによって選択されたことを検知した場合、前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させることを特徴とする情報処理装置。 A detection unit that detects an operation direction of a flick operation or a drag operation on an object displayed on the display unit;
A division unit configured to divide a display area of the display unit into a plurality of areas based on the operation direction detected by the detection unit;
A determination unit configured to determine an area to display an image associated with the object among the plurality of areas based on the operation direction detected by the detection unit;
Display control means for displaying an image associated with the object in the area determined by the determination means;
Equipped with
When the detection unit detects that the object is selected by the user, the display control unit performs the flick operation or the drag operation before the flick operation or the drag operation is performed. An information processing apparatus, wherein a display indicating a division result of an area of the display unit is displayed for each of the operation directions.
前記決定手段は、異なる複数の前記操作方向に対して前記画像を表示する領域を異なる領域とすることを特徴とする請求項1記載の情報処理装置。 The dividing unit divides the area of the display unit in different ways with respect to a plurality of different operation directions,
The information processing apparatus according to claim 1, wherein the determination unit sets an area in which the image is displayed to be different areas with respect to a plurality of different operation directions.
前記検知工程において検知された操作方向に基づいて、前記表示部の表示領域を複数の領域に分割する分割工程と、
前記検知工程において検知された操作方向に基づいて、前記複数の領域のうち前記オブジェクトに対応付けられた画像を表示する領域を決定する決定工程と、
前記決定工程において決定された領域に前記オブジェクトに対応付けられた画像を表示させる表示制御工程と、を備え、
前記検知工程において前記オブジェクトがユーザーによって選択されたことを検知した場合、前記表示制御工程において、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割工程による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させることを特徴とする情報処理方法。 A detection step of detecting an operation direction of a flick operation or a drag operation on an object displayed on the display unit;
A division step of dividing the display area of the display unit into a plurality of areas based on the operation direction detected in the detection step;
A determining step of determining an area to display an image associated with the object among the plurality of areas based on the operation direction detected in the detecting step;
A display control step of displaying an image associated with the object in the area determined in the determination step;
When it is detected in the detection step that the object is selected by the user, in the display control step, the division step is performed when the flick operation or the drag operation is performed before the flick operation or the drag operation is performed An information processing method comprising displaying a display indicating the division result of the area of the display unit for each of the operation directions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015002524A JP6501525B2 (en) | 2015-01-08 | 2015-01-08 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015002524A JP6501525B2 (en) | 2015-01-08 | 2015-01-08 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018225875A Division JP2019032908A (en) | 2018-11-30 | 2018-11-30 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016126725A JP2016126725A (en) | 2016-07-11 |
JP6501525B2 true JP6501525B2 (en) | 2019-04-17 |
Family
ID=56358072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015002524A Active JP6501525B2 (en) | 2015-01-08 | 2015-01-08 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6501525B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7130953B2 (en) * | 2017-12-25 | 2022-09-06 | コニカミノルタ株式会社 | Medical image display system and medical image display device |
CN108255405B (en) * | 2018-01-19 | 2019-09-10 | Oppo广东移动通信有限公司 | User interface display method and device and terminal |
JP6440136B1 (en) * | 2018-09-06 | 2018-12-19 | 株式会社Medi Plus | Medical video switcher |
US20230335237A1 (en) * | 2020-01-30 | 2023-10-19 | Hd Junction, Inc. | Medical information query and input system, medical information query and input method, and program for performing same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5628625B2 (en) * | 2010-10-14 | 2014-11-19 | 京セラ株式会社 | Electronic device, screen control method, and screen control program |
JP5908691B2 (en) * | 2011-09-28 | 2016-04-26 | 京セラ株式会社 | Portable electronic devices |
JP2013114540A (en) * | 2011-11-30 | 2013-06-10 | Nec Casio Mobile Communications Ltd | Electronic device, control method therefor and program |
JP2014241099A (en) * | 2013-06-12 | 2014-12-25 | 株式会社ニコン | Imaging device |
JP6368462B2 (en) * | 2013-08-01 | 2018-08-01 | シャープ株式会社 | Information processing apparatus, information processing method, and program thereof |
-
2015
- 2015-01-08 JP JP2015002524A patent/JP6501525B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016126725A (en) | 2016-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10937544B2 (en) | Medical imaging apparatus for displaying x-ray images of different types | |
US20200004487A1 (en) | Object moving program | |
US9342145B2 (en) | Cursor control | |
EP2840478B1 (en) | Method and apparatus for providing user interface for medical diagnostic apparatus | |
KR20100128290A (en) | Twin-monitor electronic display system | |
JP2010086149A (en) | Drag and drop control apparatus, method and program, and computer terminal | |
JP7232759B2 (en) | Healthcare information manipulation and visualization controller | |
JP6501525B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6158690B2 (en) | Image display device | |
US9292197B2 (en) | Method, apparatus and computer program product for facilitating the manipulation of medical images | |
JP2020099672A (en) | Visualization of three-dimensional image data on two-dimensional image | |
JP2009119000A (en) | Auxiliary controller for processing medical image,image processing system, and method for processing medical image | |
JP2015208602A (en) | Image display device and image display method | |
JP7474705B2 (en) | Precise positioning of markers on the display | |
JP2019032908A (en) | Information processing device, information processing method, and program | |
JP7279133B2 (en) | Information processing device, information processing method and program | |
JP6462358B2 (en) | Medical image display terminal and medical image display program | |
JP6968950B2 (en) | Information processing equipment, information processing methods and programs | |
KR101925058B1 (en) | The method and apparatus for dispalying function of a button of an ultrasound apparatus on the button | |
JP7371136B2 (en) | Pointing device sensitivity adaptation method, computer program and image evaluation device | |
JP7172093B2 (en) | Computer program, display device, display system and display method | |
JP2011110173A (en) | Medical image system and program | |
CN104997510B (en) | The method, apparatus and program of image monitoring are carried out to intervention using magnetic resonance device | |
JP6902012B2 (en) | Medical image display terminal and medical image display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190319 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6501525 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |