[go: up one dir, main page]

JP6947213B2 - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP6947213B2
JP6947213B2 JP2019528291A JP2019528291A JP6947213B2 JP 6947213 B2 JP6947213 B2 JP 6947213B2 JP 2019528291 A JP2019528291 A JP 2019528291A JP 2019528291 A JP2019528291 A JP 2019528291A JP 6947213 B2 JP6947213 B2 JP 6947213B2
Authority
JP
Japan
Prior art keywords
content
user
display
displayed
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019528291A
Other languages
English (en)
Other versions
JPWO2019008732A1 (ja
Inventor
賀彦 村川
賀彦 村川
桂樹 岡林
桂樹 岡林
政志 宇山
政志 宇山
田中 秀樹
秀樹 田中
中島 健次
健次 中島
彬 陳
彬 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2019008732A1 publication Critical patent/JPWO2019008732A1/ja
Application granted granted Critical
Publication of JP6947213B2 publication Critical patent/JP6947213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本件は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
カメラ付きプロジェクタを用いて、ホワイトボードに対する書き込み操作とポインティング操作の様子を遠隔地に通知する電子会議システムが知られている(例えば、特許文献1参照)。また、左側のディスプレイの表示画面と右側のディスプレイの表示画面とが並べられた全体画面に1つのコンテンツ画像(以下、単にコンテンツという)を表示させるマルチディスプレイシステムも知られている(例えば、特許文献2参照)。
さらに、ある拠点のディスプレイの前にいるユーザの位置を計測し、別の拠点のディスプレイの画面上にそのユーザの画像をその位置で表示する技術も知られている(例えば、非特許文献1参照)。これにより、各拠点のユーザはそれぞれの拠点のディスプレイに表示された共有画面内の指示対象を相手側に的確に伝えることができる。
特開2015−109565号公報 国際公開第2016/147373号
ケイタ・ヒグチ(Keita Higuchi)、外4名、「イマースボード:イマーシブ・テレプレゼンス・エクスペリエンス・ユージング・ア・デジタル・ホワイトボード(ImmerseBoard: Immersive Telepresense Experience using a Digital Whiteboard)」、プロシーディングス・オブ・ザ・エーシーエム・エスアイジーシーエイチアイ・カンファレンス・オン・ヒューマン・ファクターズ・イン・コンピューティング・システムズ(シーエイチアイ)(Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems(CHI))、2015年、p.2383−2392
しかしながら、上述した技術は同じサイズの画面を共有する場合を開示しているにすぎない。例えば一方の拠点のユーザがディスプレイに表示された画面を拡大する操作を行うと、他方の拠点のユーザの画像が一方の拠点のディスプレイに表示された画面内から外れ、その画像が画面内に出現しないという問題がある。
そこで、1つの側面では、複数の装置でコンテンツを共有する場合に、コンテンツを操作可能な位置におけるユーザの存在を判別できる情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
1つの実施態様では、第1及び第2の装置の画面に表示させるコンテンツを共有させる情報処理装置であって、前記第1の装置がコンテンツの一部を表示するとき、前記第1の装置に表示されているコンテンツのうち、前記コンテンツの一部が前記第2の装置を操作するユーザの位置から前記ユーザの手が届く範囲内で操作可能な位置にあるか否かを判定し、判定結果に基づいて、前記第1の装置に対し、前記ユーザが操作可能な位置に存在することを示す画像を表示させる、処理を実行する処理部を備える情報処理装置である。
複数の装置でコンテンツを共有する場合に、コンテンツを操作可能な位置におけるユーザの存在を判別することができる。
図1は情報処理システムの一例である。 図2は第1のコンテンツ表示装置の構成の一例である。 図3はサーバ装置のハードウェア構成の一例である。 図4はサーバ装置のブロック図の一例である。 図5は計測側制御部の動作の一例を示すフローチャートである。 図6は計測側の座標変換を説明するための図である。 図7(a)及び(b)は計測側と表示側の画面共有を説明するための図である。 図8は表示側制御部の動作の一例を示すフローチャートである。 図9は計測側の座標変換を説明するための図である。 図10(a)及び(b)はウィンドウを拡大せずにコンテンツの全部を表示した場合の影画像の表示例である。 図11(a)及び(b)はウィンドウを拡大してコンテンツの一部を表示した場合の影画像の表示例である。 図12(a)及び(b)はウィンドウを拡大してコンテンツの一部を表示した場合の影画像の表示例である。 図13(a)及び(b)はウィンドウを拡大してコンテンツの一部を表示した場合の影画像の表示例である。 図14(a)及び(b)はウィンドウを拡大してコンテンツの一部を表示した場合の影画像の表示例である。 図15は表示側制御部の一部の動作の一例を示すフローチャートである。 図16(a)及び(b)は影画像の集約例を説明するための図である。 図17(a)から(c)は集約時に利用する種々の重み関数の一例である。 図18(a)及び(b)は影画像の集約例を説明するための他の図である。 図19(a)及び(b)は影画像の集約例を説明するための他の図である。
以下、本件を実施するための形態について図面を参照して説明する。
(第1実施形態)
図1は情報処理システム10の一例である。情報処理システム10は第1のコンテンツ表示装置11と第2のコンテンツ表示装置12と情報処理装置としてのサーバ装置13とを備えている。
第1のコンテンツ表示装置11及び第2のコンテンツ表示装置12はいずれもコンテンツを画面に表示させる装置である。第1のコンテンツ表示装置11は例えば拠点Pに設置され、第2のコンテンツ表示装置12は例えば拠点Pと異なる拠点Qに設置される。一方、サーバ装置13は第1のコンテンツ表示装置11及び第2のコンテンツ表示装置12の動作を制御する装置である。サーバ装置13は拠点P及び拠点Qと異なる拠点に設置されてもよいし、拠点Pと拠点Qのいずれか一方に設置されてもよい。第1のコンテンツ表示装置11、第2のコンテンツ表示装置12及びサーバ装置13は通信ネットワークNWにより互いに接続されている。通信ネットワークNWとしてはLocal Area Network(LAN)やインターネットなどがある。
次に、図2を参照して、上述した第1のコンテンツ表示装置11の詳細な構成について説明する。尚、第2のコンテンツ表示装置12の詳細な構成については基本的に第1のコンテンツ表示装置11と同様であるため説明を省略する。
図2は第1のコンテンツ表示装置11の構成の一例である。図2に示すように、第1のコンテンツ表示装置11はプロジェクタ100,101と赤外線カメラ200,201とライブカメラ210と電子ペン300とを備えている。プロジェクタ100,101と赤外線カメラ200,201とライブカメラ210とは有線又は無線により互いに接続されている。
プロジェクタ100はテーブル20上の表示画面21内に共有アプリを表示する表示領域(以下、ウィンドウという)22を表示し、表示したウィンドウ22内に操作可能な種々のコンテンツ23を表示する。表示画面21はプロジェクタ100がウィンドウ22を表示できる領域である。共有アプリとしては、例えば模造紙を実現するアプリケーションソフトウェアや作業者個人のノートを実現するアプリケーションソフトウェアなどがある。一方、プロジェクタ101は壁面やスクリーンなど(以下、単に壁面という)24上の表示画面25内にウィンドウ26を表示し、表示したウィンドウ26内に操作可能な種々のコンテンツ27を表示する。表示画面25はプロジェクタ101がウィンドウ26を表示できる領域である。尚、図2に示すコンテンツ23,27としては、例えば付箋、写真、グラフ、アイコンなどがある。コンテンツ23,27は予め定められた大きさ又はユーザ30が指定した大きさで表示される。
電子ペン300は先端に赤外線を発光する発光素子を備えている。電子ペン300の電源が投入されると発光素子は発光する。例えばユーザ30が発光した電子ペン300を用いて表示画面25内で矩形を描く行動をとると、赤外線カメラ201はその赤外線の軌跡を撮像する。例えばユーザ30が発光した電子ペン300を用いてウィンドウ26を拡大させると、赤外線カメラ201はその赤外線の軌跡を撮像する。一方、ライブカメラ210は各ユーザ30を含む撮像領域内を撮像する。ライブカメラ210としては例えばビデオカメラなどがある。ライブカメラ210は撮像領域内の画像(以下、撮像画像という)を定期的にサーバ装置13に送信する。
サーバ装置13はプロジェクタ100,101の動作を制御する。例えば、サーバ装置13が上述した赤外線の軌跡を赤外線カメラ201から受け付けると、サーバ装置13は受け付けた赤外線の軌跡を判定し、判定結果に応じて、プロジェクタ101にコンテンツ27を表示させたり、ウィンドウ26の大きさを拡大して表示したりする。例えば、サーバ装置13が拠点Qの撮像画像を第2のコンテンツ表示装置12が備えるライブカメラから受け付けると、サーバ装置13は受け付けた撮像画像に基づいて拠点Qのユーザの位置座標を算出する。サーバ装置13は拠点Qのユーザの位置座標を算出すると、算出した位置座標に対応する表示画面25内の位置に拠点Qのユーザの影画像40をプロジェクタ101に表示させる。これにより、拠点Pのユーザ30は拠点Qのユーザが操作対象として指示したコンテンツ27を確認できる。尚、影画像40は拠点Qのユーザの影に相当する画像であり例えば黒色で表されるが、影画像40の色は黒色に限定されず、赤や青などの有色であってもよい。また、影画像40に代えて拠点Qのユーザを模した画像などであってもよい。
次に、図3を参照して、サーバ装置13のハードウェア構成について説明する。
図3はサーバ装置13のハードウェア構成の一例である。図3に示すように、サーバ装置13は、少なくともプロセッサとしてのCentral Processing Unit(CPU)130A、Random Access Memory(RAM)130B、Read Only Memory(ROM)130C及びネットワークインタフェース(以下、I/Fと表記)130Dを含んでいる。サーバ装置13は、必要に応じて、Hard Disk Drive(HDD)130E、入力I/F130F、出力I/F130G、入出力I/F130H、ドライブ装置130Iの少なくとも1つを含んでいてもよい。CPU130Aからドライブ装置130Iまでは、内部バス130Jによって互いに接続されている。少なくともCPU130AとRAM130Bとが協働することによってコンピュータが実現される。尚、CPU130Aに代えてMicro Processing Unit(MPU)をプロセッサとして利用してもよい。
入力I/F130Fには、入力装置710が接続される。入力装置710としては、例えばキーボードやマウスなどがある。出力I/F130Gには、表示装置720が接続される。表示装置720としては、例えば液晶ディスプレイがある。入出力I/F130Hには、半導体メモリ730が接続される。半導体メモリ730としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F130Hは、半導体メモリ730に記憶されたプログラムやデータを読み取る。入力I/F130F及び入出力I/F130Hは、例えばUSBポートを備えている。出力I/F130Gは、例えばディスプレイポートを備えている。
ドライブ装置130Iには、可搬型記録媒体740が挿入される。可搬型記録媒体740としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置130Iは、可搬型記録媒体740に記録されたプログラムやデータを読み込む。ネットワークI/F130Dは、例えばLANポートを備えている。ネットワークI/F130Dは上述した通信ネットワークNWと接続される。
上述したRAM130Bには、ROM130CやHDD130Eに記憶されたプログラムがCPU130Aによって格納される。RAM130Bには、可搬型記録媒体740に記録されたプログラムがCPU130Aによって格納される。格納されたプログラムをCPU130Aが実行することにより、後述する各種の機能が実現され、また、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
次に、図4を参照して、サーバ装置13の機能構成について説明する。
図4はサーバ装置13のブロック図の一例である。図4に示すように、サーバ装置13は処理部としての計測側制御部131と表示側制御部132とを備えている。本実施形態では、計測側制御部131と表示側制御部132とを1台のサーバ装置13が備えているが、計測側制御部131をサーバ装置13が備え、表示側制御部132を別のサーバ装置(不図示)が備えていてもよい。この場合、計測側制御部131を備えるサーバ装置13を拠点Qに配置し、表示側制御部132を備える別のサーバ装置を拠点Pに配置してもよい。
計測側制御部131は送受信部151、位置算出部152、座標変換部153、及び画像表示部154を備えている。表示側制御部132は送受信部161、位置算出部162、座標変換部163、及び画像表示部164を備えている。尚、送受信部151,161は例えば上述したネットワークI/F130Dによって実現される。位置算出部152,162、座標変換部153,163、及び画像表示部154,164は例えば上述したCPU130A及びRAM130Bによって実現される。
まず、計測側制御部131について説明する。
送受信部151は送受信部161及び第2のコンテンツ表示装置12と位置算出部152、座標変換部153、及び画像表示部154との通信を制御する。具体的には、送受信部151は送受信部161や第2のコンテンツ表示装置12から送信された各種の情報を受信する。そして、送受信部151は受信した情報の種別に応じて、その情報を位置算出部152、座標変換部153、又は画像表示部154に出力する。また、送受信部151は位置算出部152、座標変換部153、又は画像表示部154から出力された各種の情報を受け付ける。そして、送受信部151は受け付けた情報の種別に応じて、その情報を送受信部161又は第2のコンテンツ表示装置12に送信する。
位置算出部152は送受信部151から出力された情報を受け付けると、受け付けた情報に基づいて拠点Qのユーザ(以下、計測側ユーザという)の位置座標を算出する。例えば、位置算出部152は第2のコンテンツ表示装置12が備えるライブカメラ(不図示)が撮像した撮像画像を受け付けると、拠点Qの表示画面の左上隅を原点とする平面な座標系(以下、画面座標系という)における計測側ユーザの頭部や指先、重心などの位置座標を算出する。
座標変換部153は送受信部151から出力された情報を受け付けると、受け付けた情報に基づいて、拠点Qの画面座標系における計測側ユーザの位置座標を、ウィンドウの左上隅を原点とする平面な座標系(ウィンドウ座標系という)における計測側ユーザの位置座標に変換する。また、座標変換部153は、ウィンドウ座標系における計測側ユーザの位置座標を、コンテンツの左上隅を原点とする平面な座標系(以下、コンテンツ座標系という)における計測側ユーザの位置座標に変換する。
画像表示部154は送受信部151から出力された情報を受け付けると、受け付けた情報に基づいて、種々の情報処理を実行する。例えば、画像表示部154は画面座標系における計測側ユーザの位置から計測側ユーザの手の届く範囲を表す所定距離以内にあるウィンドウを第2のコンテンツ表示装置12に問い合わせる。例えば、画像表示部154は拠点Pのユーザ(以下、表示側ユーザという)の影画像(不図示)を拠点Qの壁面などに表示する。
次に、表示側制御部132について説明する。
送受信部161は送受信部151及び第1のコンテンツ表示装置11と位置算出部162、座標変換部163、及び画像表示部164との通信を制御する。具体的には、送受信部161は送受信部151や第1のコンテンツ表示装置11から送信された各種の情報を受信する。そして、送受信部161は受信した情報の種別に応じて、その情報を位置算出部162、座標変換部163、又は画像表示部164に出力する。また、送受信部161は位置算出部162、座標変換部163、又は画像表示部164から出力された各種の情報を受け付ける。そして、送受信部161は受け付けた情報の種別に応じて、その情報を送受信部151又は第1のコンテンツ表示装置11に送信する。
位置算出部162は送受信部161から出力された情報を受け付けると、受け付けた情報に基づいて表示側ユーザ30の位置座標を算出する。例えば、位置算出部162は第1のコンテンツ表示装置11が備えるライブカメラ210が撮像した撮像画像を受け付けると、拠点Pの画面座標系における表示側ユーザ30の頭部や指先、重心などの位置座標を算出する。
座標変換部163は送受信部161から出力された情報を受け付けると、受け付けた情報に基づいて、拠点Pの画面座標系における表示側ユーザ30の位置座標を、拠点Pのウィンドウ座標系における表示側ユーザ30の位置座標に変換する。また、座標変換部163は、拠点Pのウィンドウ座標系における表示側ユーザ30の位置座標を、拠点Pのコンテンツ座標系における表示側ユーザ30の位置座標に変換する。
画像表示部164は送受信部151から出力された情報を受け付けると、受け付けた情報に基づいて、種々の情報処理を実行する。例えば、画像表示部164は画面座標系における計測側ユーザの位置から計測側ユーザの手の届く範囲を表す所定距離以内にあるウィンドウを第1のコンテンツ表示装置11に問い合わせる。例えば、画像表示部164は計測側ユーザの影画像40を拠点Pの壁面24などに表示する。
次に、情報処理システム10の動作について説明する。
図5は計測側制御部131の動作の一例を示すフローチャートである。図6は計測側の座標変換を説明するための図である。図7(a)及び(b)は計測側と表示側の画面共有を説明するための図である。
まず、図5に示すように、位置算出部152は計測側ユーザの位置座標を算出する(ステップS101)。より詳しくは、位置算出部152は第2のコンテンツ表示装置12のライブカメラが撮像した撮像画像を受け付けると、撮像画像から拠点Qの表示画面内に含まれる計測側ユーザの画面座標系における位置座標を算出する。例えば、図6に示すように、位置算出部152が撮像画像を受け付けると、位置算出部152は左上隅を原点Os1とする表示画面55の画面座標系s1における計測側ユーザの位置座標Ds1(D s1,D s1)を算出する。
ステップS101の処理が完了すると、次いで、画像表示部154は位置座標Ds1(D s1,D s1)から所定距離(例えば半径1メートル)の範囲内にあるウィンドウを第2のコンテンツ表示装置12に問い合わせる(ステップS102)。そして、画像表示部154は位置座標Ds1(D s1,D s1)から所定距離の範囲内にウィンドウがあるか否かを判定する(ステップS103)。位置座標Ds1(D s1,D s1)から所定距離の範囲内にウィンドウがない場合(ステップS103:NO)、画像表示部154は後続の処理をスキップして、処理を終える。
一方、位置座標Ds1(D s1,D s1)から所定距離の範囲内にウィンドウがある場合(ステップS103:YES)、画像表示部154は位置座標Ds1から所定距離の範囲内にある全てのウィンドウにそれぞれに表示されている共有アプリにコンテンツの位置を問い合わせる(ステップS104)。例えば、図7(a)及び(b)に示すように、拠点Qを表す計測側と拠点Pを表す表示側で表示画面55,25が共有されている場合、計測側のウィンドウ56はその一部が計測側ユーザ32の位置座標Ds1から所定距離の範囲R内に含まれている。一方で、計測側のウィンドウ56´はその所定距離の範囲R内に含まれていない。このような場合、画像表示部154はウィンドウ56に表示されている共有アプリにコンテンツ57a,57b,57cの位置を問い合わせる。
ステップS104の処理が完了すると、次いで、画像表示部154は問い合わせた結果に基づいて共有アプリから回答された全てのコンテンツの位置から位置座標Ds1(D s1,D s1)から所定距離の範囲内にあるコンテンツを特定する(ステップS105)。そして、画像表示部154はコンテンツを特定できたか否かを判定する(ステップS106)。コンテンツを特定できなかった場合(ステップS106:NO)、画像表示部154は後続の処理をスキップして、処理を終える。
一方、コンテンツを特定できた場合(ステップS106:YES)、座標変換部153は計測側ユーザの位置座標Ds1(D s1,D s1)を変換する(ステップS107)。例えば、図7(a)に示すように、コンテンツ57a,57bが位置座標Ds1から所定距離の範囲R内に含まれており、コンテンツ57cが位置座標Ds1から所定距離の範囲R内に含まれていない場合、画像表示部154はコンテンツ57a,57bを特定する。そして、座標変換部153は位置座標Ds1(D s1,D s1)を、画像表示部154が特定したコンテンツ57aのコンテンツ座標系c1における位置座標Cc1(C c1,C c1)と、コンテンツ57bのコンテンツ座標系c2における位置座標Cc2(C c2,C c2)のに変換する。
より詳しく説明すると、座標変換部153はアフィン変換を利用する以下の変換式(1)に基づいて、図6に示すように、画面座標系s1における計測側ユーザの位置座標Ds1(D s1,D s1)を、ウィンドウ座標系w1における計測側ユーザの位置座標Ww1(W w1,W w1)に変換する。尚、回転角θはウィンドウ56の回転角度を表しており、座標(a,a)は画面座標系s1におけるウィンドウ56の左上隅の座標Ow1を表している。
<変換式(1)>
Figure 0006947213
次に、座標変換部153は以下の変換式(2)に基づいて、ウィンドウ座標系w1における計測側ユーザの位置座標Ww1(W w1,W w1)を、コンテンツ座標系c1における計測側ユーザの位置座標Cc1(C c1,C c1)に変換する。尚、座標(b,b)はウィンドウ座標系w1におけるコンテンツ54の左上隅の座標Oc1を表している。また、座標変換部153は同様の手法によりウィンドウ座標系w1における計測側ユーザの位置座標Ww1(W w1,W w1)を、コンテンツ座標系c2における計測側ユーザの位置座標Cc2(C c2,C c2)に変換することができる。
<変換式(2)>
Figure 0006947213
図5に戻り、ステップS107の処理が完了すると、送受信部151は位置座標Cc1(C c1,C c1)を、共有アプリを識別するアプリID及びコンテンツを識別するコンテンツIDと併せて送受信部161に送信し(ステップS108)、処理を終える。尚、送受信部151は位置座標Cc2(C c2,C c2)についても同様に送信する。
図8は表示側制御部131の動作の一例を示すフローチャートである。図9は計測側の座標変換を説明するための図である。図10(a)及び(b)はウィンドウ26を拡大せずにコンテンツ27a,27b,27cの全部を表示した場合の影画像40の表示例である。
まず、図8に示すように、座標変換部163はコンテンツ座標系における計測側ユーザの位置座標を変換する(ステップS201)。具体的には、座標変換部163は送受信部151から送信されて送受信部161が受信した位置座標Cc1(C c1,C c1)を、画面座標系s2における位置座標Ds2(D s2,D s2)に変換する。
より詳しく説明すると、座標変換部163は以下の変換式(3)に基づいて、図9に示すように、コンテンツ座標系c1における計測側ユーザの位置座標Cc1(C c1,C c1)を、ウィンドウ座標系w2における計測側ユーザの位置座標Ww2(W w2,W w2)に変換する。尚、座標(g,g)はウィンドウ座標系w2におけるコンテンツ27aの左上隅の座標Oc1を表している。
<変換式(3)>
Figure 0006947213
次に、座標変換部163は逆アフィン変換を利用する以下の変換式(4)に基づいて、ウィンドウ座標系w2における計測側ユーザの位置座標Ww2(W w2,W w2)を、画面座標系s2における計測側ユーザの位置座標Ds2(D s2,D s2)に変換する。尚、回転角φはウィンドウ座標系w2の回転角度を表しており、座標(h,h)は画面座標系s2におけるウィンドウの左上隅の原点座標Ow2を表している。
<変換式(4)>
Figure 0006947213
尚、上述した変換式(3)については以下の変換式(3´)に変更してもよい。これにより、影画像の物理的な大きさを両拠点P,Qで同じにできる。
<変換式(3´)>
Figure 0006947213
ステップS201の処理が完了すると、次いで、位置算出部162は表示側ユーザの位置座標を算出する(ステップS202)。より詳しくは、位置算出部162は第1のコンテンツ表示装置11のライブカメラ210が撮像した撮像画像を受け付けると、撮像画像から拠点Pの表示画面15内に含まれる表示側ユーザ30の画面座標系s2における位置座標を算出する。例えば、図9に示すように、位置算出部162が撮像画像を受け付けると、位置算出部162は左上隅を原点Os2とする表示画面15の画面座標系s2における表示側ユーザ30の位置座標Es2(E s2,E s2)を算出する。
ステップS202の処理が完了すると、次いで、画像表示部164は位置座標Es2(E s2,E s2)から所定距離の範囲内にあるウィンドウを第1のコンテンツ表示装置11に問い合わせる(ステップS203)。そして、画像表示部164は位置座標Es2(E s2,E s2)から所定距離の範囲内にウィンドウがあるか否かを判定する(ステップS204)。位置座標Es2(E s2,E s2)から所定距離の範囲内にウィンドウがない場合(ステップS204:NO)、画像表示部164は後続の処理をスキップして、処理を終える。
一方、位置座標Es2(E s2,E s2)から所定距離の範囲内にウィンドウがある場合(ステップS204:YES)、画像表示部164は位置座標Es2から所定距離の範囲内にある全てのウィンドウにそれぞれに表示されている共有アプリにコンテンツの位置を問い合わせる(ステップS205)。例えば、図7(b)に示すように、表示側のウィンドウ26はその一部が表示側ユーザ30の位置座標Es2から所定距離の範囲R´内に含まれている。一方で、表示側のウィンドウ26´はその所定距離の範囲R´内に含まれていない。このような場合、画像表示部164はウィンドウ26に表示されている共有アプリにコンテンツ27a,27b,27cの位置を問い合わせる。
ステップS205の処理が完了すると、次いで、画像表示部154は問い合わせた結果に基づいて共有アプリから回答された全てのコンテンツの位置から位置座標Es2(E s2,E s2)から所定距離の範囲内にあるコンテンツを特定する(ステップS206)。そして、画像表示部154はコンテンツを特定できたか否かを判定する(ステップS207)。コンテンツを特定できなかった場合(ステップS207:NO)、画像表示部164は後続の処理をスキップして、処理を終える。
一方、コンテンツを特定できた場合(ステップS207:YES)、画像表示部164は特定したコンテンツを選択し(ステップS208)、影画像を表示する(ステップS209)。これにより、図10(a)及び(b)に示すように、選択したコンテンツ27a,27bの近傍に影画像が表示される。より詳しく説明すると、計測側ユーザ32の手が届く所定距離の範囲R内にあるコンテンツ57a,57bに対応するコンテンツ27a,27bに対して影画像40が表示される。一方で、計測側ユーザ32の手が届く所定距離の範囲R内にないウィンドウ56´に対応するウィンドウ26´やコンテンツ56cに対応するコンテンツ27cに対しては影画像が表示されない。このように、画像表示部164は影画像40を共有アプリ単位及びコンテンツ単位で表示する。これにより、拠点Pの表示側ユーザ30は拠点Qの計測側ユーザ32が操作対象として指示する予定のコンテンツ57a,57bを影画像40により確認することができる。
以下、図11(a)及び(b)から図14(a)及び(b)を参照して、影画像40の様々な表示例について説明する。
図11(a)及び(b)から図14(a)及び(b)はウィンドウ26を拡大してコンテンツ27a,27b,27cの一部を表示した場合の影画像40の表示例である。まず、図11(a)に示すように、計測側ユーザ32の手が届く所定距離の範囲R内にコンテンツ57aが含まれている場合、図11(b)に示すように、画像表示部164はコンテンツ57aに対応するコンテンツ27aの近傍に影画像40を表示する。特に、画像表示部164は、表示画面55の表示位置と計測側ユーザ32の位置座標Ds1との位置関係やウィンドウ56の表示位置と計測側ユーザ32の位置座標Dw1との位置関係を利用せず、コンテンツ57aの表示位置と計測側ユーザ32の位置座標Dc1との位置関係を利用して影画像40をコンテンツ27aの近傍に表示する。このため、ウィンドウ26が拡大されても、影画像40が表示画面55に出現しなくなる問題が回避される。尚、詳細は後述するが、図11(b)に示す場合、表示側ユーザ30の手が届く所定距離の範囲R´外のコンテンツ27aに対し影画像40が表示される。
次に、図12(a)に示すように、計測側ユーザ32の手が届く所定距離の範囲R内にコンテンツ57a,57b,57cが含まれている場合、図12(b)に示すように、画像表示部164はコンテンツ57aに対応するコンテンツ27aの近傍とコンテンツ57cに対応するコンテンツ27cの近傍のそれぞれに影画像40を表示する。一方、コンテンツ57bに対応するコンテンツ27bについてはウィンドウ26の拡大により表示画面25の表示対象から外れる。このような場合、画像表示部164はコンテンツ27bに対応する影画像40を表示しない。このように、ウィンドウ26が拡大されてコンテンツ27bが表示画面25から外れても、コンテンツ27a,27cについての各影画像40が表示画面55に出現しなくなる問題が回避される。
次に、図13(a)に示すように、計測側ユーザ32の手が届く所定距離の範囲R内にコンテンツ57a,57b,57cが含まれている場合、図13(b)に示すように、画像表示部164はコンテンツ57cに対応する、表示側ユーザ30の手が届く所定距離の範囲R´内にあるコンテンツ27cに限定して、コンテンツ27cの近傍に影画像40を表示してもよい。すなわち、上述した図11(b)及び図12(b)の表示例では、表示側ユーザ30の手が届かないコンテンツ27aについても画像表示部164は影画像40を表示したが、図13(b)に示すように、表示側ユーザ30の手が届かないコンテンツ27aについて画像表示部164は影画像40を表示しなくてもよい。表示側ユーザ30はコンテンツ27aに手が届かないため、コンテンツ27aを操作する意図が少ないためである。
次に、図14(a)に示すように、計測側ユーザ32の手が届く所定距離の範囲R内にコンテンツ57b,57cとウィンドウ56´のコンテンツ57dが含まれている場合、図14(b)に示すように、画像表示部164はコンテンツ57cに対応するコンテンツ27cの近傍に影画像40を表示するだけでなく、コンテンツ57dに対応するコンテンツ27dの近傍にも影画像40を表示する。すなわち、画像表示部164はコンテンツ単位だけでなくウィンドウ単位でも影画像40を表示する。尚、コンテンツ57bに対応するコンテンツ27bはウィンドウ26の拡大により表示画面25内に出現しないため、画像表示部164はコンテンツ27bに対する影画像40を表示しない。
(第2実施形態)
続いて、図15から図19を参照して、本件の第2実施形態について説明する。
図15は表示側制御部162の一部の動作の一例を示すフローチャートである。図16(a)及び(b)は影画像40の集約例を説明するための図である。図17(a)から(c)は集約時に利用する種々の重み関数の一例である。図18(a)及び(b)並びに図19(a)及び(b)は影画像40の集約例を説明するための他の図である。
まず、図15に示すように、図8を参照して説明したステップS209の処理が完了すると、画像表示部164は影画像40が複数表示あるか否かを判定する(ステップS210)。複数表示がない場合(ステップS210:NO)、画像表示部164は後続の処理をスキップして、処理を終える。一方、複数表示がある場合(ステップS210:YES)、画像表示部164は影画像を集約する(ステップS211)。
例えば、図12(a)及び(b)を参照して説明したように、影画像40が複数表示される場合、図16(a)及び(b)に示すように、画像表示部164は複数表示される影画像40を集約する。具体的には、画像表示部164は複数表示される影画像40の画面座標(xi,yi)(i=1〜nの自然数)からその重心
Figure 0006947213
を算出し、算出した重心の位置に1つの影画像40を表示する。
例えば重心に代えて、画像表示部164は表示される影画像40の画面座標(xi,yi)(i=1〜nの自然数)からその加重平均を算出してもよい。例えば、計測側ユーザ32又は表示側ユーザ30から距離が近い影画像40ほど重みを大きくする。重み関数は計測側ユーザ32又は表示側ユーザ30からの距離
Figure 0006947213
に反比例して減少するものとする。例えば、画像表示部164は、図17(a)に示すような、f(d)=a−bd(単調減少関数)を利用して加重平均を算出してもよい。例えば、画像表示部164は、図17(b)に示すような、f(d)=1−1/(1+exp(2d))(シグモイド関数)を利用して加重平均を算出してもよい。例えば、画像表示部164は、図17(c)に示すような、f(d)=1/d(反比例関数)を利用して加重平均を算出してもよい。この際、画像表示部164は1つの影画像40を(Σf(d)x/n,Σf(d)y/n)の位置に表示する。
また、影画像40が複数表示される場合、図18(a)及び(b)に示すように、画像表示部164は複数表示される影画像40の中で、計測側ユーザ32に最も近いコンテンツ57aに対応するコンテンツ27aに影画像40を集約してもよい。さらに、影画像40が複数表示される場合、図19(a)及び(b)に示すように、画像表示部164はウィンドウ単位で影画像40を集約してもよい。例えば、計測側ユーザ32の手が届く所定距離の範囲R内にウィンドウ56のコンテンツ57b,57cとウィンドウ56´のコンテンツ57dとが含まれている場合、ウィンドウ26に複数表示される影画像40については1つに集約し、ウィンドウ26´に表示される1つの影画像40については集約しなくてもよい。
以上、本実施形態によれば、第1のコンテンツ表示装置11及び第2のコンテンツ表示装置12の各表示画面25,55に表示させるコンテンツ27a,27b,27c,57a,57b,57cを共有させるサーバ装置13は計測側制御部131と表示側制御部132とを備えている。計測側制御部131及び表示側制御部132は第1のコンテンツ表示装置11がコンテンツ27a,27b,27cの一部27a,27cを表示するとき、第2のコンテンツ表示装置12を操作する計測側ユーザ32が第1のコンテンツ表示装置11に表示されているコンテンツ27a,27b,27cのうち、コンテンツの一部27cを操作可能な位置にいるか否かを判定し、判定結果に基づいて、第1のコンテンツ表示装置11に対し、計測側ユーザ32が操作可能な位置に存在することを示す影画像40を表示させる。これにより、第1のコンテンツ表示装置11及び第2のコンテンツ表示装置12でコンテンツ27a,27b,27c,57a,57b,57cを共有する場合に、コンテンツ27cを操作可能な位置における計測側ユーザ32の存在を判別することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述した実施形態ではプロジェクタを表示装置として利用して説明したが、プロジェクタに代えて液晶ディスプレイを表示装置として利用してもよい。また、拡大を一例として説明したが、縮小についても拡大の場合と同様である。
10 情報処理システム
11 第1のコンテンツ表示装置
12 第2のコンテンツ表示装置
13 サーバ装置
131 計測側制御部
132 表示側制御部
151,161 送受信部
152,162 位置算出部
153,163 座標変換部
154,164 画像表示部

Claims (6)

  1. 第1及び第2の装置の画面に表示させるコンテンツを共有させる情報処理装置であって、
    前記第1の装置がコンテンツの一部を表示するとき、前記第1の装置に表示されているコンテンツのうち、前記コンテンツの一部が前記第2の装置を操作するユーザの位置から前記ユーザの手が届く範囲内で操作可能な位置にあるか否かを判定し、判定結果に基づいて、前記第1の装置に対し、前記ユーザが操作可能な位置に存在することを示す画像を表示させる、
    処理を実行する処理部を備える情報処理装置。
  2. 前記処理部は、前記第2の装置に表示されているコンテンツを基準とする座標で前記ユーザの位置を算出し、算出した前記位置を利用して、前記画像を前記第1の装置に拡大又は縮小されて表示されているコンテンツの大きさに対応しない前記第2の装置側の大きさで表示させる、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記処理部は、前記ユーザの手が届く範囲内のコンテンツを基準とする座標で前記ユーザの位置を算出し、算出した前記位置を利用して、前記第1の装置を操作するユーザの手が届く範囲内のコンテンツの近傍に前記画像を表示させる、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記処理部は、複数の前記画像を表示させる場合、複数の前記画像の重心若しくは加重平均に基づいて複数の前記画像を集約した表示位置を決定し、又は予め設定した位置を複数の前記画像を集約した表示位置に決定する、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 第1及び第2の装置の画面に表示させるコンテンツを共有させる情報処理方法であって、
    前記第1の装置がコンテンツの一部を表示するとき、前記第1の装置に表示されているコンテンツのうち、前記コンテンツの一部が前記第2の装置を操作するユーザの位置から前記ユーザの手が届く範囲内で操作可能な位置にあるか否かを判定し、判定結果に基づいて、前記第1の装置に対し、前記ユーザが操作可能な位置に存在することを示す画像を表示させる、
    処理をコンピュータが実行する情報処理方法。
  6. 第1及び第2の装置の画面に表示させるコンテンツを共有させる情報処理方法であって、
    前記第1の装置がコンテンツの一部を表示するとき、前記第1の装置に表示されているコンテンツのうち、前記コンテンツの一部が前記第2の装置を操作するユーザの位置から前記ユーザの手が届く範囲内で操作可能な位置にあるか否かを判定し、判定結果に基づいて、前記第1の装置に対し、前記ユーザが操作可能な位置に存在することを示す画像を表示させる、
    処理をコンピュータに実行させる情報処理プログラム。
JP2019528291A 2017-07-06 2017-07-06 情報処理装置、情報処理方法、及び情報処理プログラム Active JP6947213B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/024856 WO2019008732A1 (ja) 2017-07-06 2017-07-06 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2019008732A1 JPWO2019008732A1 (ja) 2020-03-19
JP6947213B2 true JP6947213B2 (ja) 2021-10-13

Family

ID=64949823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528291A Active JP6947213B2 (ja) 2017-07-06 2017-07-06 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (4)

Country Link
US (1) US11256466B2 (ja)
EP (1) EP3651453A4 (ja)
JP (1) JP6947213B2 (ja)
WO (1) WO2019008732A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443560B1 (en) * 2021-06-09 2022-09-13 Zoom Video Communications, Inc. View layout configuration for increasing eye contact in video communications

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000025199A1 (en) * 1998-10-27 2000-05-04 Petersen Joel R Portable interactive presentation device
JP2005117285A (ja) 2003-10-07 2005-04-28 Hitachi Ltd 情報入力装置、通信端末及び通信方法
JP2011513871A (ja) * 2008-03-10 2011-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ デジタル画像を修正する方法及び装置
US9053455B2 (en) * 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
US20140098138A1 (en) * 2012-10-05 2014-04-10 Samsung Electronics Co., Ltd Method and system for augmented reality based smart classroom environment
JP5916590B2 (ja) * 2012-12-06 2016-05-11 コニカミノルタ株式会社 オブジェクト操作装置及びオブジェクト操作制御プログラム
US9787945B2 (en) * 2013-06-26 2017-10-10 Touchcast LLC System and method for interactive video conferencing
JP2015109565A (ja) 2013-12-04 2015-06-11 キヤノン株式会社 会議端末装置、電子会議システム、及び、プログラム
US9628858B2 (en) * 2014-10-31 2017-04-18 Microsoft Technology Licensing, Llc Individualized content presentation for increased user interaction performance in group settings
US20160142471A1 (en) * 2014-11-17 2016-05-19 Smart Technologies Ulc Systems and methods for facilitating collaboration among multiple computing devices and an interactive display device
JP6540793B2 (ja) 2015-03-19 2019-07-10 富士通株式会社 表示方法、情報処理装置、表示制御装置及びプログラム
JP2017027335A (ja) * 2015-07-22 2017-02-02 コニカミノルタ株式会社 オブジェクト操作装置及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法

Also Published As

Publication number Publication date
JPWO2019008732A1 (ja) 2020-03-19
WO2019008732A1 (ja) 2019-01-10
EP3651453A4 (en) 2020-06-24
US11256466B2 (en) 2022-02-22
EP3651453A1 (en) 2020-05-13
US20200117414A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
US12079940B2 (en) Multi-endpoint mixed-reality meetings
JP6525611B2 (ja) 画像処理装置およびその制御方法
JP6060632B2 (ja) 画像中の投影領域の決定方法、及び装置
US20140368456A1 (en) Information processing apparatus, information processing method, and computer program
US20120221960A1 (en) Collaborative workspace viewing for portable electronic devices
JP7378354B2 (ja) ライブ動画ストリームからの指の押下の検出
WO2021097600A1 (zh) 一种隔空交互方法、装置和设备
US8434009B2 (en) Information processing apparatus and computer readable medium
KR20220161445A (ko) 3d 기하구조를 구성하는 방법 및 장치
WO2015165023A1 (zh) 一种实现屏幕共享的方法、装置和系统
CN108665510B (zh) 连拍图像的渲染方法、装置、存储介质及终端
TWI499938B (zh) 觸控系統
JP6286836B2 (ja) 投影システム、投影装置、投影方法、及び投影プログラム
JP6947213B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
EP3054380B1 (en) Document presentation method and user terminal
JP6412685B2 (ja) 映像投影装置
CN110365950A (zh) 一种投影方法、投影仪及计算机可读存储介质
US11481507B2 (en) Augmented reality document redaction
KR102526113B1 (ko) 혼잡도 시각화 장치 및 방법
CN108540726B (zh) 连拍图像的处理方法、装置、存储介质及终端
TW202013173A (zh) 切換裝置與切換系統及其適用之方法
US20210027750A1 (en) Display apparatus, display system, and display method
TW201638764A (zh) 互動控制系統、觸控顯示裝置及其控制方法
JP6152662B2 (ja) 画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6947213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150