[go: up one dir, main page]

JP7247466B2 - 情報処理システムおよびプログラム - Google Patents

情報処理システムおよびプログラム Download PDF

Info

Publication number
JP7247466B2
JP7247466B2 JP2018055730A JP2018055730A JP7247466B2 JP 7247466 B2 JP7247466 B2 JP 7247466B2 JP 2018055730 A JP2018055730 A JP 2018055730A JP 2018055730 A JP2018055730 A JP 2018055730A JP 7247466 B2 JP7247466 B2 JP 7247466B2
Authority
JP
Japan
Prior art keywords
information
imaging
situation
writing surface
writing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018055730A
Other languages
English (en)
Other versions
JP2019168894A (ja
Inventor
忍 小関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018055730A priority Critical patent/JP7247466B2/ja
Priority to US16/168,851 priority patent/US20190294323A1/en
Publication of JP2019168894A publication Critical patent/JP2019168894A/ja
Application granted granted Critical
Publication of JP7247466B2 publication Critical patent/JP7247466B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Drawing Aids And Blackboards (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理システムおよびプログラムに関する。
特許文献1には、スクリーンを撮像する撮像手段により得られた画像データから、スクリーンに投影されている映像データとは別にスクリーンに追記された付加情報を検出する検出手段を備えた投影装置が開示されている。
特許文献2には、立体動画像を撮影する立体カメラに設けられる複数のレンズ装置を制御するレンズ制御装置が開示されている。
特許文献3には、筆記面に書き込まれた情報を読み取り、読み取られた画像データと、その字や図形等が書き込まれた際に発言された音声とを対応付けてそれぞれ記憶する電子黒板が開示されている。
特開2015-161748号公報 特開2012-199678号公報 特開2003-260896号公報
被筆記面における筆記内容を撮像しておき、後に、撮像結果を見返す場合、筆記を行った者の情報など、筆記内容以外の情報については、把握することが難しい場合が多い。筆記内容以外の情報も得られれば、撮像結果に含まれる筆記内容をより円滑に理解できるようになる。
本発明の目的は、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようにすることにある。
請求項1に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記情報表示手段は、前記被筆記面に、前記情報取得手段により得られた前記状況情報を表示するとともに、当該被筆記面のうち、前記筆記者により隠れてしまう箇所以外の箇所に、当該状況情報を表示する、情報処理システムである。
請求項に記載の発明は、前記情報表示手段は、前記被筆記面のうち、前記筆記者に対向する部分よりも上方に位置する部分に、前記状況情報を表示する請求項に記載の情報処理システムである。
請求項に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記情報取得手段は、前記状況情報として、前記被筆記面の周辺に位置するユーザについての情報を取得し、前記情報表示手段は、前記被筆記面の周辺に位置するユーザについての情報を表示する、情報処理システムである。
請求項に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記情報取得手段は、前記状況情報として、前記筆記者についての情報である筆記者情報を取得し、前記情報表示手段は、前記筆記者情報を表示するとともに、前記筆記者が複数いる場合、当該筆記者の各々に対応させて当該筆記者情報を複数表示し、複数の当該筆記者情報を表示するにあたり、複数の当該筆記者に含まれる筆記者の並び順と、表示を行う当該複数の筆記者情報の並び順とが一致するように、当該複数の筆記者情報を表示する、情報処理システムである。
請求項に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記情報取得手段は、前記状況情報として、前記被筆記面の周辺に位置する発話者が行った発話についての情報を取得し、前記情報表示手段は、前記発話についての情報を表示する、情報処理システムである。
請求項に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記情報取得手段は、前記状況情報として、前記被筆記面の周辺の環境についての情報を取得し、前記情報表示手段は、前記環境についての情報を表示する、情報処理システムである。
請求項に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記撮像手段による撮像結果を記憶する記憶手段を更に備え、前記記憶手段は、前記撮像手段により得られる撮像結果の内容に変化があった場合に、撮像結果を記憶する、情報処理システムである。
請求項に記載の発明は、前記情報表示手段は、前記情報取得手段により得られた前記状況情報を、予め定められた表示箇所に表示し、前記記憶手段は、前記撮像結果のうちの前記表示箇所を撮像した部分に変化があった場合であっても、当該部分以外の箇所が変化していない場合には、撮像結果の記憶を行わない請求項に記載の情報処理システムである。
請求項に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記撮像手段による撮像結果を記憶する記憶手段を更に備え、前記記憶手段は、前記撮像手段により得られる撮像結果の内容に変化があり且つ筆記者による前記被筆記面への筆記が検知された場合に、撮像結果を記憶する、情報処理システムである。
請求項10に記載の発明は、筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、前記撮像手段による撮像結果を、前記被筆記面に表示する撮像結果表示手段を更に備え、前記撮像結果表示手段は、前記撮像手段による撮像結果のうちの、少なくとも、前記被筆記面を撮像した撮像部分を、当該被筆記面に表示するとともに、当該表示にあたり、当該撮像部分の一部を表示し、又は、当該撮像部分の大きさを変えて当該撮像部分を表示する、情報処理システムである。
請求項11に記載の発明は、前記撮像結果表示手段は、前記撮像部分の大きさを変えて当該撮像部分を前記被筆記面に表示する場合、当該被筆記面の大きさよりも小さいサイズで当該撮像部分を表示する請求項10に記載の情報処理システムである。
請求項12に記載の発明は、前記情報表示手段は、前記被筆記面のうちの、前記撮像部分が表示される箇所の周囲に位置する余白の部分に、前記情報取得手段により得られた情報を表示する請求項11に記載の情報処理システムである。
請求項13に記載の発明は、撮像手段による撮像領域内にある被筆記面への筆記者による筆記がなされる際の状況についての情報である状況情報を取得する情報取得機能と、筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得機能により得られた状況情報が表示されるようにする情報表示機能と、をコンピュータに実現させるためのプログラムであり、前記情報表示機能は、前記被筆記面に、前記情報取得機能により得られた前記状況情報が表示されるようにするとともに、当該被筆記面のうち、前記筆記者により隠れてしまう箇所以外の箇所に、当該状況情報が表示されるようにする、プログラムである。
請求項1、13の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、被筆記面のうち、筆記者により隠れてしまう箇所に、得られた情報を表示する場合に比べ、この情報の確認を行いやすくなる。
請求項の発明によれば、情報取得手段により得られた情報を、被筆記面のうち、筆記者に対向する部分に表示する場合に比べ、筆記者によりこの情報が隠れてしまうことを起きにくくすることができる。
請求項の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、被筆記面に対して行われた筆記の内容を後に参照する際に、被筆記面の周辺に位置していたユーザについての情報を得ることができる。
請求項の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、複数の筆記者に含まれる筆記者の並び順と、複数の筆記者情報の並び順とが一致しない場合に比べ、各筆記者についての情報をより正確に把握することが可能になる。
請求項の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、被筆記面に対して行われた筆記の内容を後に参照する際に、被筆記面の周辺に位置していた発話者が行った発話についての情報を得ることができる。
請求項の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、被筆記面に対して行われた筆記の内容を後に参照する際に、被筆記面の周辺の環境についての情報を得ることができる。
請求項の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、撮像手段により得られる撮像結果の内容の変化の有無に関わらず撮像結果を記憶する場合に比べ、撮像結果の記憶に用いる記憶装置の容量を低減できる。
請求項の発明によれば、情報取得手段により得られた情報の表示箇所以外の箇所が変化していないにも関わらず撮像結果を記憶する場合に比べ、撮像結果の記憶に用いる記憶装置の容量を低減できる。
請求頁の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、筆記者による被筆記面への筆記の有無に関わらず撮像結果を記憶する場合に比べ、撮像結果の記憶に用いる記憶装置の容量を低減できる。
請求項10の発明によれば、被筆記面における筆記内容の撮像結果のみを後から見返せる場合に比べ、撮像結果に含まれる筆記内容の理解をより円滑に行えるようになり、また、撮像部分をそのままの大きさで表示する場合に比べ、撮像部分の表示サイズを小さくしたり、撮像部分の一部を拡大表示したりすることができる。
請求項11の発明によれば、被筆記面の大きさと同じサイズで撮像部分を表示する場合に比べ、被筆記面における余白領域を増やすことができる。
請求項12の発明によれば、情報取得手段により得られた情報を、撮像部分が表示される箇所に表示する場合に比べ、情報取得手段により得られた情報をより見やすい状態で表示できる。
情報処理システムの全体構成を示した図である。 機器コントローラのハードウエアの構成を示した図である。 機器コントローラのCPU等により実現される機能部を示した図である。 (A)~(D)は、情報処理システム1にて実行される処理の流れの一例を示した図である。 (A)~(E)は、撮像結果の再生処理を示した図である。 (A)~(D)は、情報処理システムにおける他の処理例を示した図である。 (A)~(E)は、撮像結果の再生処理の他の処理例を示した図である。 上記にて説明した、撮像結果の登録処理の流れを示した図である。 筆記者の特定処理の流れを示した図である。
以下、添付図面を参照して、本発明の実施の形態について説明する。
図1は、情報処理システム1の全体構成を示した図である。
本実施形態の情報処理システム1には、筆記者による筆記が行われるホワイトボード10が設けられている。このホワイトボード10は、会議室800内に設置されている。
ホワイトボード10には、筆記者による筆記が行われる被筆記面11が設けられている。被筆記面11は、矩形状に形成され、また、上下方向(鉛直方向)に沿うよう配置されている。また、ホワイトボード10には、筆記に用いられるマーカーペンや、筆記を消すための消去用部材が設けられている。
なお、本実施形態では、ホワイトボード10を用いる場合を一例に説明するが、ホワイトボード10に限らず、黒板を用いてもよい。また、ホワイトボード10には、いわゆる電子ホワイトボードを用いてもよい。
さらに、本実施形態の情報処理システム1には、筆記者が被筆記面11に対して行った筆記の内容を撮像する撮像手段の一例としてのボードカメラ20が設けられている。
このボードカメラ20は、図中符号21で示す矩形状の撮像領域(以下、「撮像領域21」と称する)の撮像を行う。本実施形態では、この撮像領域21内に、ホワイトボード10が含まれるように撮像領域21が設定されている。
さらに、情報処理システム1には、ホワイトボード10の上方に設けられ、ホワイトボード10の前に立つユーザの顔を検出する顔検出カメラ30が設けられている。
顔検出カメラ30は、ホワイトボード10の前にユーザが立った場合に、このユーザを検出し、さらに、公知の顔認証技術を用いて、このユーザを特定する。
なお、顔検出カメラ30には、3Dカメラを併用してもよく、この場合は、人物の動きをより詳細に捉えられる。
また、顔検出カメラ30の設置位置は、ホワイトボード10の上方に限らず、例えば、顔検出カメラ30をプロジェクター50(後述)に組み込み、顔検出カメラ30がホワイトボード10側を向くようにしてもよい。ユーザは、筆記しながら発言する際にプロジェクター50側を向くため、顔検出カメラ30がホワイトボード10側を向いていても、ユーザの顔の検出を行える。
さらに、会議室800内には、ホワイトボード10の前に立つユーザの音声を取得する音声入力マイク40が設けられている。音声入力マイク40は、ホワイトボード10の周辺にいるユーザ(発話者)が行った発話についての情報(発話内容)を取得する。
さらに、会議室800内であって、ホワイトボード10の周辺には、温度センサ、湿度センサ、明度センサなどのセンサSが設けられている。
ここで、本実施形態では、顔検出カメラ30、音声入力マイク40、センサS等は、情報取得手段の一部として機能する。顔検出カメラ30、音声入力マイク40、センサS等は、筆記者によるホワイトボード10への筆記がなされる際の状況についての情報である状況情報を取得する。
さらに、本実施形態では、情報表示手段、撮像結果表示手段の一例としてのプロジェクター50が設けられている。
プロジェクター50は、ボードカメラ20による撮像がなされる撮像領域21内に(ホワイトボード10の被筆記面11に)、上記の状況情報(顔検出カメラ30、音声入力マイク40、センサS等により得られた状況情報)を表示する。
また、プロジェクター50は、ボードカメラ20により得られた撮像結果を、撮像領域21内に(ホワイトボード10の被筆記面11に)、表示(投影)する。
さらに、情報処理システム1には、ユーザが所有する持ち込み機構61からの情報を、無線通信により受信して、プロジェクター50に出力する無線接続機62が設けられている。
また、本実施形態では、会議室800内に設置されている機器の制御を行う機器コントローラ63が設けられている。
機器コントローラ63は、筆記者によるホワイトボード10への筆記がなされる際の、ホワイトボード10の周辺の状況についての情報である状況情報を取得する。
具体的には、機器コントローラ63は、顔検出カメラ30、音声入力マイク40、センサSなど、ホワイトボード10の周辺に設置されている機器(以下、「周辺機器」と称する)からの情報(状況情報)を取得する。付言すると、機器コントローラ63は、筆記が行われる際における会議室800内の状況情報を取得する。
また、機器コントローラ63は、会議室800内に設置されている機器の制御を行う。
具体的には、例えば、機器コントローラ63は、プロジェクター50を制御する。より具体的には、機器コントローラ63は、制御用信号および上記の周辺機器から取得した状況情報を、プロジェクター50に送信する。これにより、本実施形態では、ホワイトボード10に、状況情報が表示される(詳細は後述)。
また、機器コントローラ63は、例えば、制御用信号およびボードカメラ20により得られた撮像結果を、プロジェクター50に送信する。
これにより、本実施形態では、ボードカメラ20により得られた撮像結果が、ホワイトボード10に表示される(詳細は後述)。
また、本実施形態では、会議室800における会議予定などの情報が会議室予約システムから取得され、この情報が、管理サーバ70に格納される。
また、機器コントローラ63は、有線もしくは無線で接続されているセンサSなどの上記周辺機器から情報(状況情報)を取得し、取得したこの情報を管理サーバ70へ送信する。
管理サーバ70は、機器コントローラ63から送信されてきた情報を格納する。また、管理サーバ70は、機器コントローラ63からのリクエストに応じて情報を送信する。例えば、管理サーバ70は、自身が保持している状況情報などの情報を機器コントローラ63に送信する。
さらに、本実施形態の情報処理システム1には、ボードカメラ20により得られた撮像結果を記憶する画像データベース82、画像データベース82に登録(記憶)される撮像結果の管理を行うコンテンツサーバ81が設けられている。
さらに、情報処理システム1には、例えば、LANやインターネット回線により構成され、情報処理システム1を構成する上記各機器を接続する通信回線90が設けられている。
図2は、機器コントローラ63のハードウエアの構成を示した図である。
機器コントローラ63は、コンピュータ装置により構成され、機器コントローラ63には、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、ROM(Read Only Memory)303が設けられている。また、ハードディスク装置などにより構成される記憶装置304が設けられている。さらに、機器コントローラ63には、外部との通信を行うための通信インタフェース(通信I/F)305が設けられている。
CPU301によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、機器コントローラ63へ提供しうる。また、CPU301によって実行されるプログラムは、インターネットなどの通信手段を用いて機器コントローラ63へダウンロードしてもよい。
図3は、機器コントローラ63のCPU301等により実現される機能部を示した図である。なお、この図3では、後述する、情報の表示処理に関する機能部のみを表示している。
図3に示すように、機器コントローラ63は、情報取得部311、撮像結果取得部312、画像生成部313を備える。
情報取得手段の他の一部として機能する情報取得部311は、筆記者によるホワイトボード10への筆記がなされる際の、ホワイトボード10の周辺の状況についての情報(会議室800内の状況についての情報)である状況情報を取得する。
より具体的には、情報取得部311は、会議室800内に設置されている上記周辺機器からの情報を得ることで、状況情報を取得する。
撮像結果取得手段の一例としての撮像結果取得部312は、ボードカメラ20により得られた撮像結果を、ボードカメラ20から取得する。
なお、撮像結果取得部312が取得したこの撮像結果は、コンテンツサーバ81へ出力され、画像データベース82に格納される。
生成手段の一例としての画像生成部313は、情報取得部311が取得した状況情報から、ボードカメラ20による撮像領域21内に表示される画像の元となる画像データを生成する。
生成されたこの画像データは、プロジェクター50に出力され、この画像データに対応した画像が、ホワイトボード10に表示される。これにより、本実施形態では、ホワイトボード10の周辺の状況についての情報である状況情報が、ホワイトボード10に表示される(詳細は後述)。
また、画像生成部313は、画像データベース82(コンテンツサーバ81)から、ボードカメラ20による撮像領域21内に表示される画像の元となる画像データ(ホワイトボード10を撮像した過去の撮像結果)を取得する。
取得されたこの画像データは、プロジェクター50に出力され、この画像データに対応した画像が、ホワイトボード10に表示される。
これにより、本実施形態では、ボードカメラ20により得られた撮像結果(ボードカメラ20により得られ画像データベース82に格納されていた過去の撮像結果)が、ホワイトボード10に表示される(詳細は後述)。
なお、本実施形態では、画像データベース82およびコンテンツサーバ81がそれぞれ設けられた構成例を説明したが、画像データベース82およびコンテンツサーバ81を一緒にして1つの画像データベースとしてもよい。
また、画像データベース82、コンテンツサーバ81、および、状況情報等を格納する管理サーバ70を一緒にして、一つのサーバとしてもよい。
本実施形態では、記録時(撮像結果の登録時)には、情報取得部311が取得したデータ(状況情報)が管理サーバ70に送信され、撮像結果取得部312が取得した撮像結果がコンテンツサーバ81に送信される(画像データベース82に格納される)。
また、再生時(撮像結果の再生時)には、例えば、ユーザから得たキーワードを元に、画像生成部313が、コンテンツサーバ81から撮像結果を取得し、管理サーバ70から状況情報を取得し、そして、撮像結果および状況情報の両者が合成された合成画像を生成する(詳細は後述)。
図4(A)~(D)は、情報処理システム1にて実行される処理の流れの一例を示した図である。
図4(A)は、ホワイトボード10の初期状態を示しており、図4(A)では、被筆記面11に、未だ筆記がなされていない状態となっている。
図4(B)は、会議が開始され、ホワイトボード10の前に、複数のユーザ(人物)が立った状態を示している。
本実施形態では、ホワイトボード10の前にユーザが立つと、顔検出カメラ30(図1参照)によって、このユーザが検知され、ボードカメラ20による撮像が開始される。
さらに、本実施形態では、顔検出カメラ30によって、ホワイトボード10の前のユーザの各々が特定される。より具体的には、顔検出カメラ30によって、顔認証が行われて、ホワイトボード10の前のユーザの各々の人物IDが特定される。なお、顔認証は、公知の技術を用いて行われる。
さらに、本実施形態では、顔検出カメラ30によって、ホワイトボード10への筆記を行う筆記者の人物IDが特定される。
具体的には、顔検出カメラ30は、ホワイトボード10側を向いている人(ホワイトボード10に正対している人)を、筆記者として特定し、この筆記者の人物IDを特定する。また、顔検出カメラ30は、ホワイトボード10に正対している人が複数いる場合には、顔が最も大きい人(ホワイトボード10の最も近くにいる人)を筆記者として特定し、この筆記者の人物IDを特定する。
また、顔検出カメラ30は、顔が最も大きい人が複数いる場合(同じ顔の大きさの人が複数いる場合)は、それぞれを筆記者として特定し、人物IDを特定する。
本例では、図4(B)の「WorkerA」が筆記者として特定された場合を例示している(図4(B)の「WorkerA」の人物IDが特定された場合を例示している)。
なお、本実施形態では、ホワイトボード10の前のユーザの各々の人物IDの特定、筆記者の人物IDの特定を、顔検出カメラ30にて行う場合を説明したが、これらの特定は、機器コントローラ63にて行ってもよい。
人物IDが特定された場合、本実施形態では、筆記者についての詳細情報が、管理サーバ70に問い合わせた機器コントローラ63を経由してプロジェクター50に出力され、図4(B)の符号4Xに示すように、この筆記者についての詳細情報が、被筆記面11に表示される。
より具体的には、管理サーバ70は、顔検出カメラ30や機器コントローラ63が特定した人物IDに基づき、人物情報システムに問い合わせを行い、名前などの詳細情報を取得する。そして、本実施形態では、この詳細情報が、機器コントローラ63を経由してプロジェクター50に出力され、被筆記面11に表示される。
より具体的には、本実施形態では、機器コントローラ63の情報取得部311が、管理サーバ70が取得した上記の詳細情報を取得し、次いで、画像生成部313が、この詳細情報に基づき、被筆記面11に表示する画像の元となる画像データを生成する。そして、この画像データを、プロジェクター50に出力する。これにより、顔検出カメラ30等により特定された、筆記者についての情報が、被筆記面11に表示される。
本実施形態では、上記の筆記者の詳細情報を、ボードカメラ20による撮像領域21内に表示する。
言い換えると、本実施形態では、筆記者による被筆記面11への筆記がなされる際の、被筆記面11の周辺についての状況を示す状況情報が、ホワイトボード10の被筆記面11に表示される。
より具体的には、本実施形態では、情報表示手段の一例としてのプロジェクター50により、情報取得部311が取得した状況情報が、被筆記面11のうちの、予め定められた表示箇所4Y(図4(B)参照)に表示される。
具体的には、本実施形態では、「WorkerA」という文字画像が、被筆記面11の左上の部分に投影される。
本実施形態では、情報取得部311が、会議室800内に設置された周辺機器からの情報(状況情報)を取得する。
そして、本実施形態では、取得されたこの状況情報が、プロジェクター50に出力され、プロジェクター50によって、この状況情報が、ホワイトボード10に表示される。
なお、本実施形態では、得られた状況情報については、被筆記面11に表示される他、ボードカメラ20により得られる撮像結果(画像データベース82に格納される撮像結果)の各々に対応付けられたうえで、管理サーバ70に登録される。
具体的には、本実施形態では、状況情報として、筆記者情報、筆記者以外のユーザについての情報、会議室800内の温度などの環境情報、発話情報などが得られるが、これらの情報は、撮像結果の各々に対応付けられたうえで、管理サーバ70に登録される。
ここで、本実施形態では、状況情報を、ホワイトボード10の被筆記面11に表示するにあたり、筆記者により隠れてしまう箇所以外の箇所に表示する。
具体的には、本実施形態では、図4(B)の符号4Xで示すように、状況情報として、筆記者についての情報(筆記者情報)を、被筆記面11に表示するが、この際、この状況情報を、筆記者4Zにより隠れてしまう箇所以外の箇所に表示する。
より具体的には、被筆記面11の一部の領域であって、被筆記面11の上部に、状況情報を表示する。より具体的には、本実施形態では、被筆記面11の左上の領域に(被筆記面11の左上の角部に)、状況情報を表示する。
また、本実施形態では、被筆記面11が有する縁部11Bおよび被筆記面11の中央部11Cのうちの、縁部11Bに近い側に、状況情報を表示する。
また、本実施形態では、被筆記面11のうち、筆記者4Zに対向する対向部分11Eよりも上方に位置する部分に、状況情報を表示する。より具体的には、符号11Gで示す破線よりも上方に位置する部分に、状況情報を表示する。
以上の表示を行うことにより、状況情報が筆記者4Zの背後に隠れることに起因して、状況情報が見えなくなることが抑制される。
なお、本実施形態では、状況情報として、筆記者情報を表示する場合を一例に説明するが、筆記者情報以外の他の情報を表示してもよい。
状況情報としては、その他に、例えば、被筆記面11の周辺に位置するユーザについての情報を表示してもよい。すなわち、筆記者4Z以外のユーザの情報を表示してもよい。
また、状況情報としては、その他に、被筆記面11の周辺に位置する筆記者、ユーザ(発話者)が行った発話についての情報(発話情報)(発話内容)を表示してもよい。
なお、発話情報の表示を行う場合には、発話情報が、音声入力マイク40によってまず取得される。次いで、音声入力マイク40からの発話情報を、機器コントローラ63の情報取得部311が取得する。
そして、画像生成部313が、音声入力マイク40からのこの発話情報を解析して、発話情報をテキスト化する。その後、このテキスト化により得た情報を、プロジェクター50に出力する。これにより、発話情報が被筆記面11に表示される。
また、状況情報としては、その他に、被筆記面11の周辺の環境についての情報である環境情報(会議室800内の環境に関する情報)を表示してもよい。
具体的には、センサSにより得られた、気温、湿度、照度などの情報を表示してもよい。
また、状況情報としては、その他に、例えば、時間情報、被筆記面11の設置場所を示す場所情報などを表示してもよい。
また、状況情報を表示するにあたっては、表示を順次切り替えて、表示する状況情報を順次変更してもよい。
また、被筆記面11に、複数の状況情報を表示してもよい。
なお、複数の状況情報を表示する場合は、表示の優先度を予め決めておくことが好ましい。
被筆記面11には、そのサイズに大小があり、小さい場合には、全ての状況情報を表示することが困難になり、表示を行う状況情報を絞り込む必要が生じる。この場合に、上記のように、表示の優先度を予め決めておくと、この絞り込みを円滑に行える。
また、本実施形態では、筆記者4Zが、新たな筆記者に切り替わった場合には、この新たな筆記者の筆記者情報が表示される。
本実施形態では、リアルタイムに(予め定められた時間毎に)、筆記者4Zの特定、表示を行っており、筆記者4Zが新たな筆記者となった場合は、この新たな筆記者に対応した筆記者情報が表示される。
図4(C)は、筆記者による筆記がなされた後の状態を示した図である。
本実施形態では、ボードカメラ20(図1参照)によって、図4(C)にて示す、筆記者4Z、筆記者以外のユーザ、ホワイトボード10の被筆記面11が撮像される。
ホワイトボード10の被筆記面11には、筆記がなされ、また、状況情報が表示されており、本実施形態では、被筆記面11が撮像されることで、被筆記面11に筆記された内容である筆記内容と、状況情報とが撮像される。
ボードカメラ20により得られた撮像結果は、画像データベース82に登録される。
具体的には、ボードカメラ20により得られた撮像結果は、コンテンツサーバ81にまず出力され、コンテンツサーバ81が、画像データベース82への撮像結果の登録を行う。
ここで、コンテンツサーバ81は、撮像結果を、動画ではなく、静止画で、画像データベース82に登録する。
本実施形態では、コンテンツサーバ81および画像データベース82が、ボードカメラ20による撮像結果を記憶する記憶手段として機能し、コンテンツサーバ81および画像データベース82によって、ボードカメラ20からの撮像結果が、静止画の状態で記憶される。
なお、本実施形態では、ボードカメラ20により得られる撮像結果の内容に変化があった場合に、画像データベース82に、撮像結果を登録する。
より具体的には、本実施形態では、コンテンツサーバ81が、ボードカメラ20からの撮像結果の内容に変化があったか否かを判断し、変化があった場合に、この変化後の撮像結果を、図4(D)に示すように、画像データベース82に登録する。
なお、画像データベース82への撮像結果の登録は、撮像結果に変化があった場合に一律に行ってもよいし、撮像結果に変化があったとしても、この変化が、予め定められた箇所の変化である場合には、撮像結果の登録を行わないようにしてもよい。
具体的には、例えば、撮像結果の変化が、状況情報の表示箇所4Y(図4(C)参照)にて起きた場合には、撮像結果の登録を行わないようにしてもよい。
付言すると、撮像結果の変化が、表示箇所4Yにて起きた場合であっても、この表示箇所4Y以外の箇所が変化していない場合には、撮像結果の登録を行わないようにしてもよい。
より具体的には、本実施形態では、コンテンツサーバ81が、撮像結果の内容を解析し、撮像結果の内容に変化があると、この撮像結果を登録するが、内容の変化が表示箇所4Yにて起きた場合には、撮像結果の登録を省略してもよい。
本実施形態では、表示箇所4Yにおける表示が切り替えられる場合があり、このような場合に、一律に撮像結果を登録する処理を行うと、筆記内容に変化がないにも関わらず、撮像結果が登録されてしまう。
これに対し、本実施形態のように、内容の変化が表示箇所4Yのみで起きた場合には登録を行わない処理を行うと、撮像結果の登録数が減り、撮像結果を記憶しておく記録装置の容量の低減を図れる。
また、画像データベース82への撮像結果の登録は、撮像結果の内容に変化があり且つ筆記者による被筆記面11への筆記が検知された場合に行うようにしてもよい。
この処理を行う場合、筆記者による被筆記面11への筆記がないにも関わらず撮像結果が登録されることが抑制される。
ここで、例えば、プロジェクター50により被筆記面11に資料が表示され、さらに、この資料のページがめくられる場合がある。この場合、上記のように、筆記者による筆記が検知された場合に、撮像結果の登録を行うようにすれば、ページめくりのみに起因する撮像結果の登録が抑制される。言い換えると、筆記者による筆記がなされていないにも関わらず撮像結果が登録されることが抑制される。
なお、筆記者による被筆記面11への筆記の検知は、例えば、被筆記面11の振動を検知する振動センサを設けることで行える。
また、撮像結果を画像データベース82に登録するにあたり、この撮像結果に含まれる状況情報が、一つ前に登録された撮像結果に含まれる状況情報と同じである場合には、被筆記面11に表示されている状況情報を変更し、状況情報を変更した後の撮像結果を登録するようにしてもよい。
ここで、例えば、同じ筆記者が連続して筆記を行う場合、本実施形態の場合、同じ筆記者情報が、状況情報として連続して表示される。この場合、後に、撮像結果を見返した場合に、状況情報としては、筆記者情報しか得られない。
これに対し、上記のように、表示する情報を変更すると、後に、撮像結果を見返す場合に、異なる内容の状況情報を得られるようになる。
図5(A)~(E)は、撮像結果の再生処理を示した図である。
本実施形態では、ユーザの指示に応じ、被筆記面11に対し、画像データベース82に登録されている撮像結果の表示を行う。
撮像結果の表示にあたっては、本実施形態では、まず、図5(A)に示すように、ユーザ(この例では、WorkerC)が、例えば、音声入力マイク40(図1参照)を通じて、撮像結果を特定するためのキーワードを入力する。
そして、コンテンツサーバ81が、図5(B)に示すように、画像データベース82に格納されている撮像結果の検索を行い、キーワードに対応した撮像結果を特定する。
次いで、図5(C)に示すように、撮像結果表示手段の一例としてのプロジェクター50(図1参照)により、この撮像結果が、ホワイトボード10の被筆記面11に表示される。より具体的には、本実施形態では、コンテンツサーバ81により特定された撮像結果が、機器コントローラ63を経由して、プロジェクター50に出力され、撮像結果が、ホワイトボード10の被筆記面11に表示される。
ここで、本実施形態では、被筆記面11への撮像結果の表示にあたり、少なくとも、被筆記面11を撮像した撮像部分を、被筆記面11に表示する。
具体的には、図5(C)の符号5Xで示す矩形状の枠の内側が、過去に被筆記面11を撮像した撮像部分(以下、「被筆記面撮像部分」と称する)に該当し、少なくとも、この被筆記面撮像部分を、被筆記面11に表示する。
ここで、本実施形態では、被筆記面撮像部分の表示にあたり、被筆記面撮像部分の大きさを変えて被筆記面撮像部分を表示する。
具体的には、本実施形態では、被筆記面撮像部分の大きさを小さくし、被筆記面11の大きさよりも小さいサイズで被筆記面撮像部分を表示する。
さらに、本実施形態では、被筆記面11のうちの、被筆記面撮像部分の表示箇所の周囲に位置する余白の部分に(符号5Xで示す矩形状の枠の外側に位置する余白の部分に)、情報取得部311が得た状況情報を表示する。
本実施形態のように、被筆記面11の大きさよりも小さいサイズで被筆記面撮像部分を表示すると、この被筆記面撮像部分の周囲に余白が生じる。本実施形態では、この余白の部分に、その時点における状況情報を表示する。具体的には、本例では、状況情報として、筆記者が「WorkerC」であること示す情報(筆記者情報)を表示する。
なお、本実施形態では、被筆記面撮像部分のサイズを小さくすることで、余白を生じさせたが、被筆記面撮像部分の全部ではなく一部を表示することで、余白を生じさせてもよい。言い換えると、被筆記面撮像部分の一部の表示を省略することで、余白を生じさせてもよい。
また、被筆記面撮像部分の表示にあたっては、被筆記面撮像部分を大きくして表示してもよい。より具体的には、例えば、被筆記面撮像部分の一部の表示を省略するとともに、残りの他の部分を拡大して表示してもよい。この場合、被筆記面撮像部分が拡大されて表示され、細かな部分の確認を行いやすくなる。
また、被筆記面撮像部分の表示(再生表示)にあたっては、自動送りとしてもよいし、手動送りとしてもよい。また、巻き戻しを行えるようにしてもよい。
また、本実施形態では、音声入力マイク40に対するユーザの指示により、被筆記面撮像部分の表示が行われる場合を一例に説明したが、タブレットなどの携帯端末に対するユーザからの指示を受け付けて、被筆記面撮像部分の表示を行ってもよい。
また、被筆記面撮像部分の表示(筆記内容の表示)にあたっては、筆記内容を構成する複数の描線(ストローク)を、描線毎に且つ時系列順に、順に表示してもよい。
また、筆記内容を構成する複数の描線に、筆記者が各々異なる複数の描線が含まれている場合、被筆記面撮像部分(筆記内容の表示)にあたっては、各描線がいずれの筆記者により筆記されたものであるかが分かるように表示してもよい。具体的には、例えば、筆記者毎に描画の色を変えたり、筆記者毎に、描線の背景を変えたりする表示を行ってもよい。
その後、この処理例では、図5(D)に示すように、被筆記面11に対し、筆記者(WorkerC)による新たな筆記が行われる。
そして、この処理例では、この新たな筆記の内容、プロジェクター50により被筆記面11に表示されている撮像結果(被筆記面撮像部分)、および、プロジェクター50により被筆記面11に表示されている状況情報が、ボードカメラ20により撮像される。
そして、図5(E)に示すように、ボードカメラ20によるこの撮像結果が、画像データベース82に登録される。さらに、状況情報が、画像データベース82に登録される撮像結果に対応付けられたうえで、管理サーバ70に登録される。
なお、本実施形態では、撮像結果がホワイトボード10に表示され、ホワイトボード10を見ることで、過去の撮像結果を確認する場合を一例に説明したが、撮像結果の確認方法はこれに限られない。
撮像結果の確認方法としては、その他に、PCやタブレット端末などの端末装置(不図示)に、撮像結果を送信して、この端末装置にて、撮像結果の確認を行えるようにしてもよい。
図6(A)~(D)は、情報処理システム1における他の処理例を示した図である。より具体的には、図6は、ホワイトボード10への筆記が行われる際の処理例を示した図である。
この処理例でも、上記と同様、筆記者が特定され、図6(B)の符号6Aで示すように、特定したこの筆記者についての情報が、被筆記面11に表示される。付言すると、この場合も、特定された筆記者についての情報が、ボードカメラ20による撮像領域21内に表示される。
より具体的には、この処理例では、筆記者が複数いる場合を例示しており、この場合は、筆記者の各々に対応させて、筆記者情報を複数表示する。
具体的には、この例では、筆記者として、「WorkerA」、「WorkerB」が、ホワイトボード10の前に立っており、ホワイトボード10には、この「WorkerA」、「WorkerB」の各々に対応した、筆記者情報「WorkerA」、「WorkerB」が表示される。
なお、本実施形態では、筆記者が複数いると判断された場合は、検知した筆記者の各々の顔の位置と、ホワイトボード10における筆記位置から、各筆記者がどの筆記を行ったかを特定し、各筆記内容(各描線)と筆記者とを対応付けたうえで、画像データベース82に登録する。
さらに、本実施形態では、複数の筆記者情報を表示するにあたり、複数の筆記者に含まれる筆記者の並び順と、表示を行う複数の筆記者情報の並び順とが一致するように、複数の筆記者情報を表示する。
より具体的には、本実施形態では、複数の筆記者である、「WorkerA」、「WorkerB」(図6(B)にて符号6Bで示す筆記者)が、図中左から右に向かって、「WorkerA」、「WorkerB」の順で並んでいる。
また、本実施形態では、被筆記面11に表示される筆記者情報(符号6Aで示す部分にて表示している筆記者情報)についても、図中左から右に向かって、「WorkerA」、「WorkerB」の順で並んでいる。
これにより、本実施形態では、複数の筆記者に含まれる筆記者の並び順と、複数の筆記者情報の並び順とが一致しない場合に比べ、各筆記者についての情報の把握をより正確に行える。
また、本実施形態では、各筆記者情報を表示するにあたり、被筆記面11のうちの、各筆記者の対向箇所に位置する部分の上方に位置する部分に、筆記者情報を表示する。
その後、この例では、図6(C)に示すように、「WorkerA」、「WorkerB」のそれぞれにより、筆記が行われ、その後、図6(D)に示すように、ボードカメラ20による、被筆記面11の撮像結果が、画像データベース82に登録される。
図7(A)~(E)は、撮像結果の再生処理の他の処理例を示した図である。
撮像結果の再生処理にあたっては、上記と同様、図7(A)に示すように、ユーザ(この例では、「WorkerC」)による、音声入力マイク40(図1参照)への発話が行われる。
次いで、上記と同様、図7(B)に示すように、画像データベース82に格納されている撮像結果の検索が行われる。
そして、撮像結果が見つかると、図7(C)に示すように、見つかった撮像結果が、被筆記面11に表示される。なお、この際、上記と同様、撮像結果は、サイズが小さくされたうえで、被筆記面11に表示される。さらに、上記と同様、サイズを小さくすることにより得られる余白の部分に、状況情報が表示される。
その後、図7(D)、(E)に示すように、上記と同様、新たな筆記が行われると、この新たな筆記の内容、撮像結果(投影されている過去の撮像結果)、および、状況情報を撮像した新たな撮像結果(ボードカメラ20により得られた新たな撮像結果)が、画像データベース82に登録される。
ここで、本実施形態の情報処理システム1では、筆記内容の撮像結果が保存され、後に、この筆記内容を見返せば、会議内容などの把握を一応行える。
この場合に、本実施形態では、筆記内容の撮像結果以外に、筆記者情報などの状況情報の参照も併せて行える。この場合、状況情報を考慮に入れて筆記内容の確認を行えるようになり、筆記内容の理解をより円滑に行える。付言すると、本実施形態では、筆記がなされたときの背景状況も知ることができ、過去の筆記内容の理解をより円滑に行える。
なお、本実施形態の上記の処理内容は、遠隔会議などに用いてもよい。
上記の処理内容を遠隔会議に用いると、一方の場所にて行われた筆記の内容を、他方の場所にて確認する際に、この確認作業がより容易となる。
具体的には、他方の場所では、一方の場所における筆記内容のみならず、一方の場所における背景情報を知ることができ、他方の場所では、一方の場所にて行われた筆記の内容の確認をより行いやすくなる。
また、上記では、被筆記面11への筆記が直接行われる場合を一例に説明したが、「被筆記面11への筆記」とは、被筆記面11への直接の筆記に限るものではなく、筆記が行われた付箋などの記録媒体を被筆記面11に添付する場合も含む。
この場合も、状況情報を表示するようにすれば、この記録媒体における筆記内容の理解をより円滑に行える。
また、上記では、状況情報を被筆記面11に投影し、この被筆記面11を撮像することで、筆記の内容と状況情報の両者が載った画像の画像データを生成する場合を一例に説明したが(筆記の内容と状況情報の両者が載った撮像結果を得る場合を説明したが)、この両者が載った画像データは、他の方法により生成してもよい。
具体的には、例えば、被筆記面11の撮像結果に対して、状況情報を示す画像を後から合成して、筆記の内容と状況情報の両者が載った画像の画像データを生成してもよい。
より具体的には、この場合は、例えば、生成手段として機能する画像生成部313が、管理サーバ70に格納されている状況情報を用い、被筆記面11の撮像結果(画像データベース82に格納されている撮像結果)に合成される画像の元となる画像データを生成する。
そして、画像生成部313は、被筆記面11の撮像結果に対し、生成したこの画像データを合成し、筆記の内容と状況情報の両者が載った画像の画像データを生成する。
言い換えると、この場合、画像生成部313は、管理サーバ70に格納されている状況情報と、この状況情報に対応付けられている撮像結果(画像データベース82に格納されている撮像結果)とを用い、筆記の内容と状況情報の両者が載った画像の画像データを生成する。付言すると、画像生成部313は、撮像結果および状況情報が合わさった合成画像を生成する。
また、上記では、状況情報を被筆記面11に表示した場合を説明したが、被筆記面11以外の箇所に、状況情報を表示してもよい。付言すると、撮像領域21内ならば、被筆記面11以外の箇所に、状況情報を表示してもよい。
また、上記では、一つの装置(一つのプロジェクター50)で、撮像結果の表示、状況情報の表示の両者を行ったが、撮像結果の表示を行う装置、状況情報の表示を行う装置を各々設置してもよい。
また、上記では、状況情報の表示、撮像結果の表示を、投影により行ったが、ディスプレイなどの表示装置に、状況情報や撮像結果を表示してもよい。
また、上記では、撮像結果を、静止画で保存しておく場合を説明したが、撮像結果は、動画で保存してもよい。なお、静止画の方が、撮像結果の再生を行う際には、より短い時間で済むようになる。
また、撮像結果を動画で保存する場合にも、静止画の場合と同様、筆記内容に変化があった場合に、撮像結果を保存することが好ましい。
図8は、上記にて説明した、撮像結果の登録処理の流れを示した図である。
本実施形態の処理では、まず、ホワイトボード10への筆記が行われる否かを判断する(ステップ101)。
具体的には、顔検出カメラ30からの出力に基づき、ホワイトボード10の前に、筆記者に該当する者がいるか否かを判断し、筆記者に該当する者がいると判断される場合、ホワイトボード10への筆記が行われると判断する。
次いで、本実施形態では、状況情報を取得する。
具体的には、まず、顔検出カメラ30にて、顔認証を行って、ホワイトボード10の前にいる筆記者の各々を特定する(ステップ102)。具体的には、筆記者の各々の人物IDを特定する。そして、上記のとおり、この人物IDに基づき、筆記者の各々の詳細情報を取得する。
また、会議室800内に設置されている周辺機器からの情報を取得し、発話情報、環境情報などの情報を取得する(ステップ103)。
そして、本実施形態では、被筆記面11への筆記があると、筆記内容および状況情報が撮像された撮像結果(ボードカメラ20による撮像結果)を、画像データベース82に登録する(ステップ104)。また、状況情報については、撮像結果に対応付けたうえで管理サーバ70に登録する。
その後、予め定められた時間をおいて(ステップ105)、処理を終了する。
なお、本実施形態では、ステップ101~ステップ103の処理を繰り返し行い、被筆記面11への筆記があると、ステップ104の処理に進み、画像データベース82への撮像結果の登録を行う。
図9は、上記ステップ102にて実行される処理(筆記者の特定処理)の流れを示した図である。
この処理では、まず、顔検出カメラ30が、自身が得た撮像結果を解析して、ホワイトボード10の前に、ユーザがいるか否かを判断する(ステップ201)。
そして、ステップ201にて、ホワイトボード10の前に、ユーザがいると判断された場合は、ユーザ情報が予め登録されたユーザ情報データベース(不図示)に、このユーザが登録されているか否かを判断する(ステップ202)。
そして、ユーザが登録されている場合には、ユーザ情報データベースから、このユーザの人物ID(このユーザを特定するための情報)を取得する。
さらに、特定した人物IDの中から、ホワイトボード10側を向いている人(ホワイトボード10に正対している人)の人物IDを特定し、そして、上記のとおり、特定したこの人物IDに基づき、筆記者を特定する(筆記者の詳細情報を取得する)(ステップ203)。より詳細には、上記のとおり、管理サーバ70が人物情報システムに問い合わせを行うことで、筆記者の詳細情報を取得し、筆記者を特定する。
1…情報処理システム、4Y…表示箇所、11…被筆記面、11B…縁部、11C…中央部、11E…対向部分、20…ボードカメラ、21…撮像領域、30…顔検出カメラ、40…音声入力マイク、50…プロジェクター、81…コンテンツサーバ、82…画像データベース、311…情報取得部、312…撮像結果取得部、313…画像生成部、S…センサ

Claims (13)

  1. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記情報表示手段は、前記被筆記面に、前記情報取得手段により得られた前記状況情報を表示するとともに、当該被筆記面のうち、前記筆記者により隠れてしまう箇所以外の箇所に、当該状況情報を表示する、
    情報処理システム。
  2. 前記情報表示手段は、前記被筆記面のうち、前記筆記者に対向する部分よりも上方に位置する部分に、前記状況情報を表示する請求項に記載の情報処理システム。
  3. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記情報取得手段は、前記状況情報として、前記被筆記面の周辺に位置するユーザについての情報を取得し、
    前記情報表示手段は、前記被筆記面の周辺に位置するユーザについての情報を表示する、情報処理システム。
  4. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記情報取得手段は、前記状況情報として、前記筆記者についての情報である筆記者情報を取得し、
    前記情報表示手段は、前記筆記者情報を表示するとともに、前記筆記者が複数いる場合、当該筆記者の各々に対応させて当該筆記者情報を複数表示し、複数の当該筆記者情報を表示するにあたり、複数の当該筆記者に含まれる筆記者の並び順と、表示を行う当該複数の筆記者情報の並び順とが一致するように、当該複数の筆記者情報を表示する、
    情報処理システム。
  5. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記情報取得手段は、前記状況情報として、前記被筆記面の周辺に位置する発話者が行った発話についての情報を取得し、
    前記情報表示手段は、前記発話についての情報を表示する、
    情報処理システム。
  6. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記情報取得手段は、前記状況情報として、前記被筆記面の周辺の環境についての情報を取得し、
    前記情報表示手段は、前記環境についての情報を表示する、
    情報処理システム。
  7. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記撮像手段による撮像結果を記憶する記憶手段を更に備え、
    前記記憶手段は、前記撮像手段により得られる撮像結果の内容に変化があった場合に、撮像結果を記憶する、
    情報処理システム。
  8. 前記情報表示手段は、前記情報取得手段により得られた前記状況情報を、予め定められた表示箇所に表示し、
    前記記憶手段は、前記撮像結果のうちの前記表示箇所を撮像した部分に変化があった場合であっても、当該部分以外の箇所が変化していない場合には、撮像結果の記憶を行わない請求項に記載の情報処理システム。
  9. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記撮像手段による撮像結果を記憶する記憶手段を更に備え、
    前記記憶手段は、前記撮像手段により得られる撮像結果の内容に変化があり且つ筆記者による前記被筆記面への筆記が検知された場合に、撮像結果を記憶する、
    情報処理システム。
  10. 筆記者が被筆記面に対して行った筆記の内容を撮像する撮像手段と、
    筆記者による前記被筆記面への筆記がなされる際の状況についての情報である状況情報を取得する情報取得手段と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得手段により得られた状況情報を表示する情報表示手段と、を備え、
    前記撮像手段が、筆記者による前記被筆記面への筆記がなされる際に、前記撮像領域内に表示される前記状況情報と、当該筆記者が行う筆記の内容とを撮像し、
    前記撮像手段による撮像結果を、前記被筆記面に表示する撮像結果表示手段を更に備え、
    前記撮像結果表示手段は、前記撮像手段による撮像結果のうちの、少なくとも、前記被筆記面を撮像した撮像部分を、当該被筆記面に表示するとともに、当該表示にあたり、当該撮像部分の一部を表示し、又は、当該撮像部分の大きさを変えて当該撮像部分を表示する、
    情報処理システム。
  11. 前記撮像結果表示手段は、前記撮像部分の大きさを変えて当該撮像部分を前記被筆記面に表示する場合、当該被筆記面の大きさよりも小さいサイズで当該撮像部分を表示する請求項10に記載の情報処理システム。
  12. 前記情報表示手段は、前記被筆記面のうちの、前記撮像部分が表示される箇所の周囲に位置する余白の部分に、前記情報取得手段により得られた情報を表示する請求項11に記載の情報処理システム。
  13. 撮像手段による撮像領域内にある被筆記面への筆記者による筆記がなされる際の状況についての情報である状況情報を取得する情報取得機能と、
    筆記者による前記被筆記面への筆記がなされる際に、前記撮像手段による撮像がなされる撮像領域内に、前記情報取得機能により得られた状況情報が表示されるようにする情報表示機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記情報表示機能は、前記被筆記面に、前記情報取得機能により得られた前記状況情報が表示されるようにするとともに、当該被筆記面のうち、前記筆記者により隠れてしまう箇所以外の箇所に、当該状況情報が表示されるようにする、
    プログラム。
JP2018055730A 2018-03-23 2018-03-23 情報処理システムおよびプログラム Active JP7247466B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018055730A JP7247466B2 (ja) 2018-03-23 2018-03-23 情報処理システムおよびプログラム
US16/168,851 US20190294323A1 (en) 2018-03-23 2018-10-24 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018055730A JP7247466B2 (ja) 2018-03-23 2018-03-23 情報処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2019168894A JP2019168894A (ja) 2019-10-03
JP7247466B2 true JP7247466B2 (ja) 2023-03-29

Family

ID=67985191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018055730A Active JP7247466B2 (ja) 2018-03-23 2018-03-23 情報処理システムおよびプログラム

Country Status (2)

Country Link
US (1) US20190294323A1 (ja)
JP (1) JP7247466B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7626104B2 (ja) 2022-06-20 2025-02-04 トヨタ自動車株式会社 システム及び端末装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169833A (ja) 2008-01-18 2009-07-30 Canon Inc 議事録処理装置、方法及びプログラム
JP2012070259A (ja) 2010-09-24 2012-04-05 Fuji Xerox Co Ltd 動作検出装置、記録システム及びプログラム
JP2012100228A (ja) 2010-11-05 2012-05-24 Ricoh Co Ltd 描画画像共有装置
US20150106739A1 (en) 2013-10-14 2015-04-16 Microsoft Corporation Command authentication
JP2015109520A (ja) 2013-12-03 2015-06-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびコンピュータプログラム
JP2015161748A (ja) 2014-02-26 2015-09-07 キヤノン株式会社 投影装置、画像処理装置およびそれらの制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053455B2 (en) * 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169833A (ja) 2008-01-18 2009-07-30 Canon Inc 議事録処理装置、方法及びプログラム
JP2012070259A (ja) 2010-09-24 2012-04-05 Fuji Xerox Co Ltd 動作検出装置、記録システム及びプログラム
JP2012100228A (ja) 2010-11-05 2012-05-24 Ricoh Co Ltd 描画画像共有装置
US20150106739A1 (en) 2013-10-14 2015-04-16 Microsoft Corporation Command authentication
JP2015109520A (ja) 2013-12-03 2015-06-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびコンピュータプログラム
JP2015161748A (ja) 2014-02-26 2015-09-07 キヤノン株式会社 投影装置、画像処理装置およびそれらの制御方法

Also Published As

Publication number Publication date
JP2019168894A (ja) 2019-10-03
US20190294323A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
CN112075075B (zh) 用于促进远程会议的方法和计算机化智能助理
JP5012968B2 (ja) 会議システム
US10241990B2 (en) Gesture based annotations
CN106575361B (zh) 提供视觉声像的方法和实现该方法的电子设备
US20140348394A1 (en) Photograph digitization through the use of video photography and computer vision technology
CN105700803B (zh) 信息输出控制装置
CN111937376B (zh) 电子设备及其控制方法、可读记录介质
WO2011122496A1 (ja) 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
US20210135892A1 (en) Automatic Detection Of Presentation Surface and Generation of Associated Data Stream
JP2014515512A (ja) ペンベースのコンピュータシステムにおけるコンテンツ選択
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
JP2013527947A5 (ja)
WO2010010736A1 (ja) 会議画像生成方法、会議システム、サーバ装置及び会議装置等
US20220351425A1 (en) Integrating overlaid digital content into data via processing circuitry using an audio buffer
US20120242860A1 (en) Arrangement and method relating to audio recognition
JP2009206924A (ja) 情報処理装置、情報処理システム及び情報処理プログラム
JP2011004007A (ja) テレビ会議装置、テレビ会議方法、そのプログラム
US20170068512A1 (en) Electronic apparatus and information processing method thereof
JP7247466B2 (ja) 情報処理システムおよびプログラム
WO2010018770A1 (ja) 画像表示装置
JP4649944B2 (ja) 動画像処理装置、動画像処理方法およびプログラム
JP6553217B1 (ja) データ入力装置、データ入力プログラム及びデータ入力システム
JP2012119927A (ja) 端末装置、情報提示方法、及び情報提示プログラム
WO2019146187A1 (ja) 情報処理装置および情報処理方法
WO2022231703A1 (en) Integrating overlaid digital content into displayed data via processing circuitry using a computing memory and an operating system memory

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7247466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150