JP2024029642A - 情報処理装置、表示方法、プログラム - Google Patents
情報処理装置、表示方法、プログラム Download PDFInfo
- Publication number
- JP2024029642A JP2024029642A JP2022132011A JP2022132011A JP2024029642A JP 2024029642 A JP2024029642 A JP 2024029642A JP 2022132011 A JP2022132011 A JP 2022132011A JP 2022132011 A JP2022132011 A JP 2022132011A JP 2024029642 A JP2024029642 A JP 2024029642A
- Authority
- JP
- Japan
- Prior art keywords
- display
- display area
- information processing
- area
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/155—Conference systems involving storage of or access to video conference sessions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】領域ごとの使用頻度に基づいてテキストデータの表示領域を決定する技術を提供すること。【解決手段】本発明は、情報処理システムと通信可能な情報処理装置であって、オブジェクトをディスプレイに表示する表示制御部と、デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信する通信部と、前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域150を決定する表示領域決定部と、前記表示領域に前記テキストデータを表示するテキスト表示部と、を有する。【選択図】図1
Description
本発明は、情報処理装置、表示方法、及びプログラムに関する。
タッチパネル式のディスプレイにユーザーが専用の電子ペンや指などで描画した手書きデータを表示する電子黒板などの情報処理装置が知られている。また、会議の参加者の発話を音声認識によりテキストデータに変換し、テキストデータを使用して議事録を作成する技術が知られている。
音声をテキストデータに変換してリアルタイムに表示する技術が知られている(例えば、特許文献1参照。)。特許文献1には、画面表示を共有する共有領域の指定を受け付け、入力された音声を音声認識でテキストデータに変換し、共有領域内の画面データとテキストデータとを表示する技術が開示されている。
しかしながら、従来の技術では、領域ごとの使用頻度に基づいてテキストデータの表示領域が決定されていないという問題がある。例えば、テキストデータを表示するために表示領域が固定されると手書きデータなどの入力領域が狭くなり、操作性が低下する。また、情報処理装置が入力領域にテキストデータを単に重ねて表示すると、手書きデータ等がテキストデータで隠れるので操作性が低下する。
本発明は、上記課題に鑑み、領域ごとの使用頻度に基づいてテキストデータの表示領域を決定する技術を提供することを目的とする。
本発明は、情報処理システムと通信可能な情報処理装置であって、オブジェクトをディスプレイに表示する表示制御部と、デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信する通信部と、前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域を決定する表示領域決定部と、前記表示領域に前記テキストデータを表示するテキスト表示部と、を有する。
領域ごとの使用頻度に基づいてテキストデータの表示領域を決定する技術を提供することができる。
以下、本発明を実施するための形態の一例として、情報処理装置と情報処理装置が行う表示方法について説明する。
<テキストデータの表示の概略>
図1は、ユーザーが発言した音声から変換されたテキストデータを電子黒板2が、オブジェクトと共に表示する処理を説明する図である。
図1は、ユーザーが発言した音声から変換されたテキストデータを電子黒板2が、オブジェクトと共に表示する処理を説明する図である。
(1) ユーザーが発言した音声は、ミーティングデバイス60と端末装置10を経由して、リアルタイムに情報処理システム50に送信される。
(2) 情報処理システム50は、音声を無音区間や文字数でなどで区切りながら、音声をテキストデータに変換する。情報処理システム50は、ミーティングデバイス60と対応付けられた電子黒板2にテキストデータを送信する。
(3) テキストデータを受信した電子黒板2は、主に以下の2つの方法でテキストデータ153をディスプレイに表示する。
(i) 電子黒板2はテキストデータをディスプレイ480の未使用領域151に表示する。未使用領域151には、オブジェクトが表示されていないので、ユーザーはオブジェクトがテキストデータ153で隠れたり、テキストデータ153がオブジェクトで隠れたりすることなく、オブジェクトとテキストデータを視認できる。
(ii) 未使用領域151が存在しない場合、電子黒板2は使用頻度が低い領域を決定し、該領域をテキストデータ153の表示領域150に決定する。表示領域150は、議論の対象となっていないオブジェクトが表示されている可能性が高く、オブジェクトがテキストデータ153で隠れても影響が少ない。
(i) 電子黒板2はテキストデータをディスプレイ480の未使用領域151に表示する。未使用領域151には、オブジェクトが表示されていないので、ユーザーはオブジェクトがテキストデータ153で隠れたり、テキストデータ153がオブジェクトで隠れたりすることなく、オブジェクトとテキストデータを視認できる。
(ii) 未使用領域151が存在しない場合、電子黒板2は使用頻度が低い領域を決定し、該領域をテキストデータ153の表示領域150に決定する。表示領域150は、議論の対象となっていないオブジェクトが表示されている可能性が高く、オブジェクトがテキストデータ153で隠れても影響が少ない。
このように、本実施形態の記録情報作成システムは、未使用領域151か又は直近で利用されている頻度が小さい表示領域150にテキストデータを表示するので、電子黒板2の使い勝手を低下させにくい。
<用語について>
会議とは、会合して評議することをいう。会議は、コンベンション、集会、集まり、ミーティング、評議、発表会、プレゼンテーション、コンファレンス、談合、会談、合議、話合い、セミナー等と呼ばれてもよい。
会議とは、会合して評議することをいう。会議は、コンベンション、集会、集まり、ミーティング、評議、発表会、プレゼンテーション、コンファレンス、談合、会談、合議、話合い、セミナー等と呼ばれてもよい。
ユーザーがディスプレイに入力手段を押しつけてから連続的に移動させた後、ディスプレイから離すという一連の操作をストロークという。ストロークは、ディスプレイに接触することなく、ユーザーの動きを追跡することを含む。この場合、電子黒板は、例えばマウスやポインティングデバイスを使用して、ユーザーのジェスチャー、ユーザーの手又は足によるボタンの押下、又は他の方法で、ストロークを開始させてもよい。更に、ユーザーは、同じ又は異なるジェスチャー、ボタンを離す、又はマウスやポインティングデバイスを使用して、ストロークを終了させてもよい。
ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレイに表示される情報である。ストロークデータは適宜、補間されてよい。手書きデータとは、1つ以上のストロークデータを有するデータである。手書き入力とは、ユーザーによって、手書きデータが入力されることを示している。手書き入力は、タッチインターフェース、ペンやスタイラスなどの触覚オブジェクト、又はユーザーの体を使って実行されてもよい。また、手書き入力は、ジェスチャーベースの入力、手の動きの追跡入力、又はユーザーによる他のタッチフリー入力など、他のタイプの入力を介して実行されてもよい。本発明の実施形態では、手書き入力及び手書き入力データに言及するが、他の形態の手書き入力が利用されてもよい。
ストロークデータに基づいてディスプレイに表示される表示物をオブジェクトという。オブジェクトとは対象という意味であるが、本実施形態では表示対象などの意味である。ストロークデータが手書き認識して変換されたオブジェクトには、テキストの他、「済」などの決まった文字やマークとして表示されるスタンプ、円や星などの図形、直線等も含まれてよい。テキストとは主に1つ以上の文字を含む文字列(文字コード)であり、数字、記号なども含む。テキストを文字列という場合がある。
デバイスとは、例えば会議などで音声を収録する機能を有する装置である。デバイスは音声データを直接又は間接に情報処理システムに送信する。デバイスはカメラにより周囲の画像を生成する機能を有していてもよい。本実施形態では、ミーティングデバイス60という用語で説明される。
ディスプレイの領域の使用頻度とは、領域にオブジェクトが入力又は表示される頻度である。使用頻度は現在に近い時間帯の使用頻度であることが好ましい。
<遠隔会議における議事録の作成方法の一例>
図2を参照して、パノラマ画像とアプリの画面を用いた議事録の作成方法の概略を説明する。図2は、遠隔会議中に実行されたアプリの画面を周囲のパノラマ画像と共に保存する記録情報の作成の概略を説明する図である。図2に示すように、図示する自拠点102にいるユーザーが遠隔会議サービスシステム90を利用して、他の拠点101と遠隔会議を行っている。
図2を参照して、パノラマ画像とアプリの画面を用いた議事録の作成方法の概略を説明する。図2は、遠隔会議中に実行されたアプリの画面を周囲のパノラマ画像と共に保存する記録情報の作成の概略を説明する図である。図2に示すように、図示する自拠点102にいるユーザーが遠隔会議サービスシステム90を利用して、他の拠点101と遠隔会議を行っている。
本実施形態の記録情報作成システム100は、マイクとスピーカを備えたミーティングデバイス60が撮像した水平パノラマ画像(以下、パノラマ画像という)と、端末装置10が実行するアプリケーション(以下、アプリという)が作成する画面と、を用いて、記録情報(議事録)を作成する。音声については、記録情報作成システム100は、遠隔会議アプリ42が受信する音声と、ミーティングデバイス60が取得する音声とを合成して、記録情報に含める。以下、概略を説明する。
(1) 端末装置10では、後述する情報記録アプリ41と遠隔会議アプリ42とが動作している。この他、資料表示用のアプリなども動作していてよい。情報記録アプリ41は、端末装置10が出力する音声(遠隔会議アプリ42が他拠点から受信した音声を含む。)をミーティングデバイス60(第二の機器、機器の一例)に送信する。ミーティングデバイス60は、自身が取得している音声と、遠隔会議アプリ42の音声とをミキシング(合成)する。
(2) ミーティングデバイス60はマイクを備え、音声を取得した方向に基づき、パノラマ画像から話者を切り出す処理を行い、話者画像を作成する。ミーティングデバイス60は、パノラマ画像と話者画像の両方を端末装置10に送信する。
(3) 端末装置10で動作する情報記録アプリ41は、パノラマ画像203と話者画像204を表示できる。情報記録アプリ41は、ユーザーが選択した任意のアプリ画面(例えば遠隔会議アプリ42の画面103)と、パノラマ画像203と話者画像204と、を結合する。例えば、左側にパノラマ画像203と話者画像204、右側に遠隔会議アプリ42の画面103が配置されるように、パノラマ画像203、話者画像204、アプリの画面103を結合する(以下、結合画像105という)。(3)の処理は繰り返し実行されるので、結合画像105は動画となる(以下、結合画像動画という)。また、情報記録アプリ41は、結合画像動画に合成された音声を結合して音声付きの動画を作成する。
なお、本実施形態では、パノラマ画像203、話者画像204、アプリの画面103を結合する例を説明するが、情報記録アプリ41がこれらを別々に保存し、再生時に画面に配置してもよい。
(4) 情報記録アプリ41は、編集作業(ユーザーによる不要箇所のカット)を受け付け、結合画像動画を完成させる。結合画像動画は記録情報の一部を構成する。
(5) 情報記録アプリ41は、作成した結合画像動画(音声付き)をストレージサービスシステム70に送信し保存しておく。
(6) また、情報記録アプリ41は、結合画像動画から音声のみを抽出しておき(結合前の音声を取っておいてもよい)、抽出した音声を、情報処理システム50に送信する。情報処理システム50は音声をテキストデータに変換する音声認識サービスシステム80に送信し、音声をテキスト化する。テキストデータには、録画開始から何分後に話したか、というデータも含まれる。
なお、リアルタイムのテキスト化の場合、ミーティングデバイス60が情報処理システム50に直接音声を送信する。情報処理システム50は音声認識により得られたテキストデータをリアルタイムに情報記録アプリ41に送信する。
(7) 情報処理システム50は、結合画像動画を格納したストレージサービスシステム70に、テキストデータを追加で格納する。テキストデータは記録情報の一部を構成する。
なお、情報処理システム50は、ユーザーに対し利用したサービスに応じた課金処理を実行できる。例えば、課金はテキストデータ量、結合画像動画のファイルサイズ、処理時間などに基づいて算出される。
このように、結合画像動画には、ユーザーを含む周囲のパノラマ画像や話者画像が表示され、更に、遠隔会議アプリ42など、遠隔会議中に表示されたアプリの画面が表示される。遠隔会議の参加者や参加者でない者が、結合画像動画を議事録として閲覧した場合、遠隔会議中の様子が臨場感と共に再現される。
<システム構成例>
続いて、図3を参照して、記録情報作成システム100のシステム構成を説明する。図3は、記録情報作成システム100の構成例を示す。図3では、遠隔会議を行う複数の拠点のうち1つの拠点(自拠点102)を示し、自拠点102における端末装置10がネットワークを介して情報処理システム50と、ストレージサービスシステム70と、遠隔会議サービスシステム90と、通信する。自拠点102には更に、ミーティングデバイス60と電子黒板2が配置され、端末装置10はこのミーティングデバイス60とUSBケーブル等を介して通信可能に接続されている。なお、ミーティングデバイス60、電子黒板2及び情報処理システム50が機器管理システムとして動作する。
続いて、図3を参照して、記録情報作成システム100のシステム構成を説明する。図3は、記録情報作成システム100の構成例を示す。図3では、遠隔会議を行う複数の拠点のうち1つの拠点(自拠点102)を示し、自拠点102における端末装置10がネットワークを介して情報処理システム50と、ストレージサービスシステム70と、遠隔会議サービスシステム90と、通信する。自拠点102には更に、ミーティングデバイス60と電子黒板2が配置され、端末装置10はこのミーティングデバイス60とUSBケーブル等を介して通信可能に接続されている。なお、ミーティングデバイス60、電子黒板2及び情報処理システム50が機器管理システムとして動作する。
端末装置10では、少なくとも情報記録アプリ41と遠隔会議アプリ42とが動作する。遠隔会議アプリ42は、他の拠点101の端末装置10とネットワーク上の遠隔会議サービスシステム90を介して通信することができ、各拠点のユーザー同士が遠隔地から会議できるようになっている。情報記録アプリ41は、遠隔会議アプリ42が実施する遠隔会議における記録情報を、情報処理システム50及びミーティングデバイス60の機能を使って作成する。
なお、本実施形態では、遠隔会議中の記録情報を作成する例を説明するが、会議は、遠隔の拠点と通信する会議でなくてもよい。つまり、会議は1拠点内の参加者のみが参加する会議でもよい。この場合、ミーティングデバイス60が撮像する画像と集音した音声がそれぞれ合成なしに保存される他、情報記録アプリ41の処理に変更はない。
端末装置10には通常の画角のカメラが内蔵されており(外付けでもよい)、端末装置10を操作するユーザー107を含む正面の画像を撮像している。通常の画角とは、パノラマ画像でない画像であるが、本実施形態では、主に全天球画像のように曲面でない平面画像である。したがって、ユーザーは、情報記録アプリ41を意識することなく、遠隔会議アプリ42を使用した従来の遠隔会議が可能である。情報記録アプリ41やミーティングデバイス60は、端末装置10の処理負荷増を除けば遠隔会議アプリ42に影響を与えない。なお、遠隔会議アプリ42はミーティングデバイス60が撮像するパノラマ画像や話者画像を遠隔会議サービスシステム90に送信することも可能である。
情報記録アプリ41はミーティングデバイス60と通信して記録情報を作成する。情報記録アプリ41はまた、ミーティングデバイス60が取得した音声と遠隔会議アプリ42が他の拠点から受信した音声との合成等を行う。この合成はミーティングデバイス60が行う場合がある。ミーティングデバイス60は、パノラマ画像の撮像装置、マイク、及び、スピーカを備えたミーティング用のデバイスである。端末装置10が有するカメラは正面の限られた範囲しか撮像できないが、ミーティングデバイス60はミーティングデバイス60を囲む全周囲(必ずしも全周囲でなくてもよい)を撮像できる。ミーティングデバイス60は図3に示す複数の参加者106を常に画角に収めることができる。
この他、ミーティングデバイス60は、パノラマ画像からの話者画像の切り出し等を行う。なお、ミーティングデバイス60は、机の上に限らず自拠点102のどこに配置されてもよい。ミーティングデバイス60は全天球画像を撮像できるので、例えば天井に配置されてもよい。
情報記録アプリ41は、端末装置10で実行中のアプリの一覧表示、上記した記録情報のための画像合成(結合画像動画の作成)、結合画像動画の再生、編集の受け付け等を行う。また、情報記録アプリ41は、実施された又はこれから実施される予定の遠隔会議のリスト表示、等を行う。遠隔会議のリストは、記録情報に関する情報に使用され、ユーザーが遠隔会議と記録情報とを結びつけることができる。
遠隔会議アプリ42は、他の拠点101との通信接続、他の拠点101との画像及び音声の送受信、画像の表示や音声の出力等を行う。
なお、情報記録アプリ41及び遠隔会議アプリ42はWebアプリでもネイティブアプリでもよい。Webアプリとは、Webサーバー上のプログラムとWebブラウザ上のプログラムが協働して処理を行うアプリであり、端末装置10へのインストールが不要なアプリである。ネイティブアプリとは、端末装置10にインストールして利用されるアプリである。本実施形態では、両者ともネイティブアプリであるとして説明する。
端末装置10は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末等、通信機能を備えた汎用的な情報処理装置でよい。端末装置10は、この他、電子黒板2、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC、カーナビ、産業機械、医療機器、ネットワーク家電等でもよい。端末装置10は情報記録アプリ41と遠隔会議アプリ42が動作する装置であればよい。
電子黒板2は、電子ペン490や指等の入力手段でタッチパネルに手書きされたデータをディスプレイに表示する。電子黒板2は、有線又は無線で端末装置10等と通信することができ、端末装置10が表示する画面を取り込んでディスプレイに表示することができる。電子黒板2は、手書きデータをテキストデータに変換したり、他の拠点の電子黒板2とディスプレイに表示される情報を共有したりすることができる。電子黒板2は、タッチパネルを有さない単なる白板にプロジェクタが映像を投影する形態のものでもよい。また、電子黒板2は、タッチパネルを備えたタブレット端末、ノートPC、PDA、ゲーム機等でもよい。
電子黒板2は、情報処理システム50と通信することができる。電子黒板2は、例えば、電源オンされた後、情報処理システム50にポーリングするなどして、情報処理システム50から情報を受信できる。
情報処理システム50は、ネットワーク上に配置された一台以上の情報処理装置である。情報処理システム50は、情報記録アプリ41と協働して処理を行う1つ以上のサーバーアプリと、基盤サービスを有している。このサーバーアプリは、遠隔会議のリストの管理、遠隔会議で記録された記録情報の管理、各種設定やストレージパスの管理等を行う。基盤サービスは、ユーザー認証や契約、課金処理等を行う。
なお、情報処理システム50の機能の全て又は一部は、クラウド環境に存在してもよいし、オンプレミス環境に存在してもよい。情報処理システム50は複数台のサーバー装置により構成されてもよいし、一台の情報処理装置により構成されてもよい。例えば、サーバーアプリと基盤サービスが別々の情報処理装置より提供されてよいし、更にサーバーアプリ内の機能ごとに情報処理装置が存在してもよい。情報処理システム50と次述するストレージサービスシステム70、音声認識サービスシステム80が一体でもよい。
ストレージサービスシステム70は、ネットワーク上の記憶手段であり、ファイル等の保存を受け付けるストレージサービスを提供する。ストレージサービスシステム70としてはOne Drive(登録商標)、Google Workspace(登録商標)、DropBox(登録商標)等が知られている。ストレージサービスシステム70は、オンプレミスのNAS(Network Attached Storage)等でもよい。
音声認識サービスシステム80は、音声データに音声認識を行いテキストデータに変換するサービスを提供する。音声認識サービスシステム80は、汎用的な商用サービスでもよいし、情報処理システム50の機能の一部でもよい。
<ハードウェア構成例>
図4を参照して、本実施形態に係る情報処理システム50及び端末装置10のハードウェア構成について説明する。
図4を参照して、本実施形態に係る情報処理システム50及び端末装置10のハードウェア構成について説明する。
<<情報処理システム及び端末装置>>
図4は、本実施形態に係る情報処理システム50及び端末装置10の一例のハードウェア構成を示す図である。図4に示されているように、情報処理システム50及び端末装置10はコンピュータによって構築されており、CPU501、ROM502、RAM503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、光学ドライブ514、メディアI/F516を備えている。
図4は、本実施形態に係る情報処理システム50及び端末装置10の一例のハードウェア構成を示す図である。図4に示されているように、情報処理システム50及び端末装置10はコンピュータによって構築されており、CPU501、ROM502、RAM503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、光学ドライブ514、メディアI/F516を備えている。
これらのうち、CPU501は、情報処理システム50及び端末装置10全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ130、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図4に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
また、キーボード511は、文字、数値、又は各種指示などの入力に使用される複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。光学ドライブ514は、着脱可能な記録媒体の一例としての光記憶媒体513に対する各種データの読み出し又は書き込みを制御する。なお、光記憶媒体513は、CD,DVD、Blu-ray(登録商標)等でよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。
<<ミーティングデバイス>>
図5を用いて、ミーティングデバイス60のハードウェア構成を説明する。図5は、360°の動画を撮像可能なミーティングデバイス60のハードウェア構成図の一例である。以下では、ミーティングデバイス60は撮像素子を使用した、デバイスの周囲360°の動画を所定の高さで撮像する装置とするが、撮像素子は1つでも2つ以上のいくつでもよい。また、必ずしも専用装置である必要はなくPCやデジタルカメラ、スマートフォン等に後付けの360°動画の撮像ユニットを取り付けることで、実質的に同じ機能を有するようにしてもよい。
図5を用いて、ミーティングデバイス60のハードウェア構成を説明する。図5は、360°の動画を撮像可能なミーティングデバイス60のハードウェア構成図の一例である。以下では、ミーティングデバイス60は撮像素子を使用した、デバイスの周囲360°の動画を所定の高さで撮像する装置とするが、撮像素子は1つでも2つ以上のいくつでもよい。また、必ずしも専用装置である必要はなくPCやデジタルカメラ、スマートフォン等に後付けの360°動画の撮像ユニットを取り付けることで、実質的に同じ機能を有するようにしてもよい。
図5に示されているように、ミーティングデバイス60は、撮像ユニット601、画像処理ユニット604、撮像制御ユニット605、マイク608、音処理ユニット609、CPU(Central Processing Unit)611、ROM(Read Only Memory)612、SRAM(Static Random Access Memory)613、DRAM(Dynamic Random Access Memory)614、操作部615、外部機器接続I/F616、通信部617、アンテナ617a、音声センサー618、及びMicro USB用の凹状の端子621によって構成されている。
このうち、撮像ユニット601は、半球画像を結像するための360°の画角を有する広角レンズ(いわゆる魚眼レンズ)602と、各広角レンズに対応させて設けられている撮像素子603(イメージセンサー)を備えている。撮像素子603は、魚眼レンズ602による光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサーやCCD(Charge Coupled Device)センサーなどの画像センサー、この画像センサーの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット601の撮像素子603(イメージセンサー)は、画像処理ユニット604とパラレルI/Fバスで接続されている。一方、撮像ユニット601の撮像素子603は、撮像制御ユニット605とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット604、撮像制御ユニット605及び音処理ユニット609は、バス610を介してCPU611と接続される。更に、バス610には、ROM612、SRAM613、DRAM614、操作部615、外部機器接続I/F616、通信部617、及び音声センサー618なども接続される。
画像処理ユニット604は、撮像素子603から出力される画像データをパラレルI/Fバスを通して取り込み、画像データに対して所定の処理を施して、魚眼映像からパノラマ画像や話者画像のデータを作成する。更に、画像処理ユニット604は、パノラマ画像と話者画像等を合成処理して、1つの動画を出力する。
撮像制御ユニット605は、一般に撮像制御ユニット605をマスタデバイス、撮像素子603をスレーブデバイスとして、I2Cバスを利用して、撮像素子603のレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU611から受け取る。また、撮像制御ユニット605は、同じくI2Cバスを利用して、撮像素子603のレジスタ群のステータスデータ等を取り込み、CPU611に送る。
また、撮像制御ユニット605は、操作部615の撮像開始ボタンが押下されたタイミングあるいはPCから撮像開始指示を受信したタイミングで、撮像素子603に画像データの出力を指示する。ミーティングデバイス60によっては、ディスプレイ(例えば、PCやスマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子603からの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット605は、後述するように、CPU611と協働して撮像素子603の画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、ミーティングデバイス60にはディスプレイが設けられていないが、表示部を設けてもよい。
マイク608は、音を音(信号)データに変換する。音処理ユニット609は、マイク608a、マイク608b、マイク608cから出力される音声データをI/Fバスを通して取り込み、これらの音声データをミキシングして所定の処理を施す。音処理ユニット609はまた、マイク608a、マイク608b、マイク608cから入力される音声レベル(音量)から音源(発話者)の方向を判断する。
CPU611は、ミーティングデバイス60の全体の動作を制御すると共に必要な処理を実行する。ROM612は、ミーティングデバイス60を動作させるための種々のプログラムを記憶している。SRAM613及びDRAM614はワークメモリであり、CPU611で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM614は、画像処理ユニット604での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部615は、撮像開始ボタン615aなどの操作ボタンの総称である。ユーザーは操作部615を操作することで、撮像や録画を開始する他、電源ON/OFFの実行、通信接続の実行、種々の撮像モードや撮像条件などの設定を入力する。
外部機器接続I/F616は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、PC等である。DRAM614に記憶された動画データや画像データは、この外部機器接続I/F616を介して外部端末に送信されたり、外付けのメディアに記録されたりする。
通信部617は、ミーティングデバイス60に設けられたアンテナ617aを介して、Wi-Fi(登録商標)等の無線通信技術によって、インターネット経由でクラウドサーバと通信し、記憶した動画データや画像データをクラウドサーバに送信してもよい。また、通信部617は、BLE(Bluetooth Low Energy。登録商標)やNFC等の近距離無線通信技術を用いて付近のデバイスと通信可能でもよい。
音声センサー618は、ミーティングデバイス60の周辺(水平面)の360°においてどの方向から音声が大きい音で入力されたかを特定するために、360°の音声情報を取得するセンサーである。音処理ユニット609は入力した360°の音声パラメータに基づき、最も強い方向を特定して360°における音声入力方向を出力する。
なお、他のセンサー(方位・加速度センサーやGPS等)が方位・位置・角度・加速度等を算出し、画像補正や位置情報付加に用いてもよい。
また画像処理ユニット604は、パノラマ画像の作成を次の方法で行う。CPU611は、球面映像を入力するイメージセンサーから入力されたRAWデータをBayer変換(RGB補完処理)等の所定のカメラ映像処理を行って魚眼映像(曲面の映像)を作成する。更に作成した魚眼映像(曲面の映像)に対してDeWarp処理(歪み補正処理)を行い、ミーティングデバイス60の周辺の360°が写ったパノラマ画像(平面の映像)を作成する。
CPU611は話者画像の作成を次の方法で行う。CPU611は周辺の360°が写ったパノラマ画像(平面の映像)から、話者を切り出した話者画像を作成する。CPU611は、音声センサー618及び音処理ユニット609を用いて出力した360°から特定した音声入力方向を、話者の方向として、上記パノラマ画像から話者画像を切り出す。このとき音声入力方向から人の画像を切り出す方法は、360°から特定した音声方向を中心に30°を切り取って、その中で顔検出を実施して切り出す。CPU611は、更に切り出した話者画像のうち、直近で発言のあった特定人数分(3名等)の話者画像を特定する。
パノラマ画像と、1以上の話者画像は個別に情報記録アプリ41に送信されてもよいし、ミーティングデバイス60がこれらから1枚の画像を作成して、情報記録アプリ41に送信してもよい。本実施形態では、パノラマ画像と1以上の話者画像は個別にミーティングデバイス60から情報記録アプリ41に送信されるものとする。
図6は、ミーティングデバイス60の撮像範囲を説明する図である。図6(a)に示すように、ミーティングデバイス60は水平方向に360°の範囲を撮像する。図6(b)に示すように、ミーティングデバイス60は、ミーティングデバイス60の高さに水平な方向を0°とし、上下に所定の角度を撮像範囲とする。
図7は、パノラマ画像と話者画像の切り出しを説明する図である。図7に示すように、ミーティングデバイス60が撮像する画像は球体の一部110をなすため、三次元の形状を有している。ミーティングデバイス60は、図6(b)で示したように、上下の所定角度と左右の所定角度ごとに画角を区切って透視投影変換を行う。透視投影変換を水平方向360°の全体で隙間なく行うことで、所定数の平面画像が得られるので、所定数の平面画像を左右に連結することでパノラマ画像111が得られる。また、ミーティングデバイス60はパノラマ画像から音声方向を中心に所定の範囲で顔検出を実施して、顔の中心から左右に15°(全体で30°)を切り出すことで、話者画像112を作成する。
<<電子黒板>>
図8は、電子黒板2のハードウェア構成図である。図8に示されているように、電子黒板2は、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403、SSD(Solid State Drive)404、ネットワークI/F405、及び、外部機器接続I/F(Interface)406を備えている。
図8は、電子黒板2のハードウェア構成図である。図8に示されているように、電子黒板2は、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403、SSD(Solid State Drive)404、ネットワークI/F405、及び、外部機器接続I/F(Interface)406を備えている。
これらのうち、CPU401は、電子黒板2全体の動作を制御する。ROM402は、IPL(Initial Program Loader)等のOSの起動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。SSD404は、電子黒板2用のプログラム等の各種データを記憶する。ネットワークI/F405は、通信ネットワークとの通信を制御する。外部機器接続I/F406は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ430、外付け機器(マイク440、スピーカ450、カメラ460)である。
また、電子黒板2は、キャプチャデバイス411、GPU412、ディスプレイコントローラ413、接触センサー414、センサコントローラ415、電子ペンコントローラ416、近距離通信回路419、及び近距離通信回路419のアンテナ419a、電源スイッチ422及び選択スイッチ類423を備えている。
これらのうち、キャプチャデバイス411は、外付けのPC470のディスプレイの表示情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)412は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ413は、GPU412からの出力画像をディスプレイ480等へ出力するために画面表示の制御及び管理を行う。接触センサー414は、ディスプレイ480上に電子ペン490やユーザーの手H等が接触したことを検知する。センサコントローラ415は、接触センサー414の処理を制御する。接触センサー414は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ480の上側両端部に設置された2つ受発光装置が、ディスプレイ480に平行して複数の赤外線を放射し、ディスプレイ480の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサー414である受発光装置は、物体によって赤外線が遮断された位置(受光素子上の位置)をセンサコントローラ415に出力し、センサコントローラ415が、これらの2つの位置情報から物体の接触位置である座標位置を特定する。電子ペンコントローラ416は、電子ペン490とBluetooth通信することで、ディスプレイ480へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路419は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ422は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類423は、例えば、ディスプレイ480の表示の明暗や色合い等を調整するためのスイッチ群である。
更に、電子黒板2は、バスライン410を備えている。バスライン410は、図8に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、接触センサー414は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネルでもよい。接触センサー414は、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネルでもよい。接触センサー414は、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルでもよい。この他、接触センサー414は種々の検出手段を用いてもよい。また、電子ペンコントローラ416が、電子ペン490のペン先及びペン尻だけでなく、電子ペン490のユーザーが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
<機能について>
次に、図9を参照して、記録情報作成システム100が有する機能構成について説明する。図9は、記録情報作成システム100における端末装置10、ミーティングデバイス60、及び、情報処理システム50の機能をブロックに分けて説明する機能ブロック図の一例である。
次に、図9を参照して、記録情報作成システム100が有する機能構成について説明する。図9は、記録情報作成システム100における端末装置10、ミーティングデバイス60、及び、情報処理システム50の機能をブロックに分けて説明する機能ブロック図の一例である。
<<端末装置>>
端末装置10で動作する情報記録アプリ41は、通信部11、操作受付部12、表示制御部13、アプリ画面取得部14、音声取得部15、デバイス通信部16、録画制御部17、音声データ処理部18、録画再生部19、アップロード部20、編集処理部21、及び、コード解析部22、を有している。端末装置10が有するこれら各部は、図4に示されている各構成要素のいずれかが、HD504からRAM503に展開された情報記録アプリ41に従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、端末装置10は、図4に示されているHD504等によって構築される記憶部1000を有している。記憶部1000には情報記憶部1001が構築されている。
端末装置10で動作する情報記録アプリ41は、通信部11、操作受付部12、表示制御部13、アプリ画面取得部14、音声取得部15、デバイス通信部16、録画制御部17、音声データ処理部18、録画再生部19、アップロード部20、編集処理部21、及び、コード解析部22、を有している。端末装置10が有するこれら各部は、図4に示されている各構成要素のいずれかが、HD504からRAM503に展開された情報記録アプリ41に従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、端末装置10は、図4に示されているHD504等によって構築される記憶部1000を有している。記憶部1000には情報記憶部1001が構築されている。
通信部11は、ネットワークを介して情報処理システム50と各種の情報を通信する。通信部11は、例えば、遠隔会議のリストを情報処理システム50から受信したり、音声データの認識要求を情報処理システム50に送信したりする。
表示制御部13は情報記録アプリ41に設定されている画面遷移にしたがって情報記録アプリ41においてユーザーインターフェースとなる各種の画面を表示する。操作受付部12は、情報記録アプリ41に対する各種の操作を受け付ける。
アプリ画面取得部14は、デスクトップ画面、又は、ユーザーが選択したアプリの画面をOS(Operating System)等から取得する。ユーザーが選択したアプリが遠隔会議アプリ42の場合、遠隔会議アプリ42が生成する画面(各拠点の画像、資料の画像等)が得られる。
音声取得部15は、遠隔会議アプリ42が遠隔会議において受信した音声データを遠隔会議アプリ42から取得する。なお、音声取得部15が取得する音声は、端末装置10が集音する音声は含まれず、遠隔会議において受信された音声データのみである点に注意されたい。ミーティングデバイス60が別に、音声を集音しているためである。
デバイス通信部16は、USBケーブルなどを利用してミーティングデバイス60と通信する。デバイス通信部16は、無線LANやBluetooth(登録商標)等でミーティングデバイス60と通信してよい。デバイス通信部16は、パノラマ画像と話者画像をミーティングデバイス60から受信し、音声取得部15が取得した音声データをミーティングデバイス60に送信する。デバイス通信部16は、ミーティングデバイス60で合成された音声データを受信する。
録画制御部17は、デバイス通信部16が受信したパノラマ画像と話者画像、及び、アプリ画面取得部14が取得したアプリの画面を結合し、結合画像を作成する。また、録画制御部17は繰り返し作成する結合画像を時系列に接続して結合画像動画を作成し、ミーティングデバイス60で合成された音声データを結合画像動画に結合して音声付きの結合画像動画を作成する。
音声データ処理部18は、録画制御部17が抽出する結合画像動画に結合された音声データ、又は、ミーティングデバイス60から受信した合成後の音声データの、テキストデータへの変換を情報処理システム50に要求する。
録画再生部19は、結合画像動画の再生を行う。結合画像動画は、録画中は端末装置10に保存され、その後、情報処理システム50にアップロードされる。
アップロード部20は、遠隔会議が終了すると、結合画像動画を情報処理システム50に送信する。
編集処理部21は、ユーザーの操作に応じて、結合画像動画の編集(一部の削除、つなぎ合わせ等)を実行する。
コード解析部22は、パノラマ画像に含まれる二次元コードを検出すると共に、二次元コードを解析して機器識別情報を取得する。
図10は、情報記憶部1001が記憶している動画記録情報を示す。動画記録情報は、会議ID、録画ID、更新日時、タイトル、アップロード、保存先等の各項目を有している。ユーザーが情報処理システム50にログインすると、情報記録アプリ41は情報処理システム50の会議情報記憶部5001から会議情報をダウンロードする。会議情報に含まれる会議IDなどが動画記録情報に反映される。図10の動画記録情報は、あるユーザーが操作する端末装置10が保持するものである。
・会議IDは、開催された遠隔会議を識別する識別情報である。会議IDは、会議管理システム9に遠隔会議の予定が登録された際に採番されるか、又は、情報記録アプリ41からの要求で情報処理システム50が採番する。
・録画IDは、遠隔会議において録画された結合画像動画を識別する識別情報である。録画IDはミーティングデバイス60が採番するが、情報記録アプリ41や情報処理システム50が採番してもよい。同じ会議IDに異なる録画IDが付与されるのは、遠隔会議の途中で録画が終了したが、何らかの理由で再開した場合を示す。
・更新日時は、結合画像動画が更新された(録画が終了した)日時である。結合画像動画が編集された場合、編集された日時である。
・タイトルは、会議の会議名である。会議管理システム9への会議の登録時に設定されてもよいし、ユーザーが任意に設定してもよい。
・アップロードは、結合画像動画が情報処理システム50にアップロードされたか否かを示す。
・保存先は、ストレージサービスシステム70において、結合画像動画、テキストデータ、及び、オブジェクト情報が保存されている場所(URLやファイルパス)を示す。したがって、ユーザーはアップロードされた結合画像動画を任意に閲覧できる。なお、結合画像動画とテキストデータは、例えばURLに続いて別々のファイル名で保存される。
<<ミーティングデバイス>>
図9に戻って説明する。ミーティングデバイス60は、端末通信部61、パノラマ画像作成部62、話者画像作成部63、集音部64、及び、音声合成部65を有している。ミーティングデバイス60が有するこれら各部は、図5に示されている各構成要素のいずれかが、ROM612からDRAM614に展開されたプログラムに従ったCPU611からの命令によって動作することで実現される機能、又は機能する手段である。
図9に戻って説明する。ミーティングデバイス60は、端末通信部61、パノラマ画像作成部62、話者画像作成部63、集音部64、及び、音声合成部65を有している。ミーティングデバイス60が有するこれら各部は、図5に示されている各構成要素のいずれかが、ROM612からDRAM614に展開されたプログラムに従ったCPU611からの命令によって動作することで実現される機能、又は機能する手段である。
端末通信部61は、USBケーブルなどを利用して端末装置10と通信する。端末通信部61は、有線ケーブルで接続されるだけでなく、無線LANやBluetooth(登録商標)等で端末装置10と通信可能であればよい。
パノラマ画像作成部62はパノラマ画像を作成する。話者画像作成部63は話者画像を作成する。これらの作成方法は図6、図7にて説明した。
集音部64は、ミーティングデバイス60が有するマイクが取得する音声を音声データ(デジタル)に変換する。これにより、端末装置10側の拠点でユーザーや参加者が発言した内容が集音される。
音声合成部65は、端末装置10から送信された音声と集音部64が集音した音声を合成する。これにより、他の拠点101で発言された音声と、自拠点102の発言がまとめられる。
<<情報処理システム>>
情報処理システム50は、通信部51、認証部52、画面生成部53、コミュニケーション管理部54、機器管理部55、テキスト変換部56、を有する。情報処理システム50が有するこれら各部は、図4に示されている各構成要素のいずれかが、HD504からRAM503に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、情報処理システム50は、図4に示されているHD504等によって構築される記憶部5000を有している。記憶部5000には、会議情報記憶部5001、録画情報記憶部5002、対応付け情報記憶部5003、オブジェクト情報記憶部5004が構築される。これらのうち、オブジェクト情報記憶部5004については電子黒板2において説明する。
情報処理システム50は、通信部51、認証部52、画面生成部53、コミュニケーション管理部54、機器管理部55、テキスト変換部56、を有する。情報処理システム50が有するこれら各部は、図4に示されている各構成要素のいずれかが、HD504からRAM503に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、情報処理システム50は、図4に示されているHD504等によって構築される記憶部5000を有している。記憶部5000には、会議情報記憶部5001、録画情報記憶部5002、対応付け情報記憶部5003、オブジェクト情報記憶部5004が構築される。これらのうち、オブジェクト情報記憶部5004については電子黒板2において説明する。
通信部51は、端末装置10と各種の情報を送受信する。通信部51は、例えば、遠隔会議のリストを端末装置10に送信したり、音声データの認識要求を端末装置10から受信したりする。
認証部52は、端末装置10を操作するユーザーを認証する。認証部52は、例えば、通信部51によって受信された認証要求に含まれている認証情報(ユーザーID及びパスワード)が予め保持する認証情報と一致するか否かにより、ユーザーを認証する。なお、認証情報は、ICカードのカード番号、顔や指紋などの生体認証情報等でもよい。また、認証部52は、外部の認証システムやOAUTHなどの認証方法で認証してもよい。
画面生成部53は、情報記録アプリ41が表示する情報を提供する。画面の構成は情報記録アプリ41が有しているので、画面生成部53は、情報記録アプリ41のコンテンツをXML等で端末装置10に提供する。端末装置10がWebアプリを実行する場合、画面生成部53は、Webアプリが表示する画面情報の生成を行う。画面情報は、HTML、XML、CSS(Cascade Style Sheet)、及びJavaScript(登録商標)等により作成される。
コミュニケーション管理部54は、各ユーザーのアカウント又は情報処理システム50に付与されたシステム用のアカウントで、遠隔会議に関する情報を会議管理システム9から取得する。コミュニケーション管理部54は、予約された会議の会議情報を会議IDと対応付けて会議情報記憶部5001に記憶させる。また、コミュニケーション管理部54は、テナントに所属するユーザーに閲覧権限がある会議情報を取得する。会議には会議IDが設定されているので、会議IDにより遠隔会議と記録情報が対応付けられる。
機器管理部55は、会議で使用される電子黒板2とミーティングデバイス60の機器識別情報を受信した場合、それらを対応付けて対応付け情報記憶部5003に保存する。したがって、会議IDと電子黒板2の機器識別情報とミーティングデバイス60の機器識別情報が対応付けられる。会議IDには結合画像動画も対応付けられるので、電子黒板2で入力された手書きデータと結合画像動画も対応付けられる。また、機器管理部55は、録画が終了されると(会議が終了すると)、対応付け情報記憶部5003から対応付けを削除する。
テキスト変換部56は、端末装置10からテキストデータへの変換を要求された音声データを外部の音声認識サービスシステム80を利用してテキストデータに変換する。テキスト変換部56自身が変換してもよい。
図11は、コミュニケーション管理部54が管理する、会議情報記憶部5001に記憶された会議情報の一例である。コミュニケーション管理部54は上記のアカウントを使ってテナントに所属する当該ユーザーが閲覧権限のある遠隔会議のリストを取得できる。本実施形態では、遠隔会議を例にしているが、遠隔会議のリストには1つの会議室だけで開催される会議も含まれている。
会議情報は会議IDで管理され、参加者、タイトル(会議名)、開始日時、終了日時、場所などと対応付けられている。これらは会議情報の一例であり、会議情報は、他にも情報を含みうる。
・参加者の項目は、会議の参加者である。
・タイトルの項目は、会議名や会議の議題など、会議の内容を表す。
・開始日時の項目は、会議が開始される予定の日時である。
・終了日時の項目は、会議が終了する予定の日時である。
・場所の項目は、会議の開催場所であり、例えば会議室や、支社名、建屋などである。
・電子黒板情報の項目は、会議で使用された電子黒板2の識別情報である。
・ミーティングデバイスの項目は、会議で使用されたミーティングデバイス60の識別情報である。
・閲覧権限の項目は、会議の開催者が予め会議情報を登録する際又は開催後に閲覧権限をもつユーザーとして登録したユーザーIDである。例えば、会議ごとに、参加者のみ、参加者+任意のユーザー名、又は、任意のユーザー名などが会議情報に登録される。登録されたユーザー以外が検索した場合、検索部58は検索に適合しても当該会議の記録情報及びオブジェクト情報に関する検索結果を提供しない。
図10,図11に示すように、会議IDにより会議で録画された結合画像動画が特定される。
録画情報記憶部5002に記憶されている録画情報は図10と同様でよい。ただし、情報処理システム50では、テナントに所属する全てのユーザーが録画した結合画像動画のリストを有する。
図12は、対応付け情報記憶部5003に記憶された、会議IDに対し、電子黒板2の機器識別情報とミーティングデバイス60の機器識別情報が対応付けられた対応付け情報を示す。情報記録アプリ41が機器識別情報を情報処理システム50に送信してから、録画を終了するまでこの対応付け情報が保持される。
<<ストレージサービスシステム>>
ストレージサービスシステム70は記録情報及びオブジェクト情報を記憶するサービスシステムであればよい。記録情報記憶部7001には、記録情報(結合画像動画、テキストデータ)及びオブジェクト情報が保存されている。
ストレージサービスシステム70は記録情報及びオブジェクト情報を記憶するサービスシステムであればよい。記録情報記憶部7001には、記録情報(結合画像動画、テキストデータ)及びオブジェクト情報が保存されている。
図13は、記録情報記憶部7001に記憶されている記録情報とオブジェクト情報を示す。図13に示すように、記録情報である結合画像動画とテキストデータ、及び、オブジェクト情報が会議IDに対応付けて保存されている。結合画像動画には合成された音声が含まれており、テキストデータは合成後の音声データが音声認識により変換されたものである。オブジェクト情報は後述する電子黒板2に入力された手書きデータなどのオブジェクトに関する情報である。記録情報とオブジェクト情報は会議IDと対応付けられているので、会議情報とも対応付けられている。
図14は、記録情報の一部であるテキストデータの構造を説明する図である。図14に示すように、テキストデータは、ID、time、認識結果文字列、音声データ、拠点識別情報、話者IDの項目が対応付けられている。
・IDは自拠点音声と他拠点音声が所定の規則で分割された場合に採番される識別情報である。所定の規則は、ミーティングデバイス60(及び音声認識サービスシステム80の少なくとも一方)に設定されており、例えば、一定時間の無音状態が継続すると区切る、無音状態がなくても一定時間又は文字数で強制的に区切る、形態素解析により検出した一文ずつ区切る、などである。
・timeは、録画開始からの継続時間による発言時刻である。記録開始時にいわゆる時刻も保存されるので、textが発言された時刻(標準時における時刻)も分かる。
・認識結果文字列は分割された合成音声が音声認識で変換されたテキストデータの一部である。合成音声は、認識結果文字列の変換元となった音声データである。
・音声データは、拠点の判断後に自拠点音声と他拠点音声が合成された合成音声(分割済み)である。
・拠点識別情報は、自拠点音声の音圧と他拠点音声の音圧に基づいて判断された、音声データが発言された拠点の識別情報である。拠点識別情報は、例えば1が自拠点、2が他拠点を表す。
・話者IDは、認識結果文字列を発言した話者を示すユーザーIDである。ユーザーIDによりどの参加者が発言したかも特定できる。会議中に話者を識別する方法はいくつか知られている。識別する方法は、例えば、予め各社員が声紋を登録しておく方法、ミーティングデバイス60が話者の方向を検出しているので、その方向の参加者を顔認識する方法など、どのような方法でもよい。話者ごとにマイクが用意される会場ではどのマイクが集音したかで話者が特定される。
このように、テキストデータ(ここでは認識結果文字列)が話者IDと対応付けられているので、参加者名でテキストデータが検索された場合、検索部58が話者IDを検索して、当該参加者が発言したテキストデータが特定される。
<<電子黒板>>
図15は、電子黒板2の機能をブロックに分けて説明する機能ブロック図である。電子黒板2は、接触位置検出部31、描画データ生成部32、データ記録部33、表示制御部34、コード生成部35、通信部36、認証部37、操作受付部38、表示領域決定部39、及び、テキスト表示部40を有する。電子黒板2が有する各機能は、図8に示されている各構成要素のいずれかが、SSD404からRAM403上に展開されたプログラムに従ったCPU401からの命令によって動作することで実現される機能又は手段である。
図15は、電子黒板2の機能をブロックに分けて説明する機能ブロック図である。電子黒板2は、接触位置検出部31、描画データ生成部32、データ記録部33、表示制御部34、コード生成部35、通信部36、認証部37、操作受付部38、表示領域決定部39、及び、テキスト表示部40を有する。電子黒板2が有する各機能は、図8に示されている各構成要素のいずれかが、SSD404からRAM403上に展開されたプログラムに従ったCPU401からの命令によって動作することで実現される機能又は手段である。
接触位置検出部31は接触センサー414に対し電子ペン490が接触した位置の座標を検出する。描画データ生成部32は電子ペン490のペン先が接触した座標を接触位置検出部31から取得する。描画データ生成部32はこの座標点列を補間することで接続してストロークデータを生成する。
表示制御部34は手書きデータやユーザーが操作するためのメニューなどをディスプレイに表示する。
データ記録部33は、電子黒板2に手書きされた手書きデータ、円や三角などの図形、済などのスタンプ、PCの画面、ファイル等をオブジェクト情報記憶部3002に保存する。手書きデータ、図形、及び、PCの画面などの画像、ファイル等はオブジェクトとして扱われる。
通信部36はWI-FiやLANに接続し、情報処理システム50と通信する。通信部36は、オブジェクト情報を情報処理システム50に送信したり、情報処理システム50に記憶されたオブジェクト情報を情報処理システム50から受信してディスプレイ480に表示させたりする。
コード生成部35は、機器情報記憶部3001に記憶された電子黒板2の機器識別情報と会議で使用可能な機器であることを示す情報を2次元のパターンに符号化して二次元コードを生成する。また、コード生成部35は電子黒板2の機器識別情報と会議で使用可能な機器であることを示す情報をバーコードに符号化できる。機器識別情報はシリアル番号やUUID(Universally Unique Identifier)などでよい。ユーザーが設定したものでもよい。
認証部37は、電子黒板2のユーザーを認証する。認証方法は認証部52と同様でよい。また、認証部37は認証部52に認証を依頼してもよい。
操作受付部38は、電子黒板2に対し、表示されるメニューやボタンなどに対するユーザーの操作を受け付ける。
表示領域決定部39は、ディスプレイ480において、音声から変換されたテキストデータを表示する表示領域150の位置とサイズを決定する。表示領域決定部39は、オブジェクトが入力された矩形領域の更新数を、時間的に後に入力されるほど大きくする。
テキスト表示部40は、表示領域決定部39が決定した表示領域150に、音声から変換されたテキストデータを表示する。テキスト表示部40は、表示領域150の上から下、又は、下から上に、テキストデータをスクロールしたり、所定時間の経過で消去したりする。
また、電子黒板2は、図8に示されているSSD404等によって構築される記憶部3000を有している。記憶部3000には機器情報記憶部3001とオブジェクト情報記憶部3002が構築されている。
図16は、機器情報記憶部3001に記憶されている機器識別情報等を示す。
・機器識別情報は、電子黒板2の識別情報である。
・IPアドレスは、他の装置がネットワークを介して電子黒板2と接続するためのIPアドレスである。
・パスワードは電子黒板2に他の装置が接続する際の認証に使用される。
・機器識別情報は、電子黒板2の識別情報である。
・IPアドレスは、他の装置がネットワークを介して電子黒板2と接続するためのIPアドレスである。
・パスワードは電子黒板2に他の装置が接続する際の認証に使用される。
図17は、オブジェクト情報記憶部3002に保存されているオブジェクト情報を説明する図である。オブジェクト情報は、電子黒板2が表示するオブジェクトを管理する情報である。オブジェクト情報は情報処理システム50に送信され議事録として使用される。遠隔会議の開催時に他の拠点に電子黒板2が配置されている場合、オブジェクト情報が共有される。
・会議IDの項目は、情報処理システム50から通知された会議の識別情報が設定される。
・オブジェクトIDの項目は、オブジェクトを識別する識別情報が設定される。
・種別の項目は、オブジェクトの種類が設定され、手書きデータ、図形、画像、等がある。手書きはストロークデータ(座標点列)である。図形は、三角や四角などの幾何学的な形状である。画像は、PCやインターネットなどから取り込まれたJpeg、Png、TI/FFなどの画像データである。いずれのオブジェクトも、データ本体がオブジェクトIDに対応付けられて保存されている。手書きデータが文字認識によりテキストに変換されてもよい。
・電子黒板2の1画面をページと称する。ページの項目はそのページ番号である。
・座標の項目は、電子黒板2の所定の原点を基準とするオブジェクトの位置が設定される。オブジェクトの位置は例えばオブジェクトの外接矩形の左上頂点である。座標は例えば、ディスプレイの画素単位で表される。
・サイズの項目は、オブジェクトの外接矩形の幅と高さが設定される。
・筆記者IDの項目は、オブジェクトを入力したユーザーのユーザーIDである。ユーザーは電子黒板2の使用を開始する前に電子黒板2にログインする。ログインによりユーザーIDが特定される。例えば、同時には一人のユーザーのみが電子黒板2に入力する場合、最後にログインしたユーザーのユーザーIDがオブジェクトに対応付けられる。同時に複数のユーザーが電子黒板2に入力する場合、電子ペンとユーザーIDが対応付けられるとよい。例えばユーザーがログインした順番に、電子ペンのIDとユーザーIDとが対応付けられ、ユーザーが入力に使用した電子ペンにより、オブジェクトを入力したユーザーIDが特定される。筆記者IDの項目に複数のユーザーIDが登録されているのは、1つの手書きデータが複数のストロークを有し、それぞれを異なるユーザーが手書きしたためである。なお、本実施形態では、筆記者IDは、情報処理システム50側で付与されてもよいし、電子黒板2が付与してもよい。
・タイムスタンプの項目は、オブジェクトの入力が開始された時刻が設定される。タイムスタンプはオブジェクトの入力が終了した時刻でもよい。手書きデータのタイムスタンプは、ストロークとストロークの間の時間により区切られた際の、最初のストローク又は最後のストロークが入力された時刻である。タイムスタンプは、絶対時刻でも会議が始まってから(電子黒板の電源ONから)の経過時間でもよい。
<動作又は処理>
図18は、記録情報作成システム100がミーティングデバイス60と電子黒板2を対応付ける処理を説明するシーケンス図である。会議に参加するユーザーがミーティングデバイス60と電子黒板2を同じ会議で使用して会議に参加しようとしている。
図18は、記録情報作成システム100がミーティングデバイス60と電子黒板2を対応付ける処理を説明するシーケンス図である。会議に参加するユーザーがミーティングデバイス60と電子黒板2を同じ会議で使用して会議に参加しようとしている。
S1:会議で使用する会議室に配置された電子黒板2は、電源オンにより予め設定されている情報処理システム50と通信し、自機の機器識別情報を指定して会議への対応付けが可能である旨を登録する。情報処理システム50は、電子黒板2のIPアドレスも把握する。
S2:また、会議で使用する会議室に配置された電子黒板2のコード生成部35は、自機の機器識別情報、及び、機器識別情報である旨が符号化された二次元コードを生成し、表示制御部34が表示する。二次元コードには更に電子黒板2が他機を認証するためのパスワードが含まれてもよい。
S3:ユーザーが端末装置10とミーティングデバイス60を持って電子黒板2が設置されている会議室に入室し、端末装置10とミーティングデバイス60をUSBケーブルで接続する。ミーティングデバイス60はUSBケーブルの電力供給により、又は、電源オンにより起動する。これにより、ミーティングデバイス60はスタンバイ状態になる。また、ユーザーは端末装置10の情報記録アプリ41を起動する。情報記録アプリ41がミーティングデバイス60と通信を開始することで、ミーティングデバイス60が撮像と集音を開始する。ミーティングデバイス60のパノラマ画像作成部62が二次元コードを含む周囲を撮像したパノラマ画像(画像データ)を作成する。
S4:ミーティングデバイス60の端末通信部61は、パノラマ画像を端末装置10に送信する。
S5:端末装置10のデバイス通信部16はパノラマ画像を受信し、コード解析部22がパノラマ画像の中から電子黒板2が表示している二次元コードを検出する。コード解析部22は、二次元コードを復号し、会議で使用可能な機器である旨が埋め込まれていると判断すると、二次元コードから電子黒板2の機器識別情報を取得する。なお、二次元コードの解析はミーティングデバイス60が行ってもよい。
S6:情報記録アプリ41の通信部11は、電子黒板2の機器識別情報を指定して会議への登録要求を情報処理システム50へ送信する。通信部11は、更に、ミーティングデバイス60の機器識別情報を情報処理システム50に送信する。情報処理システム50は、端末装置10のIPアドレスを把握する。
S7:情報処理システム50の通信部51は、会議への登録要求(機器識別情報)を受信すると、コミュニケーション管理部54が会議IDを発行する。情報記録アプリ41が会議一覧画面等から会議の選択を受け付けている場合、通信部51は会議IDを機器識別情報に添付するので、コミュニケーション管理部54は会議IDを発行しない。
S8:そして機器管理部55は、電子黒板2とミーティングデバイス60の機器識別情報、及び、会議IDとを対応付けて、対応付け情報記憶部5003に保存する。
S9,S10:情報処理システム50の通信部51は、端末装置10と電子黒板2に、会議IDを通知する。端末装置10の通信部11は会議IDを受信して保存しておく。同様に、電子黒板2の通信部36は会議IDを受信すると、これを保存しておく。なお、端末装置10は会議への登録要求の応答として会議ID又は機器識別情報の少なくとも一方を受信する。電子黒板2と情報処理システム50は、情報処理システム50から電子黒板2へのプッシュ型の通信を可能にするWebSocket等の双方向通信方式で通信してもよい。
電子黒板2と端末装置10が同じ会議IDを有するので、電子黒板2とミーティングデバイス60が会議に対応付けられる。以降、端末装置10は送信するデータに会議ID又はミーティングデバイス60の機器識別情報の少なくとも一方を、電子黒板2は送信するデータに会議ID又は機器識別情報の少なくとも一方を添付する。本実施形態では会議IDが通信に添付されるが、機器識別情報又はミーティングデバイス60の機器識別情報が通信に添付されても、情報処理システム50が対応付け情報により会議IDを特定できる。
<電子黒板におけるテキストの表示領域の位置の決定>
図19~図21を参照しながら、電子黒板2におけるテキストデータの表示領域150の決定方法を説明する。図19は、矩形領域、及び更新数を説明する図である。図19(a)は、電子黒板2のディスプレイ480を格子状に区切った各矩形領域4を示す。矩形領域4をいくつか連結した領域がテキストの表示領域150となる。表示領域150のサイズを3つくらいのテキストデータを収容できるサイズとして想定すると、1つの矩形領域4のサイズは、テキストデータが二~五文字くらい入るサイズが想定されるが、矩形領域4のサイズはディスプレイ480の画素数などに応じて設計されるものとする。また、ユーザーが矩形領域4のサイズを設定できてもよい。表示領域150よりも小さい矩形領域4が表示領域150の決定に使用されるのは、表示領域150のサイズを可変とするためである。
図19~図21を参照しながら、電子黒板2におけるテキストデータの表示領域150の決定方法を説明する。図19は、矩形領域、及び更新数を説明する図である。図19(a)は、電子黒板2のディスプレイ480を格子状に区切った各矩形領域4を示す。矩形領域4をいくつか連結した領域がテキストの表示領域150となる。表示領域150のサイズを3つくらいのテキストデータを収容できるサイズとして想定すると、1つの矩形領域4のサイズは、テキストデータが二~五文字くらい入るサイズが想定されるが、矩形領域4のサイズはディスプレイ480の画素数などに応じて設計されるものとする。また、ユーザーが矩形領域4のサイズを設定できてもよい。表示領域150よりも小さい矩形領域4が表示領域150の決定に使用されるのは、表示領域150のサイズを可変とするためである。
表示領域決定部39は、電子ペン490や指のディスプレイ480に対するペンダウンからペンアップまでの座標を検知し、座標が通過した矩形領域4に、更新数を設定する。更新数は、全ての矩形領域4の中で最も大きい更新数に対し1ポイント加算した値となる。
図19(b)は、更新数の設定を説明する図である。ユーザーがストローク120を手書きした。図19(b)に示すように12個の矩形領域4をストローク120が通過している。図19(b)では、座標(2,4)の矩形領域4から座標(5,4)の矩形領域4までストローク120が通過した。表示領域決定部39は、矩形領域4ごとに更新数を管理する。ストローク120が検出されると、全ての矩形領域4が有する更新数のうち最も大きい更新数に1ポイントを加算して、ストロークが検出された矩形領域4に設定する。
図19(c)は、ストローク120により各矩形領域4に設定された更新数を示す。座標(2,4)の前に更新数が設定された矩形領域4がないので、座標(2,4)の更新数が「1」となる。ストローク120が追加した順に更新数が1ポイントずつ大きくなり、座標(5,4)の更新数が「12」となる。このように更新数を管理することで、矩形領域4がいつ使用されたのかを管理する(矩形領域4にストロークが手書きされた時刻を管理する)必要がない。
仮に、次にストロークが検出された場合、ストロークが通過した矩形領域4の更新数は「13」である。このように更新数が管理されると、更新数が小さい矩形領域4は現在ではあまり利用されていない、すなわち、使用頻度が低頻度であると判断できる。
なお、ユーザーが消しゴム機能でストロークを消去した場合、該ストロークがあった矩形領域4の更新数はゼロになる。ストロークがないため未使用領域となるからである。
図20は、ウィンドウ130ごとの更新数の合計方法を説明する図である。表示領域決定部39は、ウィンドウ130ごとに更新数を合計し、合計更新数が最も小さいウィンドウ130を表示領域150に決定する。図20に示すように、表示領域決定部39は、
「第一の領域数N(高さ方向の矩形領域4の領域数)×第二の領域数M(幅方向の矩形領域4の領域数)個」
の矩形領域4を1つのウィンドウ130とみなす。ウィンドウ130は、テキストデータを最低でも3つ程度、配置できるように決定されている。図20ではN=2、M=3であるが、一例に過ぎない。また、表示領域決定部39はウィンドウ130を徐々に大きくし、3つのテキストデータ分よりも大きい表示領域150を設定できるように処理する。電子黒板2は、表示領域150内に表示されるテキストデータの数を多くすることができ、一覧性が向上する。
「第一の領域数N(高さ方向の矩形領域4の領域数)×第二の領域数M(幅方向の矩形領域4の領域数)個」
の矩形領域4を1つのウィンドウ130とみなす。ウィンドウ130は、テキストデータを最低でも3つ程度、配置できるように決定されている。図20ではN=2、M=3であるが、一例に過ぎない。また、表示領域決定部39はウィンドウ130を徐々に大きくし、3つのテキストデータ分よりも大きい表示領域150を設定できるように処理する。電子黒板2は、表示領域150内に表示されるテキストデータの数を多くすることができ、一覧性が向上する。
表示領域決定部39は、ウィンドウ130内の各矩形領域4の更新数の合計を、矩形領域4を1つずつずらしながら算出する。図20(a)に示すように、表示領域決定部39は、ディスプレイ480の左上のコーナーから始めて、右方向に1矩形領域分、ウィンドウ130をスライドし、ウィンドウ130内の矩形領域4の更新数の合計(合計更新数)を算出する。図20(b)に示すように、ウィンドウ130がディスプレイ480の右端まで到達すると、表示領域決定部39は1矩形領域分、ウィンドウ130を下げて、ディスプレイ480の左端からスライドを再開する(図20(c))。これを、ウィンドウ130がディスプレイ480の右下コーナーに到達するまで繰り返す。
ただし、実際には、表示領域決定部39は、ストロークが検出された矩形領域4を含むウィンドウ130のみで合計更新数を算出すればよい。
図21は、矩形領域4に設定された更新数とウィンドウ130内の合計更新数の一例を示す。例えば、ウィンドウ130aの合計更新数は7、ウィンドウ130bの合計更新数は14、ウィンドウ130cの合計更新数は0、である。表示領域決定部39は、使用頻度が最も小さいウィンドウ130を表示領域150に決定する。図21の場合は、ウィンドウ130cが表示領域に決定されるが、合計更新数が0のウィンドウ130が複数ある場合、表示領域決定部39は、NとMを交互に1つ大きくして、合計更新数の算出を行う。こうすることで、表示領域決定部39は、表示領域150のサイズを大きくできる。
なお、ユーザーが表示領域150を指定することもできる。例えば、ユーザーが表示領域150を指定するためのメニューを選択し、電子ペン490や指で領域を指定する。ユーザーが表示領域150を指定した場合、この表示領域150が優先して使用される。ユーザーは自分が設定した表示領域150を移動することも、表示領域決定部39が決定した表示領域150を移動することもできる。
<文字サイズの決定>
テキスト表示部40は、テキストデータが表示領域150に入りきるようにテキストデータの文字サイズを決定することが好ましい。図22は、文字サイズの決定表の一例である。図22では、表示領域150のサイズ(縦横の画素数)が閾値以上(200ピクセル以上)か、閾値未満(200ピクセル未満)かによって、異なる文字サイズが設定されている。表示領域150のサイズは1つの矩形領域4のサイズと上記のNとMによって決まる。
テキスト表示部40は、テキストデータが表示領域150に入りきるようにテキストデータの文字サイズを決定することが好ましい。図22は、文字サイズの決定表の一例である。図22では、表示領域150のサイズ(縦横の画素数)が閾値以上(200ピクセル以上)か、閾値未満(200ピクセル未満)かによって、異なる文字サイズが設定されている。表示領域150のサイズは1つの矩形領域4のサイズと上記のNとMによって決まる。
なお、テキスト表示部40は、単に表示領域150のサイズに応じて文字サイズを決定するのでなく、表示領域150のサイズとテキストデータの文字数とにより文字サイズを決定してもよい。この場合、表示領域150のサイズとテキストデータの文字数に文字サイズが対応付けられている。
<余白を利用したテキストデータの表示>
図23を参照し、ディスプレイ480に余白がある場合のテキストデータの表示について説明する。図23は、電子黒板2が有する余白160を説明する図である。電子黒板2はオブジェクトを配置できるオブジェクト領域162が有限であるが、オブジェクト領域162の外部に別の余白160が存在する場合がある。余白とはディスプレイ480において何も記載できない部分であり無地のまま残っている部分である。
図23を参照し、ディスプレイ480に余白がある場合のテキストデータの表示について説明する。図23は、電子黒板2が有する余白160を説明する図である。電子黒板2はオブジェクトを配置できるオブジェクト領域162が有限であるが、オブジェクト領域162の外部に別の余白160が存在する場合がある。余白とはディスプレイ480において何も記載できない部分であり無地のまま残っている部分である。
例えば、図23では、9:16のオブジェクト領域162に対し、ディスプレイ480の縦横比が4:3であるような場合、余白160が生じる。このような余白160があり、テキストデータが3つ程度入る最小限の表示領域150のサイズを満たす場合、表示領域決定部39は余白160にテキストデータ161を表示すると判断する。
一般に、電子黒板2ではディスプレイ480を最大限、オブジェクト領域162に使用するため、余白160が存在しない場合が多い。しかし、PCなどが電子黒板2と同様の機能をアプリケーションで実現する場合、ユーザーがオブジェクト領域162を設定できるので、余白160が生じる場合がある。
<動作手順>
会議の開始からテキストデータの表示までの流れをシーケンス図やフローチャート図を使用して説明する。
会議の開始からテキストデータの表示までの流れをシーケンス図やフローチャート図を使用して説明する。
まず、図24を参照して、会議の開始から終了までの流れを説明する。図24は、会議で記録情報とオブジェクト情報が保存される処理を説明するシーケンス図である。図18で説明したように、予め電子黒板2とミーティングデバイス60とが対応付け情報記憶部5003で対応付けられている。
S21:ユーザーが端末装置10の情報記録アプリ41を操作して会議開始を指示する。例えば、ユーザーは会議情報のリストから会議を選択してよい。なお、ユーザーは別途、遠隔会議アプリ42を操作して他の拠点との遠隔会議を開始してもよいし、遠隔会議はしなくてもよい。
S22:端末装置10の操作受付部12は会議開始を受け付け、通信部11が会議IDを指定して会議開始を情報処理システム50に送信する。
S23:次に、ユーザーが電子黒板2に対し、会議を指定して会議参加を指示する。図18の処理の後はステップS23の処理は省略してよい。
S24:これにより、電子黒板2の通信部36が電子黒板2の機器識別情報と会議IDを指定して会議参加を情報処理システム50に送信する。
S25:会議開始に応じて情報記録アプリ41のデバイス通信部16は、記録開始をミーティングデバイス60に要求する。
S26:ミーティングデバイス60の端末通信部61は録画開始要求を受信し、パノラマ画像作成部62がパノラマ画像の作成を開始し、話者画像作成部63が話者画像の作成を開始する。また、集音部64が周囲の音声を集音する。なお、遠隔会議が開催された場合は音声の合成が行われるが、音声の合成はミーティングデバイス60又は端末装置10のどちらで行われてもよい。
S27:端末通信部61はパノラマ画像と話者画像及び集音した音声データを端末装置10に送信する。端末装置10のデバイス通信部16はパノラマ画像と話者画像及び集音した音声データを受信する。録画制御部17は、パノラマ画像と話者画像及び集音した音声データを合成したり、更に遠隔会議アプリ42の映像を合成したりして結合画像動画を生成する。表示制御部13は結合画像動画を表示する。
S28:端末装置10の通信部11はリアルタイムに音声データの認識を情報処理システム50に要求する。リアルタイムとは、最大の遅延時間が保証されていることをいう。なお、ミーティングデバイス60が直接、音声データを情報処理システム50に送信してもよい。
S29:情報処理システム50の通信部51は音声データを受信すると、テキスト変換部56が音声データをテキストデータに変換する。
S30:情報処理システム50の通信部51は、ミーティングデバイス60と会議IDで対応付けられている電子黒板2にテキストデータを送信する。
S31:電子黒板2の通信部36はテキストデータを受信して、表示領域決定部39が表示領域150を決定する。テキスト表示部40が表示領域150にテキストデータを表示する。この表示に関する処理については図25~図27にて詳細に説明する。
S32:ユーザーが電子黒板2にストロークなどのオブジェクトを入力する。描画データ生成部32がストロークを生成し、表示制御部34がディスプレイ480に表示する。データ記録部33は、オブジェクト情報を生成する。
S33:電子黒板2の通信部36はストロークデータなどのオブジェクト情報を情報処理システム50に送信する。通信部36は会議終了後にまとめてオブジェクト情報を送信してもよい。情報処理システム50の通信部51はオブジェクト情報を受信し、オブジェクト情報記憶部5004に時系列に保存する。
S34:会議が終了すると、ユーザーが端末装置10の情報記録アプリ41を操作して会議終了を指示する。
S35:端末装置10の操作受付部12は会議終了を受け付け、通信部11が会議IDを指定して会議終了を情報処理システム50に送信する。会議終了に応じて通信部11は、会議IDと共に結合画像動画を情報処理システム50に送信する。
S36:情報処理システム50の通信部51は結合画像動画を受信し、通信部51は、ストレージサービスシステム70に記録情報(結合画像動画、テキストデータ)、及び、オブジェクト情報を保存する。
S37:会議終了に応じて情報記録アプリ41のデバイス通信部16は、記録停止をミーティングデバイス60に要求する。録画制御部17は録画を停止するが、パノラマ画像と話者画像及び集音した音声データは継続して情報記録アプリ41が受信する場合がある。
S38:ユーザーが電子黒板2に対し、会議終了を指示する。これにより、電子黒板2はオブジェクト情報を情報処理システム50に送信しなくなる。
<表示領域の決定>
図25は、電子黒板2が表示領域150を決定する処理を説明するフローチャート図の一例である。図25の処理は、例えばストロークの書き込みが検出されるごとに実行される。
図25は、電子黒板2が表示領域150を決定する処理を説明するフローチャート図の一例である。図25の処理は、例えばストロークの書き込みが検出されるごとに実行される。
接触位置検出部31は、電子ペン490又は指のディスプレイ480への接触を検出する(S101)。
接触を検出した場合、表示領域決定部39は、ストロークが通過した矩形領域4の更新数を更新し、この矩形領域4を含むウィンドウ130ごとに合計更新数を算出する(S102)。
表示領域決定部39は合計更新数に基づいて表示領域150を決定する(S103)。ステップS102,S103の処理の詳細を図26、図27にて説明する。
図26は、表示領域決定部39が矩形領域4の更新数を更新する処理を説明するフローチャート図である。図26の処理は矩形領域4ごとに実行される。
矩形領域4へのオブジェクトの入力を検出した場合(S111のYes)、表示領域決定部39は全ての矩形領域に設定された更新数のうち、現在、最も大きい更新数を決定する(S112)。
そして、表示領域決定部39は、オブジェクトが入力された矩形領域4の更新数を、最も大きい更新数+1ポイントに更新する(S113)。表示領域決定部39は以上の処理を、矩形領域4ごとに行う。
図27は、表示領域決定部39が合計更新数に基づいて、表示領域150を決定する処理を説明するフローチャート図である。
表示領域決定部39は図26にて説明したように、ストロークが検出された矩形領域4の更新数を更新する(S201)。表示領域決定部39は、それまでに最も大きい更新数に1ポイントを加算して、ストロークが検出された矩形領域4に設定する処理を、ストロークが検出された各矩形領域4に繰り返す。
次に、表示領域決定部39は予め設定されている最低のウィンドウサイズN,Mを設定する(S202)。
表示領域決定部39は、設定されたウィンドウサイズで、各ウィンドウ130の合計更新数を算出する(S203)。合計更新数の算出は、更新数が更新された矩形領域4を含むウィンドウ130のみでよい。
次に、表示領域決定部39は、合計更新数がゼロのウィンドウ130が1つ以上あるか否か判断する(S204)。
ステップS204の判断がYesの場合、ウィンドウサイズを大きくできる可能性があるので、表示領域決定部39はN又はMを1つ大きくし(S205)、ステップS203から処理を行う。表示領域決定部39は、Nを先に大きくした場合は、次のステップS205でMを1つ大きくすることで、交互にNとMを大きくする。また、表示領域150が不要に大きくなることを抑制するため、N及びMには最大値が設定されていてよい。
ステップS204の判断がNoの場合、表示領域決定部39はNとMが最小値のままか否か判断する(S206)。
NとMが最小値のままの場合(S206のYes)、ステップS204で合計更新数がゼロのウィンドウ130があったと1回も判断されていないので、表示領域決定部39は各ウィンドウ130のうち合計更新数が最も小さいウィンドウ130を表示領域150に決定する(S207)。合計更新数が同じウィンドウ130が複数ある場合、表示領域決定部39は例えば最も高い位置のウィンドウ130、右端、又は、左端のウィンドウ130を表示領域150に決定する。
NとMが最小値のままでない場合(S206のNo)、ステップS204で合計更新数がゼロのウィンドウ130があったと1回は判断されているので、表示領域決定部39は、最後に合計更新数がゼロのウィンドウ130があったと判断されたNとMにおいて、合計更新数がゼロであったウィンドウ130を表示領域に決定する(S208)。合計更新数がゼロのウィンドウ130が複数ある場合、表示領域決定部39は例えば最も高い位置のウィンドウ130、右端、又は、左端のウィンドウ130を表示領域150に決定する。
<テキストデータの表示>
図28は、テキスト表示部40が表示領域150にテキストデータを表示する処理を説明するフローチャート図である。
図28は、テキスト表示部40が表示領域150にテキストデータを表示する処理を説明するフローチャート図である。
電子黒板2の通信部36は、情報処理システム50からテキストデータを随時、受信する(S301)。
テキスト表示部40は、表示領域決定部39が決定した表示領域150の位置を取得する(S302)。
テキスト表示部40は、図22の文字サイズの決定表を参照し、表示領域150のサイズに応じてテキストデータの文字サイズを決定する(S303)。
テキスト表示部40は、表示領域150にテキストデータを表示する(S304)。テキスト表示部40は、表示領域150の上方から下方に、又は、下方から上方に、順にテキストデータを配置する。表示領域150に空きがない場合、テキスト表示部40は、表示中のテキストデータのうち最も古いものをスクロールアウトし、残りのテキストデータをスクロールさせ、新しいテキストデータを表示領域150に表示する。テキスト表示部40は、図1に示したように吹き出しでテキストデータを表示する必要はなく、各テキストデータを隙間なく表示してよい。
また、表示領域150に表示してから所定時間が経過したテキストデータがある場合(S305のYes)、テキスト表示部40は該テキストデータを消去する(S306)。こうすることで、古いテキストデータが残ることを抑制できる。
<更新数に加算されるポイントの重み付け>
ストロークが検出された矩形領域4には、それまでで最も大きい更新数に1ポイントが加算された更新数が設定されると説明したが、更新数に加算される加算ポイントはオブジェクトの種類によって変更されてよい。
ストロークが検出された矩形領域4には、それまでで最も大きい更新数に1ポイントが加算された更新数が設定されると説明したが、更新数に加算される加算ポイントはオブジェクトの種類によって変更されてよい。
図29は、オブジェクトの種類によって変更される更新数の加算ポイントの一例を示す。図29ではディスプレイ480にスタンプ165が表示されている。スタンプとは、決まった文字や記号などが簡単な操作で表示される図形やアイコンである。例えば「済」「承認」「AI」など、会議でよく使用される文字や記号がスタンプ165として用意されている。スタンプ165は、会議内容を伝えるものではないため、常時、視認可能である必要性が低い。そこで、表示領域決定部39はスタンプ165が入力された場合、更新数の加算ポイントをストロークよりも小さくする。例えばスタンプ165が入力された矩形領域4への更新数の加算ポイントは「0.5」とする。こうすることで、スタンプ165が表示された領域にテキストデータを表示しやすくなる。
また、電子黒板2はPC470が表示する画面を画像166として表示可能である。画像166は静止画の場合と動画の場合があるが、静止画の場合を説明する。画像166にテキストデータを重畳することを検討すると、重要な情報が少ない領域が好ましい。例えば、空間周波数が閾値未満の領域は平坦な画像であり情報量が少ないことが知られている。空間周波数とは、縞模様のような空間的な周期的構造における、単位長さ当たりに含まれる構造の繰り返し数である。空間周波数はDCT(Discrete Cosine Transform)や二次元画像のフーリエ変換等により算出される。
そこで、表示領域決定部39は、画像166が入力された場合、空間周波数を矩形領域4ごとに算出し、空間周波数が閾値未満か否か判断する。表示領域決定部39は、空間周波数が閾値未満の場合、閾値以上の場合よりも更新数の加算ポイントを小さくする。例えば、空間周波数が閾値未満の場合、更新数の加算ポイントは「0.5」、空間周波数が閾値以上の場合、更新数の加算ポイントは「2.0」とする。すなわち、画像166の場合、加算ポイントは、画像166の空間周波数が閾値未満の矩形領域4でストロークデータよりも小さく、閾値以上の矩形領域4でストロークデータよりも大きい。
図29では、空のように情報量が少ない領域で更新数が小さくなるので、情報量が少ない領域にテキストデータを表示しやすくなる。また、画像166は比較的広い範囲を占めるが、画像にテキストデータを重畳して表示しやすい。
画像166が動画の場合、表示領域決定部39は、画像の変化に基づいて加算ポイントを変更する。表示領域決定部39は、動画のフレーム間の差分を算出して、差分が閾値未満であれば小さい加算ポイント(画像は次々に入力されるのでゼロ又はゼロに近い値でよい)を更新数に加算し、差分が閾値以上であればより大きい加算ポイント(1などでよい)を更新数に加算する。
図30は、表示領域決定部39が矩形領域4の更新数をオブジェクトの種類に応じて更新する処理を説明するフローチャート図である。図30の処理は矩形領域4ごとに実行される。
矩形領域4へのオブジェクトの入力を検出した場合(S121のYes)、表示領域決定部39は全ての矩形領域に設定された更新数のうち、現在、最も大きい更新数を決定する(S122)。
表示領域決定部39は、入力されたオブジェクトの種類を判断する(S123)。
そして、表示領域決定部39は、オブジェクトが入力された矩形領域4の更新数を、最も大きい更新数+オブジェクトの種類に応じたポイントに更新する(S124)。表示領域決定部39は以上の処理を、矩形領域4ごとに行う。
なお、画像166のように、矩形領域4にほぼ同時にオブジェクトが入力される場合、表示領域決定部39は矩形領域4を入力順に処理しなくてよい。この場合、表示領域決定部39は、最も大きい更新数は画像166と重なる全ての矩形領域4について同じ値とし、例えば画像166の入力の直前に、全ての矩形領域4に設定された更新数のうち、最も大きい更新数を使用する。
<表示領域の移動>
図31を参照して表示領域150の移動について説明する。図31は表示領域150の移動を説明する図である。表示領域決定部39が決定した表示領域150は、テキストデータが継続的に表示されている場合が多く、ユーザーがストローク等を手書きすることは少ない。しかし、そもそも表示領域150は、使用頻度が低い領域なので、ユーザーが再度、利用する可能性もある。例えば、ユーザーがオブジェクト171を消しゴム機能で消去した。この場合、オブジェクト171と重なっていた矩形領域4の更新数はゼロになる。
図31を参照して表示領域150の移動について説明する。図31は表示領域150の移動を説明する図である。表示領域決定部39が決定した表示領域150は、テキストデータが継続的に表示されている場合が多く、ユーザーがストローク等を手書きすることは少ない。しかし、そもそも表示領域150は、使用頻度が低い領域なので、ユーザーが再度、利用する可能性もある。例えば、ユーザーがオブジェクト171を消しゴム機能で消去した。この場合、オブジェクト171と重なっていた矩形領域4の更新数はゼロになる。
次に、図31(b)に示すように、ユーザーがオブジェクト171と重なっていた矩形領域4に手書きデータ172を手書きすると、更新数が他の領域よりも高くなる可能性がある。表示領域決定部39はストロークの検出の度に表示領域150を決定するので、手書きデータ172を検出すると、新たな表示領域150を即座に設定できる。なお、テキストデータの方が手書きデータ172よりも手前に表示されるので、手書きデータ172の全体をユーザーが見えない場合もある。ユーザーが表示領域150に手書きした場合、テキスト表示部40がテキストデータを半透明にしてもよい。
図31(c)では、表示領域150がディスプレイ480の左上に移動している。このように、ユーザーは表示領域150のストロークを消去して手書きすることもでき、手書きにより表示領域150を移動させることができる。
なお、ユーザーは手書きする以外にも、表示領域150の長押しやメニュー操作により、表示領域150を任意の場所に移動できる。
表示領域決定部39が表示領域150の場所を移動する場合、元の表示領域150を削除してから新しい場所に表示領域150を表示してよい。あるいは、表示領域決定部39は、元の表示領域150を残したまま、新しい場所に表示領域150を表示し、新しいテキストデータから表示してもよい。元の表示領域150は所定時間の経過により消去される。
<主な効果>
以上説明したように、本実施形態の電子黒板2は、未使用領域か又は直近で利用されている頻度が小さい表示領域150にテキストデータを表示するので、電子黒板2の使い勝手を低下させにくい。
以上説明したように、本実施形態の電子黒板2は、未使用領域か又は直近で利用されている頻度が小さい表示領域150にテキストデータを表示するので、電子黒板2の使い勝手を低下させにくい。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態では、電子黒板2が表示領域150を決定し、テキストデータを表示したが、アプリケーションの実行により電子黒板2と同等の機能を有する端末装置10が表示領域150を決定し、テキストデータを表示することができる。端末装置10は、普段は汎用的な情報処理装置として利用されるが、ユーザーがアプリケーションプログラムを実行すると、電子黒板2の専用機と同様、ユーザーが手書きすることができる。端末装置10はタッチパネルを有していてもよいし、有していなくてもよい。ユーザーはキーボードから文字を入力でき、マウスでストロークを入力することもできる。
また、本実施形態では、電子黒板2が単体で表示領域150を決定し、テキストデータを表示したが、電子黒板2と情報処理システム50がWebアプリを実行してもよい。電子黒板2ではWebブラウザが実行され、電子黒板2は情報処理システム50が送信するWebアプリを実行することで電子黒板2の機能を実現する。電子黒板2に手書きされたストロークデータは情報処理システム50に送信される。この場合、表示領域150の決定は、情報処理システム50が行ってもよいし、電子黒板2が行ってもよい。
また、ミーティングデバイス60により取得された音声のテキストデータへの変換を電子黒板2が行ってもよい。
また、他の拠点と電子黒板2が通信して表示するオブジェクトを共有する場合、各電子黒板2が表示領域150を決定する。表示されるオブジェクトが同じなので、各拠点の電子黒板2がそれぞれ同じ位置に表示領域150を決定する。ただし、他の拠点のユーザーが任意に矩形領域4のサイズ、NやMの数を設定した場合、表示領域150の位置やサイズが同じでない場合も生じうる。1つの電子黒板2が決定した表示領域150の位置を他の電子黒板2に共有してもよい。
また、端末装置10とミーティングデバイス60が一体でもよい。端末装置10にミーティングデバイス60が外付けされてもよい。また、ミーティングデバイス60は、全天球カメラとマイクとスピーカがケーブルで接続されたものでもよい。
また、他の拠点101においてもミーティングデバイス60が配置されてよい。他の拠点101は別途、ミーティングデバイス60を使用して結合画像動画とテキストデータを作成する。また、1つの拠点に複数のミーティングデバイス60が配置されてもよい。この場合、ミーティングデバイス60ごとに複数の記録情報が作成される。
また、本実施形態で使用した、結合画像動画における、パノラマ画像203,話者画像204、及び、アプリの画面の配置は一例に過ぎない。パノラマ画像203が下で話者画像204が上でもよいし、ユーザーが配置を変更したり、再生時にはパノラマ画像203と話者画像204の表示と非表示を個別に切り替えたりしてもよい。
また、図9、図15などの構成例は、端末装置10、ミーティングデバイス60、及び、情報処理システム50による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。端末装置10、ミーティングデバイス60、及び、情報処理システム50の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
また、実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、情報処理システム50は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。
更に、情報処理システム50は、開示された処理ステップ、例えば図18,図24を様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、情報処理システム50が有する複数の情報処理装置によって実行され得る。また、情報処理システム50は、1つのサーバー装置にまとめられていても良いし、複数の装置に分けられていても良い。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、及び、従来の回路モジュール等のデバイスを含む。
<請求項に関する付記>
[請求項1]
情報処理システムと通信可能な情報処理装置であって、
オブジェクトをディスプレイに表示する表示制御部と、
デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信する通信部と、
前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域を決定する表示領域決定部と、
前記表示領域に前記テキストデータを表示するテキスト表示部と、
を有する情報処理装置。
[請求項2]
前記表示領域決定部は、すでに前記オブジェクトが表示されている前記領域を前記表示領域に決定する請求項1に記載の情報処理装置。
[請求項3]
前記表示領域決定部は、前記領域の前記使用頻度を前記領域にオブジェクトが入力された場合に更新される更新数で管理し、
前記オブジェクトが入力された前記領域の前記更新数を、時間的に後に入力されるほど大きくし、前記更新数に基づいて前記使用頻度を判断する請求項1又は2に記載の情報処理装置。
[請求項4]
前記表示領域決定部は、高さ方向に第一の領域数、幅方向に第二の領域数を有するウィンドウに含まれる前記領域の更新数を合計する処理を、オブジェクトが入力された前記領域を含む前記ウィンドウで行い、
前記更新数の合計が最も小さい、前記ウィンドウを前記表示領域に決定する請求項3に記載の情報処理装置。
[請求項5]
前記表示領域決定部は、最も大きい更新数を有する前記領域の更新数にポイントを加算することで、前記オブジェクトが入力された前記領域の前記更新数を更新し、
前記オブジェクトの種別によって前記ポイントを変更する請求項4に記載の情報処理装置。
[請求項6]
前記オブジェクトの種別がストロークデータの場合、前記ポイントは、前記オブジェクトの種別がスタンプの場合よりも大きい請求項5に記載の情報処理装置。
[請求項7]
前記オブジェクトの種別が画像の場合、前記ポイントは、前記画像の空間周波数が閾値未満の領域でストロークデータよりも小さく、前記画像の空間周波数が閾値以上の領域でストロークデータよりも大きい請求項5又は6に記載の情報処理装置。
[請求項8]
前記更新数の合計がゼロの前記ウィンドウがあった場合、前記表示領域決定部は、前記第一の領域数又は前記第二の領域数を大きし、前記ウィンドウに含まれる前記領域の更新数を合計する処理を、オブジェクトが入力された前記領域を含む前記ウィンドウで行い、
前記更新数の合計が最も小さい、前記ウィンドウを前記表示領域に決定する請求項4~7のいずれか1項に記載の情報処理装置。
[請求項9]
前記テキスト表示部は、前記第一の領域数又は前記第二の領域数で定まる前記表示領域のサイズに応じて前記テキストデータのサイズを変更する請求項8に記載の情報処理装置。
[請求項10]
前記表示領域決定部は、前記ディスプレイに前記オブジェクトが表示されない余白がある場合、前記余白を前記表示領域に決定する請求項1~9のいずれか1項に記載の情報処理装置。
[請求項1]
情報処理システムと通信可能な情報処理装置であって、
オブジェクトをディスプレイに表示する表示制御部と、
デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信する通信部と、
前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域を決定する表示領域決定部と、
前記表示領域に前記テキストデータを表示するテキスト表示部と、
を有する情報処理装置。
[請求項2]
前記表示領域決定部は、すでに前記オブジェクトが表示されている前記領域を前記表示領域に決定する請求項1に記載の情報処理装置。
[請求項3]
前記表示領域決定部は、前記領域の前記使用頻度を前記領域にオブジェクトが入力された場合に更新される更新数で管理し、
前記オブジェクトが入力された前記領域の前記更新数を、時間的に後に入力されるほど大きくし、前記更新数に基づいて前記使用頻度を判断する請求項1又は2に記載の情報処理装置。
[請求項4]
前記表示領域決定部は、高さ方向に第一の領域数、幅方向に第二の領域数を有するウィンドウに含まれる前記領域の更新数を合計する処理を、オブジェクトが入力された前記領域を含む前記ウィンドウで行い、
前記更新数の合計が最も小さい、前記ウィンドウを前記表示領域に決定する請求項3に記載の情報処理装置。
[請求項5]
前記表示領域決定部は、最も大きい更新数を有する前記領域の更新数にポイントを加算することで、前記オブジェクトが入力された前記領域の前記更新数を更新し、
前記オブジェクトの種別によって前記ポイントを変更する請求項4に記載の情報処理装置。
[請求項6]
前記オブジェクトの種別がストロークデータの場合、前記ポイントは、前記オブジェクトの種別がスタンプの場合よりも大きい請求項5に記載の情報処理装置。
[請求項7]
前記オブジェクトの種別が画像の場合、前記ポイントは、前記画像の空間周波数が閾値未満の領域でストロークデータよりも小さく、前記画像の空間周波数が閾値以上の領域でストロークデータよりも大きい請求項5又は6に記載の情報処理装置。
[請求項8]
前記更新数の合計がゼロの前記ウィンドウがあった場合、前記表示領域決定部は、前記第一の領域数又は前記第二の領域数を大きし、前記ウィンドウに含まれる前記領域の更新数を合計する処理を、オブジェクトが入力された前記領域を含む前記ウィンドウで行い、
前記更新数の合計が最も小さい、前記ウィンドウを前記表示領域に決定する請求項4~7のいずれか1項に記載の情報処理装置。
[請求項9]
前記テキスト表示部は、前記第一の領域数又は前記第二の領域数で定まる前記表示領域のサイズに応じて前記テキストデータのサイズを変更する請求項8に記載の情報処理装置。
[請求項10]
前記表示領域決定部は、前記ディスプレイに前記オブジェクトが表示されない余白がある場合、前記余白を前記表示領域に決定する請求項1~9のいずれか1項に記載の情報処理装置。
10 端末装置
50 情報処理システム
60 ミーティングデバイス
70 ストレージサービスシステム
100 記録情報作成システム
50 情報処理システム
60 ミーティングデバイス
70 ストレージサービスシステム
100 記録情報作成システム
Claims (12)
- 情報処理システムと通信可能な情報処理装置であって、
オブジェクトをディスプレイに表示する表示制御部と、
デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信する通信部と、
前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域を決定する表示領域決定部と、
前記表示領域に前記テキストデータを表示するテキスト表示部と、
を有する情報処理装置。 - 前記表示領域決定部は、すでに前記オブジェクトが表示されている前記領域を前記表示領域に決定する請求項1に記載の情報処理装置。
- 前記表示領域決定部は、前記領域の前記使用頻度を前記領域にオブジェクトが入力された場合に更新される更新数で管理し、
前記オブジェクトが入力された前記領域の前記更新数を、時間的に後に入力されるほど大きくし、前記更新数に基づいて前記使用頻度を判断する請求項2に記載の情報処理装置。 - 前記表示領域決定部は、高さ方向に第一の領域数、幅方向に第二の領域数を有するウィンドウに含まれる前記領域の更新数を合計する処理を、オブジェクトが入力された前記領域を含む前記ウィンドウで行い、
前記更新数の合計が最も小さい、前記ウィンドウを前記表示領域に決定する請求項3に記載の情報処理装置。 - 前記表示領域決定部は、最も大きい更新数を有する前記領域の更新数にポイントを加算することで、前記オブジェクトが入力された前記領域の前記更新数を更新し、
前記オブジェクトの種別によって前記ポイントを変更する請求項4に記載の情報処理装置。 - 前記オブジェクトの種別がストロークデータの場合、前記ポイントは、前記オブジェクトの種別がスタンプの場合よりも大きい請求項5に記載の情報処理装置。
- 前記オブジェクトの種別が画像の場合、前記ポイントは、前記画像の空間周波数が閾値未満の領域でストロークデータよりも小さく、前記画像の空間周波数が閾値以上の領域でストロークデータよりも大きい請求項5又は6に記載の情報処理装置。
- 前記更新数の合計がゼロの前記ウィンドウがあった場合、前記表示領域決定部は、前記第一の領域数又は前記第二の領域数を大きし、前記ウィンドウに含まれる前記領域の更新数を合計する処理を、オブジェクトが入力された前記領域を含む前記ウィンドウで行い、
前記更新数の合計が最も小さい、前記ウィンドウを前記表示領域に決定する請求項4に記載の情報処理装置。 - 前記テキスト表示部は、前記第一の領域数又は前記第二の領域数で定まる前記表示領域のサイズに応じて前記テキストデータのサイズを変更する請求項8に記載の情報処理装置。
- 前記表示領域決定部は、前記ディスプレイに前記オブジェクトが表示されない余白がある場合、前記余白を前記表示領域に決定する請求項1に記載の情報処理装置。
- 情報処理システムと通信可能な情報処理装置が行う表示方法であって、
オブジェクトをディスプレイに表示するステップと、
デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信するステップと、
前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域を決定するステップと、
前記表示領域に前記テキストデータを表示するステップと、
を有する表示方法。 - 情報処理システムと通信可能な情報処理装置を、
オブジェクトをディスプレイに表示する表示制御部と、
デバイスにより取得された音声から変換されたテキストデータを前記情報処理システムから受信する通信部と、
前記ディスプレイの領域ごとの使用頻度に基づいて、前記テキストデータを表示する表示領域を決定する表示領域決定部と、
前記表示領域に前記テキストデータを表示するテキスト表示部、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022132011A JP2024029642A (ja) | 2022-08-22 | 2022-08-22 | 情報処理装置、表示方法、プログラム |
CN202311047129.3A CN117608465A (zh) | 2022-08-22 | 2023-08-18 | 信息处理装置、显示方法以及存储介质和计算机装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022132011A JP2024029642A (ja) | 2022-08-22 | 2022-08-22 | 情報処理装置、表示方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024029642A true JP2024029642A (ja) | 2024-03-06 |
Family
ID=89948469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022132011A Pending JP2024029642A (ja) | 2022-08-22 | 2022-08-22 | 情報処理装置、表示方法、プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024029642A (ja) |
CN (1) | CN117608465A (ja) |
-
2022
- 2022-08-22 JP JP2022132011A patent/JP2024029642A/ja active Pending
-
2023
- 2023-08-18 CN CN202311047129.3A patent/CN117608465A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117608465A (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2701152B1 (en) | Media object browsing in a collaborative window, mobile client editing, augmented reality rendering. | |
CN112243583B (zh) | 多端点混合现实会议 | |
US12120158B2 (en) | Communication management system, communication system, communication management device, image processing method, and non-transitory computer-readable medium | |
CN105683867A (zh) | 将触摸屏显示器配置用于会议 | |
US20230289126A1 (en) | System, method for adjusting audio volume, and apparatus | |
US11966658B2 (en) | System and method for displaying image, image-capturing device, and recording medium | |
CN113508354B (zh) | 显示环境的表示 | |
JP2015225400A (ja) | 通信システム、転送制御装置、通信方法およびプログラム | |
CN204721476U (zh) | 沉浸式和交互式的视频会议房间环境 | |
US11221760B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230292011A1 (en) | Information processing system, image-capturing device, and display method | |
US20230280961A1 (en) | Device management system, information processing system, information processing device, device management method, and non-transitory recording medium | |
JP2024029642A (ja) | 情報処理装置、表示方法、プログラム | |
US20220035958A1 (en) | Communication terminal, system, control method, and recording medium | |
US12086500B2 (en) | Device management system, information processing method, information processing server, and non-transitory recording medium | |
JP2024025003A (ja) | 記録情報作成システム、情報処理システム、プログラム | |
US20240031653A1 (en) | Information processing server, record creation system, display control method, and non-transitory recording medium | |
JP2024006703A (ja) | 情報処理システム、検索方法、プログラム | |
JP2024014716A (ja) | プログラム、情報処理システム、記録情報作成システム、表示方法 | |
JP2024008632A (ja) | 情報処理システム、表示方法、プログラム、記録情報作成システム | |
US20250097382A1 (en) | Non-transitory recording medium, image processing system, teleconference service system | |
JP2025043109A (ja) | プログラム、画像処理システム、遠隔会議サービスシステム | |
US12238257B2 (en) | Display terminal, displaying method, and recording medium | |
US12229971B2 (en) | Display terminal, communication system, and non-transitory recording medium | |
US20210266455A1 (en) | Image capture control system, method and computer program product |