JP2007072918A - Information retrieval system - Google Patents
Information retrieval system Download PDFInfo
- Publication number
- JP2007072918A JP2007072918A JP2005261417A JP2005261417A JP2007072918A JP 2007072918 A JP2007072918 A JP 2007072918A JP 2005261417 A JP2005261417 A JP 2005261417A JP 2005261417 A JP2005261417 A JP 2005261417A JP 2007072918 A JP2007072918 A JP 2007072918A
- Authority
- JP
- Japan
- Prior art keywords
- information
- slide
- search
- time
- importance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 claims abstract description 60
- 230000001186 cumulative effect Effects 0.000 claims description 11
- 239000012776 electronic material Substances 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 abstract 2
- 239000000463 material Substances 0.000 description 79
- 238000000034 method Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 30
- 238000007726 management method Methods 0.000 description 22
- 238000013500 data storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000009825 accumulation Methods 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000013480 data collection Methods 0.000 description 5
- 101000932846 Rattus norvegicus Voltage-dependent L-type calcium channel subunit alpha-1S Proteins 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 4
- 239000013256 coordination polymer Substances 0.000 description 3
- 101150006264 ctb-1 gene Proteins 0.000 description 3
- 238000013077 scoring method Methods 0.000 description 3
- 101150056486 CTB3 gene Proteins 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 101150106015 CTB4 gene Proteins 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、蓄積された撮像画像から重要な画像を検索できる情報検索システムに関する。 The present invention relates to an information retrieval system capable of retrieving an important image from accumulated captured images.
講演の動画記録を再生することによって、その講演の様子を見ることができ、更に再確認することもできる。この際に、講演者が重要だと考える場面を、予め再生前に抽出しておくことができれば、講演の動画記録の内容を効率的に確認することができ、短時間で講演の要旨を把握することができる。このような機能を有する情報検索システムとしては、指示装置の指示座標を動画情報や資料情報等と関連付けて蓄積し、講演者が重要だと考える場面を検索する技術が知られている(例えば、特許文献1参照)。
ところで、上記のような情報検索システムでは、重要な場面をスライド単位で特定することができるが、電子スライド内のどの文字列、図、表等のオブジェクトが重要であるかを具体的に推定することはできなかった。
このため、撮像画像の一場面(以下、シーンと言う)を、重要なオブジェクトを基にして精密な検索することができなかった。
By the way, in the information retrieval system as described above, an important scene can be specified in units of slides, but it is specifically estimated which character string, figure, table or other object in the electronic slide is important. I couldn't.
For this reason, a scene of a captured image (hereinafter referred to as a “scene”) cannot be accurately searched based on an important object.
本発明は、上記問題に鑑みて成されたものであり、その目的とするところは、重要なオブジェクトを特定し、講演者が重要なオブジェクトについて説明するシーンを検索することができる情報検索システムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information search system that can identify important objects and allow a speaker to search for scenes that explain important objects. It is to provide.
本発明に係る情報検索システムは、電子資料に基づいて表示されるスライドを解析してスライドに含まれるオブジェクトを抽出する解析手段と、解析手段により抽出されたオブジェクトと表示されたスライドに対してなされた指示操作に基づく指示位置情報とを照らし合わせて指示操作により指示された指示オブジェクトを特定するオブジェクト特定手段と、表示されたスライドを含む撮像画像と、オブジェクト特定手段により特定された指示オブジェクトとを関係づけて蓄積する時系列蓄積手段と、指示オブジェクトに基づいて、時系列蓄積手段に蓄積された撮像画像から所望のシーンを検索する検索手段とを備える特徴としている。
この構成によれば、指示オブジェクトに基づいてシーンを検索することができる。
An information search system according to the present invention is applied to an analysis unit that analyzes a slide displayed based on electronic material and extracts an object included in the slide, and an object extracted by the analysis unit and a displayed slide. The object specifying means for specifying the pointing object specified by the pointing operation by comparing the pointing position information based on the pointing operation, the captured image including the displayed slide, and the pointing object specified by the object specifying means. It is characterized by comprising time series storage means for storing in association with each other and search means for searching for a desired scene from captured images stored in the time series storage means based on the pointing object.
According to this configuration, a scene can be searched based on the instruction object.
上記構成において、解析手段は、講演者がオブジェクトを指示したと判断する範囲であるオブジェクト範囲に関する情報を定め、オブジェクト特定手段は、解析手段が定めたオブジェクト範囲に関する情報から指示オブジェクトを特定する構成を採用できる。
この構成によれば、本情報システムが、講演者がオブジェクトを指示したかを判断することが容易になる。
In the above configuration, the analysis means determines information related to the object range that is a range in which the speaker determines that the object is specified, and the object specifying means specifies the specified object from the information related to the object range determined by the analysis means. Can be adopted.
According to this configuration, it becomes easy for the information system to determine whether the speaker has designated the object.
上記構成において、検索手段により検索されたシーンを表示する結果表示手段を更に備える構成を採用できる。
この構成によれば、オペレータが検索したシーンを視認することができる。
The said structure WHEREIN: The structure further provided with the result display means to display the scene searched by the search means is employable.
According to this configuration, the scene searched by the operator can be visually recognized.
上記構成において、結果は、検索されたシーンのサムネイルを表示する構成を採用できる。
この構成によれば、検索されたシーンの概要を一見して知ることができる。
In the above configuration, as a result, it is possible to adopt a configuration in which thumbnails of searched scenes are displayed.
According to this configuration, an overview of the searched scene can be known at a glance.
上記構成において、時系列蓄積手段に蓄積された指示オブジェクト及び指示オブジェクトの指示された時刻である時刻情報に基づいてスライドの重要度を決定する重要度特定手段を更に有し、
重要度決定手段の決定したスライドの重要度を視覚的に表示する重要度表示手段をさらに有する構成を採用できる。
この構成によれば、オペレータはスライドの重要度を一見して知ることができる。
In the above-described configuration, there is further provided an importance level specifying unit that determines the importance level of the slide based on the indication object stored in the time series storage unit and the time information that is the specified time of the indication object.
A configuration further including importance display means for visually displaying the importance of the slide determined by the importance determination means can be adopted.
According to this configuration, the operator can know the importance of the slide at a glance.
上記構成において、重要度表示手段は、スライドのサムネイルを表示する構成を採用できる。
この構成によれば、オペレータは一見してスライドの概要を知ることができる。
In the above configuration, the importance level display means may be configured to display a slide thumbnail.
According to this configuration, the operator can know the outline of the slide at a glance.
上記構成において、時系列蓄積手段に蓄積された指示オブジェクト及び時刻情報に基づいて、オブジェクトの重要度を決定する重要度特定手段を更に有し、重要度決定手段の決定したオブジェクトの重要度を視覚的に表示する重要度表示手段を、さらに有する構成を採用できる。
この構成によれば、オペレータはオブジェクトの重要度を一見して知ることができる。
In the above configuration, the image processing apparatus further includes an importance level specifying unit that determines the importance level of the object based on the indication object and time information stored in the time series storage unit, and the importance level of the object determined by the importance level determination unit is visually It is possible to employ a configuration that further includes importance display means for displaying automatically.
According to this configuration, the operator can know the importance of the object at a glance.
上記構成において、検索手段の検索条件を設定する条件設定手段をさらに有する構成を採用できる。
この構成によれば、オペレータは様々な検索条件に基づいてシーンを検索することができる。
In the above configuration, it is possible to adopt a configuration further including condition setting means for setting the search condition of the search means.
According to this configuration, the operator can search for a scene based on various search conditions.
上記構成において、解析手段は、オブジェクトの種類に関する情報を抽出し、オブジェクト特定手段は、解析手段が抽出したオブジェクトの種類に関する情報から指示オブジェクトの種類を特定し、検索手段は、指示オブジェクトの種類に基づいてシーンを検索する構成を採用できる。
この構成によれば、例えば、講演者が図形オブジェクトを指示しているシーンのみをオペレータが検索することができる。
In the above configuration, the analysis unit extracts information on the type of the object, the object specification unit specifies the type of the instruction object from the information on the type of object extracted by the analysis unit, and the search unit determines the type of the instruction object. A configuration for searching for a scene based on the above can be adopted.
According to this configuration, for example, the operator can search only the scene in which the speaker indicates the graphic object.
上記構成において、解析手段は、抽出したオブジェクトを追加又は削除し、オブジェクト範囲に関する情報又はオブジェクトの種類に関する情報を追加、削除又は変更する構成を採用できる。
この構成によれば、講演者がブジェクトを指示したかと言う本情報システムの判断と講演者自身の判断の相違が生じ難くなる。
In the above configuration, the analysis unit can add or delete the extracted object, and can add, delete, or change information about the object range or information about the type of the object.
According to this configuration, it is difficult for a difference between the judgment of the present information system that the speaker has instructed the object and the judgment of the speaker himself.
上記構成において、重要度決定手段は、スライド又はオブジェクトを、講演者が指示した時間の累積値の偏差値を、重要度を示す指標として用いる構成を採用できる。
この構成によれば、講演者の行動に基づいて重要度を決定するため、講演者が考える重要度と本システムの用いる重要度との相違が生じ難くなる。
In the above configuration, the importance level determination unit may employ a configuration in which a slide or an object uses a deviation value of a cumulative value of time instructed by a speaker as an index indicating the level of importance.
According to this configuration, since the importance level is determined based on the behavior of the speaker, a difference between the importance level considered by the speaker and the importance level used by the present system hardly occurs.
上記構成において、重要度決定手段は、指示位置と表示されたオブジェクトとの位置関係に応じたスコアリング結果値の偏差値を、重要度を示す指標として用いる構成を採用できる。
この構成によれば、より複雑なオブジェクト構成を有する資料についても、講演者が定める重要度と本システムの用いる重要度との相違が生じ難くなる。
In the above configuration, the importance level determination unit may employ a configuration in which the deviation value of the scoring result value corresponding to the positional relationship between the designated position and the displayed object is used as an index indicating the importance level.
According to this configuration, even for a material having a more complicated object configuration, a difference between the importance level determined by the speaker and the importance level used by the present system hardly occurs.
上記構成において、検索手段は、オブジェクトを講演者が指示した継続時間に基づいて重要なシーンを検索する構成を採用できる。
この構成によれば、例えば、講演者が特定のオブジェクトを継続して5秒以上指示したシーンをオペレータは検索することができる。
In the above configuration, the search means can employ a configuration for searching for an important scene based on a duration time in which the lecturer indicates the object.
According to this configuration, for example, the operator can search for a scene in which a speaker has instructed a specific object for 5 seconds or longer.
上記構成において、検索手段は、オブジェクトを講演者が指示した累積時間に基づいてシーンを検索する構成を採用できる。
この構成によれば、例えば、講演者が特定のオブジェクトを指示した一連のシーンであって、それぞれのシーンの時間長の総和が10秒を超えるものを、オペレータが検索することができる。
In the above configuration, the search means can employ a configuration for searching for a scene based on the accumulated time when the lecturer has indicated the object.
According to this configuration, for example, the operator can search for a series of scenes in which a lecturer points to a specific object, and the total time length of each scene exceeds 10 seconds.
上記構成において、講演者を識別する情報を時系列蓄積手段へ蓄積する講演者管理手段をさらに有し、検索手段は、講演者を識別する情報に基づいてシーンを検索する構成を採用できる。
この構成によれば、講演者に基づいてシーンを検索することができる。
In the above configuration, it is possible to further include a speaker management unit that stores information for identifying the speaker in the time series storage unit, and the search unit can employ a configuration for searching for a scene based on the information for identifying the speaker.
According to this configuration, a scene can be searched based on a speaker.
上記構成において、参加者及び講演者が表示されたスライドを指示する為に用いる指示装置の位置を検出する位置検出手段を更に備え、講演者管理手段は、参加者及び指示装置の位置に基づいて、参加者の中から講演者を推測する構成を採用できる。
この構成によれば、本情報システムは講演者が誰であるかを自動的に蓄積する為、オペレータの操作負担を軽減することができる。
The above configuration further includes position detection means for detecting the position of the pointing device used for the participant and the speaker to indicate the displayed slide, and the speaker management means is based on the positions of the participant and the pointing device. , You can adopt a configuration that guesses the speaker from the participants.
According to this configuration, since this information system automatically accumulates who the speaker is, the operation burden on the operator can be reduced.
本発明によれば、オブジェクトに基づいて過去に撮像した蓄積画像を検索できるので、講演者が特定のオブジェクトについて説明するシーンを検索することができる。 According to the present invention, a stored image captured in the past can be searched based on an object, so that a lecturer can search for a scene explaining a specific object.
以下、本発明の最良の実施形態について、添付図面を参照しつつ説明する。
図1は、本発明の情報システムの一実施形態を示す構成及び各装置間のデータ授受を示す図である。
この情報システムは、図1に示すように、データ収集部100、データ集計部200、データ蓄積部300及びデータ表示部400からなる。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, exemplary embodiments of the invention will be described with reference to the accompanying drawings.
FIG. 1 is a diagram showing a configuration of an information system according to an embodiment of the present invention and data exchange between devices.
As shown in FIG. 1, the information system includes a
データ収集部100は、表示装置10、解析手段としての解析装置20、ビデオカメラ30、指示装置40、位置検出手段としての位置検出装置50、講演者管理手段たる情報管理装置60を備えている。
また、データ収集部100は、データ蓄積部300に接続している。
The
The
表示装置10は、スクリーン11、プロジェクタ12及びスライド制御装置13から成る。
スクリーン11は、例えば、ビーズスクリーン等で構成される。このスクリーン11は、プロジェクタ12によりスライドを映写される。
The
The
プロジェクタ12は、例えば、液晶プロジェクタ等で構成される。このプロジェクタ12は、スライド制御装置13に接続している。
プロジェクタ12は、スライド制御装置13から送信されたスライドをスクリーン11へ投影する。
The projector 12 is composed of, for example, a liquid crystal projector. The projector 12 is connected to the
The projector 12 projects the slide transmitted from the
ここで、スライド制御装置13について説明する前に、資料、スライド、オブジェクト、オブジェクト範囲及びオブジェクト種類の関係を説明する。
図2は、資料とスライド、オブジェクト及びオブジェクト範囲の関係を説明する為の図である。
Here, before describing the
FIG. 2 is a diagram for explaining the relationship between a material, a slide, an object, and an object range.
図2に示すように、資料Dは1つ又は複数のスライドSから成る電子データである。資料Dは、例えば、マイクロソフト社のパワーポイントと言うプレゼンテーション用ソフトウェアにより作成される。
スライドSは、1つ又は複数のオブジェクトOBを含むか、まったくオブジェクトOBを含まない。
オブジェクトOBとは、スライドSを構成する文字列、図又は表を言う。
また、オブジェクトの種類である文字列、図又は表のいずれかをオブジェクト種類と言う。
更に、予め定められた範囲であり、講演者がその範囲内を指示した場合にオブジェクトOBを指示していると判断する為に用いられる範囲を、オブジェクト範囲ROBと言う。
尚、以下においては、特に断る場合を除いて互いのオブジェクト範囲ROBが重なり合うことは無いものとする。
As shown in FIG. 2, the material D is electronic data composed of one or a plurality of slides S. The document D is created by, for example, presentation software called Microsoft PowerPoint.
The slide S includes one or more objects OB or no objects OB at all.
The object OB is a character string, figure, or table that constitutes the slide S.
In addition, any of character strings, diagrams, and tables that are object types is referred to as an object type.
Further, a range that is a predetermined range and is used to determine that the object OB is instructed when the speaker indicates the range is referred to as an object range ROB.
In the following, it is assumed that the object ranges ROB do not overlap unless otherwise specified.
スライド制御装置13は、例えば、パーソナルコンピュータ等で構成される。このスライド制御装置13は、プロジェクタ12、解析装置20及び情報管理装置60に接続している。
まず、オペレータがスライド制御装置13に電子資料を入力する。その後、スライド制御装置13は、入力された電子資料を記憶し、資料を識別する情報(以下、資料IDと言う)及びスライドを識別する情報(以下、スライドIDと言う)を定める。
The
First, an operator inputs electronic materials into the
次に、入力された電子資料、資料ID及びスライドIDを解析装置20へ送信する。
更に、記憶しているスライドをプロジェクタ12へ、オペレータの操作に従って又は自動的に送信すると共に、プロジェクタ12に送信した電子スライドのスライドID及びそのスライドを含む資料の資料IDを情報管理装置60へ送信する。
Next, the input electronic material, material ID, and slide ID are transmitted to the
Further, the stored slide is transmitted to the projector 12 according to the operation of the operator or automatically, and the slide ID of the electronic slide transmitted to the projector 12 and the material ID of the material including the slide are transmitted to the
解析装置20は、例えば、パーソナルコンピュータ等で構成される。この解析装置20は、スライド制御装置13及びデータ蓄積部300の資料データベース310に接続している。
The
解析装置20は、スライド制御装置13から受信した電子資料を解析し、オブジェクトを識別する情報(以下、オブジェクトIDと言う)を定め、オブジェクト範囲に関する情報(以下、オブジェクト範囲情報と言う)及びオブジェクトの種類を抽出する。
The
解析装置20が資料を解析する様子を、図3を参照して説明する。
図3は解析装置がスライド解析前後に有する情報を説明する為の図である。
図3に示すように、解析装置20は、スライド制御装置13から受信した資料D及びスライドS並びに資料ID IDD及びスライドID IDSと言う情報を解析前に有している。
The manner in which the
FIG. 3 is a diagram for explaining information that the analysis apparatus has before and after the slide analysis.
As shown in FIG. 3, the
その後、資料Dのファイルフォーマットに基づいてファイルの記載内容を解析し、各スライドSに含まれるオブジェクトOB及びオブジェクト種類KOBを抽出すると共に、オブジェクトID IDO及びオブジェクト範囲ROBを定める。 Thereafter, the description content of the file is analyzed based on the file format of the material D, the object OB and the object type KOB included in each slide S are extracted, and the object ID IDO and the object range ROB are determined.
ここで、解析装置20がオブジェクト範囲情報を抽出する様子について図4を参照して説明する。
図4はオブジェクト範囲情報の抽出方法を説明する為の図である。
図4に示すように、本実施形式においてオブジェクト範囲ROBは方形であるとする。更に、オブジェクト範囲ROBの表示方法は、原点Oに最も近い頂点VCN及び最も原点から遠い頂点CVFの2つの2次元座標で表示することとする。
Here, how the
FIG. 4 is a diagram for explaining a method of extracting object range information.
As shown in FIG. 4, it is assumed that the object range ROB is square in this embodiment. Further, the object range ROB is displayed using two two-dimensional coordinates of the vertex VCN closest to the origin O and the vertex CVF farthest from the origin.
これにより、講演者がオブジェクトを指示したかを本情報システムが判断するには、頂点VCN及び頂点CVFを講演者が指示した表示スライド上の位置座標(以下、指示位置情報という)を電子スライド上の位置座標に変換したもの(以下、スライド指示位置と言う)と比較すれば良い。
これにより、本情報システムが、講演者がオブジェクトを指示したかを判断することが容易になる。
Thus, in order for the information system to determine whether the lecturer has designated the object, the position coordinates on the display slide (hereinafter referred to as designated position information) where the lecturer has designated the vertex VCN and the vertex CVF are displayed on the electronic slide. What is necessary is just to compare with what was converted into the position coordinates (hereinafter referred to as the slide instruction position).
This makes it easy for the information system to determine whether the speaker has indicated the object.
また、必要な場合には、解析装置20は、オペレータの操作により又は自動で、オブジェクトID、オブジェクト範囲情報又はオブジェクト種類に関する情報(以下、オブジェクト種類情報と言う)を追加、削除又は修正する。
Further, when necessary, the
これにより、例えば、オブジェクトを内包していなかったオブジェクト範囲を内包するように拡大修正した場合には、講演者がオブジェクトを直接指示せず囲むように円を描いて指示したとしても、講演者がオブジェクトを指示したと本システムは認識することができる。
よって、講演者がブジェクトを指示したかと言う本情報システムの判断と講演者自身の判断の相違が生じ難くなる。
As a result, for example, when the object range that did not contain the object is enlarged and corrected so as to include the object range, the speaker does not directly indicate the object, The system can recognize that an object has been indicated.
Therefore, the difference between the judgment of the information system that the lecturer has instructed the object and the judgment of the lecturer is less likely to occur.
また、解析装置20がオブジェクト識別情報、オブジェクト範囲情報又はオブジェクト種類情報を修正する様子について図5及び図6を参照して説明する。
図5は、オブジェクトの分割及び結合方法を説明する為の図であり、図6は、オブジェクトに関する情報の修正方法を例示した図である。
The manner in which the
FIG. 5 is a diagram for explaining a method for dividing and combining objects, and FIG. 6 is a diagram illustrating a method for correcting information related to objects.
図5に示すように、解析装置20は、オブジェクトOB8を抽出した。
この抽出された1のオブジェクトOB8を、上下2のオブジェクトOB8及びオブジェクトOB9に分割する場合について説明する。
As illustrated in FIG. 5, the
A case where the extracted one object OB8 is divided into two upper and lower objects OB8 and OB9 will be described.
まず、オペレータは、解析装置20により、オブジェクトOB8のオブジェクト範囲ROB8に関する情報を変更する。
その後、オブジェクトOB9に関するオブジェクトID IDO9、オブジェクト範囲ROB9及びオブジェクト種類KOB9に関する情報を新規追加する。
これにより、オブジェクトOB8を分割することができる。
First, the operator changes information related to the object range ROB8 of the object OB8 by using the
Thereafter, information related to the object ID IDO9, the object range ROB9, and the object type KOB9 relating to the object OB9 is newly added.
Thereby, the object OB8 can be divided.
逆に、抽出されたオブジェクトOB8とオブジェクトOB9を結合して1のオブジェクトOB8とする場合について説明する。
オペレータは、解析装置20によりオブジェクトOB8のオブジェクト範囲ROB8に関する情報を変更する。
その後、オブジェクトOB9に関するオブジェクトID IDO9、オブジェクト範囲ROB9及びオブジェクト種類KOB9に関する情報を削除する。
これにより、オブジェクトOB8とオブジェクトOB9を結合することができる。
Conversely, a case where the extracted object OB8 and object OB9 are combined to form one object OB8 will be described.
The operator changes information related to the object range ROB8 of the object OB8 using the
Thereafter, the information regarding the object ID IDO9, the object range ROB9, and the object type KOB9 regarding the object OB9 is deleted.
Thereby, the object OB8 and the object OB9 can be combined.
ここで、オブジェクトに関する情報の修正方法の一例として、図6に示すように、スライドを複数の領域に区分し、それぞれの領域範囲をオブジェクト範囲とするオブジェクトを追加する方法を挙げる。
このように修正することで、スライド領域毎の重要度を抽出し、スライド領域に基づいて重要なシーンを検索することができる。
Here, as an example of a method for correcting information related to an object, as shown in FIG. 6, there is a method of dividing an slide into a plurality of regions and adding an object having each region range as an object range.
By correcting in this way, it is possible to extract the importance for each slide area and search for an important scene based on the slide area.
また、解析装置20は、スライド制御装置13から受信した資料、資料ID及びスライドID並びに解析結果であるオブジェクトID、オブジェクト範囲情報及びオブジェクト種類情報を資料データベース310に蓄積する。
Further, the
ここで、解析装置20が各種情報を資料データベース310へ蓄積する様子について図7を参照して説明する。
図7は資料データベースが有する解析結果テーブルの構成図である。
図7に示すように、解析装置20は資料データベース310の解析結果テーブルTAへ、電子資料の解析結果情報を蓄積する。
Here, the manner in which the
FIG. 7 is a configuration diagram of an analysis result table included in the material database.
As shown in FIG. 7, the
解析結果テーブルTAは、資料IDを蓄積する資料カラムCD、スライドIDを蓄積するスライドカラムCS、オブジェクトIDを蓄積するオブジェクトカラムCO、オブジェクト種類情報を蓄積するオブジェクト種類カラムCKO、オブジェクト範囲情報を蓄積するオブジェクト範囲カラムCRO、講演者がオブジェクトを指示した時間であってオブジェクト毎に集計されたものを蓄積する累積時間カラムCAT及び累積時間の偏差値を蓄積する偏差値カラムCADから成る。 The analysis result table TA stores a material column CD that stores material IDs, a slide column CS that stores slide IDs, an object column CO that stores object IDs, an object type column CKO that stores object type information, and object range information. The object range column CRO includes a cumulative time column CAT for accumulating the time for which the lecturer has designated the object and totaled for each object, and a deviation value column CAD for accumulating deviation values of the cumulative time.
解析装置20は、資料カラムCD、スライドカラムCS、オブジェクトカラムCO、オブジェクト種類カラムCKO及びオブジェクト範囲カラムCROへ上記情報を蓄積する。また、残りの累積時間カラムCAT及び偏差値カラムCADへは、データ集計部200の重要度特定装置220が蓄積する。
尚、解析結果テーブルTAは、資料カラムCD及びオブジェクトカラムCOのデータが全て一致するレコードを重複して有することは無い。
The
Note that the analysis result table TA does not have duplicate records in which the data in the material column CD and the object column CO all match.
ビデオカメラ30は、例えば、CCDカメラ等で構成される。このビデオカメラ30は情報管理装置60に接続している。
ビデオカメラ30は、プロジェクタ12がスクリーン11へ映出した映像を少なくとも撮像可能に配置されている。
ビデオカメラ30は、その撮像画像を情報管理装置60へ送信する。
The
The
The
指示装置40は、例えば、レーザポインタ等で構成される。この指示装置40は情報管理装置60に接続している。
また、指示位置検出装置41は、位置検出手段である位置検出装置41を有する。
The
The indicated
指示位置検出装置41は、指示位置情報を検出する。検出技術としては、例えば、特開2004−310527号公報で開示された技術を用いる。
また、指示位置情報を情報管理装置60に送信する。
The designated
In addition, the designated position information is transmitted to the
指示位置検出装置41は、直行する1対の加速度センサを有している。
この加速度センサは、指示位置検出装置41を動かした際に指示位置検出装置41にかかる加速度の大きさを検出する。
The pointing
This acceleration sensor detects the magnitude of acceleration applied to the designated
ここで、指示位置検出装置41が指示位置を検出する様子について図8を参照して説明する。
図8は指示位置検出装置の位置検出方法を説明する為の図である。
まず、指示位置検出装置41は、スクリーン11の隅CN1を差す。
その後、指示位置検出装置41を操作して、隅CN1から隅CN2へ向かって指示位置を移動させる。この際に、指示位置が2隅を結んだ直線上を移動するように、指示位置検出装置41を操作する。
Here, how the designated
FIG. 8 is a diagram for explaining a position detection method of the indicated position detection device.
First, the pointing
Thereafter, the designated
これによって、指示位置検出装置41は、CN1とCN2の距離及び位置関係等を記憶する。同様に、CN1とCN3についても距離及び位置関係等を記憶する。
Thereby, the indicated
その後、指示位置検出装置41は、センサが検出する加速度の大きさや向き、加速度のかかった時間及び指示位置検出装置41が記憶したスクリーン11の四隅の位置関係に基づいて講演者の指示位置を検出する。
Thereafter, the pointing
位置検出装置50は情報管理装置60に接続している。
位置検出装置50は、講演の参加者を識別する情報(以下、参加者IDと言う)、参加者の位置及び指示装置の位置を検出する。
また、参加者ID、検出した参加者位置及び指示装置位置を情報管理装置60へ送信する。
The position detection device 50 is connected to the
The position detection device 50 detects information (hereinafter referred to as a participant ID) for identifying a lecture participant, the position of the participant, and the position of the pointing device.
In addition, the participant ID, the detected participant position, and the pointing device position are transmitted to the
ここで、位置検出装置50が参加者位置及び指示装置位置を検出する様子について図9を参照して説明する。
図9は参加者及び指示装置の講演会場等における配置を例示した図である。
図9に示すように、参加者は固有のIDを持ったRFIDを所持して講演に参加すると共に指示装置にもRFIDを付与する。会場には複数のリーダを設置することで各RFIDの位置及びRFIDの有する固有のIDを検出する。
これにより、参加者の位置及び指示装置の位置を検出する。
Here, how the position detecting device 50 detects the participant position and the pointing device position will be described with reference to FIG.
FIG. 9 is a diagram illustrating an arrangement of participants and instruction devices in a lecture hall or the like.
As shown in FIG. 9, the participant has an RFID with a unique ID and participates in the lecture, and also gives the RFID to the pointing device. By installing a plurality of readers at the venue, the position of each RFID and the unique ID of the RFID are detected.
Thereby, the position of the participant and the position of the pointing device are detected.
情報管理装置60は、例えば、パーソナルコンピュータで構成される。この情報管理装置60は、スライド制御装置13、ビデオカメラ30、指示装置40、位置検出装置50及びデータ蓄積部300の時系列データベース320に接続している。
The
情報管理装置60は、講演を識別する為の情報(以下、講演IDと言う)をオペレータにより入力される。これは、同一の資料について複数回の講演を行うことを考慮した為である。
また、情報管理装置60は、指示装置40から受信した指示位置をスライド指示位置に変換する。
In the
In addition, the
更に、位置検出手段50から送信された参加者ID、参加者位置及び指示装置位置を受信し、講演者を参加者の中から特定する。
また、講演者を識別する為の情報(以下、講演者IDと言う)を定める。
これによって、本情報システムは講演者が誰であるかを自動的に蓄積する為、オペレータの操作負担を軽減することができる。
Further, the participant ID, the participant position, and the pointing device position transmitted from the position detecting means 50 are received, and the speaker is identified from the participants.
Also, information for identifying a speaker (hereinafter referred to as a speaker ID) is determined.
As a result, the information system automatically accumulates who the speaker is, so the operation burden on the operator can be reduced.
具体的には、図9に示すように、情報管理装置60は、各参加者Pに付されたRFIDと指示装置に付されたRFIDまでの距離Lを求める。これらは、それぞれのRFIDの位置座標から求める。
その後、それぞれの距離Lの長短を比較し、距離Lが最も短い参加者P1を講演者と推定する。
Specifically, as illustrated in FIG. 9, the
Thereafter, the lengths of the distances L are compared, and the participant P1 with the shortest distance L is estimated as a speaker.
その後、講演ID及び講演者IDと、スライド制御装置13から受信した資料ID及びスライドIDと、ビデオカメラ30から受信した撮像画像並びに指示位置検出装置70から受信したスライド指示位置及び時刻情報と、を時系列データベース320へ蓄積する。
尚、本実施形態では1秒毎に時系列データベース320へ蓄積することとする。
Thereafter, the lecture ID and the lecturer ID, the material ID and the slide ID received from the
In the present embodiment, the
ここで、情報処理装置60が各種情報を時系列データベース320へ蓄積する様子について図10を参照して説明する。
図10は時系列データベースの有する時系列テーブルの構成図である。
図10に示すように、情報管理装置60は時系列データベース320の時系列テーブルTTへ各種情報を蓄積する。
Here, how the
FIG. 10 is a configuration diagram of a time series table included in the time series database.
As shown in FIG. 10, the
図10に示すように、時系列テーブルTTは、時刻情報を蓄積する時刻カラムCT、講演IDを蓄積する講演カラムCL、資料IDを蓄積する資料カラムCD、講演者IDを蓄積する講演者カラムCP、蓄積した撮像画像を識別する情報を蓄積する撮像画像カラムCM、スライドIDを蓄積するスライドカラムCS、スライド指示位置を蓄積する指示位置カラムCPP、講演者が指示したオブジェクト(以下、指示オブジェクトと言う)を識別するオブジェクトID(以下、指示オブジェクトIDと言う)を蓄積するオブジェクトカラムCO及び指示オブジェクトの種類(以下、指示オブジェクト種類と言う)に関する情報を蓄積するオブジェクト種類カラムCKOから成る。 As shown in FIG. 10, the time series table TT includes a time column CT for storing time information, a lecture column CL for storing lecture ID, a material column CD for storing material ID, and a speaker column CP for storing speaker ID. , A captured image column CM that stores information for identifying the stored captured image, a slide column CS that stores a slide ID, an instruction position column CPP that stores a slide instruction position, an object designated by a speaker (hereinafter referred to as an instruction object) ), An object column CO for storing an object ID (hereinafter referred to as an instruction object ID) and an object type column CKO for storing information on the type of the instruction object (hereinafter referred to as an instruction object type).
情報管理装置60は、時刻カラムCT、講演カラムCL、資料カラムCD、講演者カラムCP、撮像画像カラムCM、スライドカラムCS及び指示位置カラムCPPへ情報を蓄積する。また、残りのオブジェクトカラムCO及びオブジェクト種類カラムCKOへは、データ集計部200のオブジェクト特定装置210が蓄積する。
尚、時系列テーブルTTは、時刻カラムCTのデータが一致するレコードを重複して有することは無い。
The
Note that the time series table TT does not have duplicate records with the same data in the time column CT.
データ集計部200は、オブジェクト特定手段としてのオブジェクト特定装置210、重要度特定手段としての重要度特定装置220を備えている。
また、データ集計部200は、データ蓄積部300と接続している。
オブジェクト特定装置210は、資料データベース310及び時系列データベース320に接続している。
The data totaling unit 200 includes an
The data totaling unit 200 is connected to the data storage unit 300.
The
オブジェクト特定装置210は、時系列データベース320に蓄積されたスライド指示位置等と資料データベース310に蓄積されたオブジェクト範囲情報等から指示オブジェクト等を特定する。
その後、指示オブジェクトに関する情報を時系列データベース320へ蓄積する。
The
Thereafter, information about the pointing object is accumulated in the
ここで、オブジェクト特定装置210がスライド指示位置等から指示オブジェクト等を特定する様子について、図11を参照して説明する。
図11は時系列データベース及び資料データベースとオブジェクト特定装置の関係を表した図である。
Here, how the
FIG. 11 is a diagram showing the relationship between the time-series database and the material database and the object specifying device.
図11に示すように、オブジェクト特定装置210は、時系列データベース320の有する時系列テーブルTT及び資料データベース310の有する解析結果テーブルTAに蓄積された情報を参照し、指示オブジェクト等を特定する。
その後、特定した指示オブジェクト等を時系列テーブルTTへ蓄積する。
As illustrated in FIG. 11, the
Thereafter, the specified pointing object or the like is accumulated in the time series table TT.
具体的には、オブジェクト特定装置210は、時系列テーブルTTのレコードに対し、一定の条件を満たす解析結果テーブルTAのレコードを検索する。
一定の条件とは、時系列テーブルTTと解析結果テーブルTAの有するそれぞれの資料カラムCDに蓄積された資料IDが一致し、且つ、それぞれのスライドカラムCSに蓄積されたスライドIDが一致し、且つ、解析結果テーブルTAのオブジェクト範囲カラムCROに蓄積されたオブジェクト範囲情報が時系列テーブルTTの指示位置カラムCPPに蓄積されたスライド指示位置を含むと言う条件である。
ここで、本実施例では、オブジェクト範囲が互いに重なり合うことが無い為、上記条件を満たすレコードは存在しないか又は1レコードのみ存在する。
Specifically, the
The certain condition is that the material IDs stored in the respective material columns CD of the time series table TT and the analysis result table TA match, and the slide IDs stored in the respective slide columns CS match, and The condition is that the object range information accumulated in the object range column CRO of the analysis result table TA includes the slide designation position accumulated in the designation position column CPP of the time series table TT.
Here, in this embodiment, since the object ranges do not overlap each other, there is no record that satisfies the above condition, or there is only one record.
条件を満たすレコードが存在する場合には、検索されたレコードに蓄積されたオブジェクトIDが識別するオブジェクトを講演者が指示したことが分かり、存在しない場合には、なんらオブジェクトを指示しなかったことが分かる。 If there is a record that satisfies the condition, it can be seen that the speaker has instructed the object identified by the object ID accumulated in the retrieved record, and if there is no record, no object has been specified. I understand.
その後、オブジェクト特定装置210は、上記条件を満たす解析結果テーブルTAのレコードから、オブジェクトID及びオブジェクト種類を参照する。
更に、時系列テーブルTTのオブジェクトカラムCO及びオブジェクト種類カラムCKOへ、上記参照情報を蓄積する。
Thereafter, the
Further, the reference information is stored in the object column CO and the object type column CKO of the time series table TT.
但し、上記条件を満たすレコードが解析結果テーブルTAに存在しない場合には、オブジェクトカラムCOには「000」と言うデータを蓄積し、オブジェクト種類カラムCKOには「−」と言うデータを蓄積する(以下、オブジェクトIDには「000」を含み、オブジェクト種類には「−」を含むとする)。 However, if no record satisfying the above condition exists in the analysis result table TA, data “000” is stored in the object column CO, and data “−” is stored in the object type column CKO ( Hereinafter, the object ID includes “000” and the object type includes “−”).
より具体的に説明する為時系列テーブルTTの第1レコードを例に挙げて説明する。
当該レコードは、資料ID「00001」を、スライドID「001」を、スライド指示位置「0,0」と言うデータを有する。
オブジェクト特定装置210は、解析結果テーブルTAから、資料IDが「00001」及びスライドIDが「001」であり、且つ、スライド指示位置「0,0」を包含するオブジェクト範囲情報を有するレコードを検索する。
検索の結果、そのようなレコードは存在しないことが分かる。
In order to explain more specifically, the first record of the time series table TT will be described as an example.
The record has data of a material ID “00001”, a slide ID “001”, and a slide instruction position “0, 0”.
The
As a result of the search, it can be seen that such a record does not exist.
その後、オブジェクト特定装置210は、時系列テーブルTTの第1レコードのオブジェクトカラムCOには「000」と言うデータを、オブジェクト種類カラムCKOには「−」と言うデータを蓄積する。
Thereafter, the
次に、時系列テーブルTTの第2レコードを例に挙げて説明する。
当該レコードは、資料ID「00001」を、スライドID「001」を、スライド指示位置「15,18」と言うデータを有する。
オブジェクト特定装置210は、解析結果テーブルTAから、資料IDが「00001」及びスライドIDが「001」であり、且つ、スライド指示位置「15,18」を包含するオブジェクト範囲情報を有するレコードを検索する。
Next, the second record of the time series table TT will be described as an example.
The record has data of a material ID “00001”, a slide ID “001”, and a slide instruction position “15, 18”.
The
検索の結果、解析結果テーブルTAの第1レコードが上記条件を満たすことが分かる。
解析結果テーブルTAの第1レコードは、資料ID「00001」を、スライドID「001」を及びオブジェクト範囲情報「15,15−175,35」を有する為である。
As a result of the search, it can be seen that the first record of the analysis result table TA satisfies the above condition.
This is because the first record of the analysis result table TA has the material ID “00001”, the slide ID “001”, and the object range information “15,15-175,35”.
その後、オブジェクト特定装置210は、検索条件を満たしたレコードレコードに蓄積されたオブジェクトカラムCO及びオブジェクト種類カラムCKOを参照する。
更に、参照したオブジェクトID「001」及びオブジェクト種類「C」を、時系列テーブルTTの第2レコードのオブジェクトカラムCO及びオブジェクト種類カラムCKOへ蓄積する。
尚、これらはSQL等の言語を用いてクエリ等を記述することで実現できる。
Thereafter, the
Further, the referenced object ID “001” and object type “C” are stored in the object column CO and the object type column CKO of the second record of the time series table TT.
These can be realized by describing a query or the like using a language such as SQL.
ここで、オブジェクト範囲が重なり合う場合について説明する。
オブジェクト範囲が重なり合う場合には、2以上のレコードが上記検索条件を満たす可能性がある。
その場合には、それぞれのレコードに蓄積されたオブジェクトIDをカンマ区切りで時系列テーブルTTのオブジェクトカラムCOに蓄積する。
これにより、オブジェクト範囲が重なり合う場合に対応することができる。また、オブジェクト種類についても同様とする。
Here, a case where the object ranges overlap will be described.
When the object ranges overlap, two or more records may satisfy the search condition.
In that case, the object IDs stored in the respective records are stored in the object column CO of the time series table TT in a comma delimited manner.
Thereby, it is possible to cope with the case where the object ranges overlap. The same applies to the object type.
重要度特定装置220は、資料データベース310及び時系列データベース320に接続している。
重要度特定装置220は、スライド又はオブジェクトの重要度を表す指標として、スライド毎及びオブジェクト毎に講演者が指示した時間の累積値を求め、その偏差値を用いる。何故ならば、講演者は説明箇所であるオブジェクトを指しながら説明を行い、重要だと考える内容ほど時間をかけて説明する為である。
The
The importance
ここで、重要度特定装置220が累積時間及び偏差値を集計する様子について図12ないし図14を参照して説明する。
図12は重要度特定装置を説明する為の図であり、図13はスライド毎の重要度特定方法を説明する為の図であり、図14はオブジェクト毎の重要度特定方法を説明する為の図である。
Here, how the importance
FIG. 12 is a diagram for explaining the importance specifying device, FIG. 13 is a diagram for explaining the importance specifying method for each slide, and FIG. 14 is a diagram for explaining the importance specifying method for each object. FIG.
図12に示すように、重要度特定装置220は、時系列データベース320の時系列テーブルTTのレコードを集計して、スライド毎の累積時間及びその偏差値並びにオブジェクト毎の累積時間及びその偏差値を求める。その後、累積時間及び偏差値を、資料データベース310のスライドテーブルTS及び解析結果テーブルTAに蓄積する。
As shown in FIG. 12, the importance
まず、重要度特定装置220がスライド毎に累積時間を集計する方法について、図13を用いて具体的に説明する。
資料カラムCDに蓄積された資料ID及びスライドカラムCSに蓄積されたスライドIDが全て一致し、且つ指示オブジェクトIDが「000」で無いレコードを検索する。
その後、検索されたレコード数にデータのサンプリング間隔時間を掛けることで累積時間を算出する。サンプリング間隔時間とはデータ収録の時間間隔のことでここでは1秒としている。
First, a method in which the importance
A record in which the material ID stored in the material column CD and the slide ID stored in the slide column CS all match and the instruction object ID is not “000” is searched.
Thereafter, the accumulated time is calculated by multiplying the number of retrieved records by the data sampling interval time. The sampling interval time is the time interval for data recording, and here it is 1 second.
次に、重要度特定装置220は、上記スライド毎の累積時間を、資料データベース310のスライドテーブルTSにおける累積時間カラムCATへ、資料ID及びスライドIDと関連付けて蓄積する。
尚、スライドテーブルTSは、資料カラムCD及びスライドカラムCSのデータ全てが一致したレコードを重複して有することは無い。
Next, the
Note that the slide table TS does not have duplicate records in which all the data in the material column CD and the slide column CS match.
その後、重要度特定装置220は、全てのスライドについて累積時間を集計した後に累積時間の偏差値を計算する。その後、スライドテーブルTSの偏差値カラムCADへ、資料ID及びスライドIDと関連付けて偏差値を蓄積する。
Thereafter, the importance
次に、重要度特定装置220が、オブジェクト毎に累積時間を集計する方法について、図14を用いて具体的に説明する。
図14に示すように、重要度特定装置220は、時系列データベース320の時系列テーブルTTのレコードから、資料カラムCDに蓄積された資料ID及び指示オブジェクトカラムCOに蓄積された指示オブジェクトIDが全て一致し、且つ指示オブジェクトIDが「000」で無いレコードを検索する。
その後、検索されたレコード数にデータの蓄積間隔時間を掛けることで累積時間を算出することができる。
Next, a method in which the importance
As shown in FIG. 14, the importance
Thereafter, the accumulated time can be calculated by multiplying the number of retrieved records by the data accumulation interval time.
次に、重要度特定装置220は、上記オブジェクト毎の累積時間を解析結果テーブルTAの累積時間カラムCATへ蓄積する。
その後、全てのオブジェクトについて累積時間が求めた後に、累積時間の偏差値を計算する。更に、偏差値を解析結果テーブルTAの偏差値カラムCADへ蓄積する。
尚、これらはSQL等の言語を用いてクエリ等を記述することで実現できる。
Next, the
Thereafter, after obtaining the accumulated time for all the objects, the deviation value of the accumulated time is calculated. Further, the deviation value is accumulated in the deviation value column CAD of the analysis result table TA.
These can be realized by describing a query or the like using a language such as SQL.
これにより、講演者の行為を基に重要度を決定する為、参加者のうなずき回数や注視時間等から重要度を決定する方法よりも、講演者が考える重要度との相違が生じ難い。
更に、講演者及び参加者が使用する装置は指示位置検出装置及びRFIDのみである為、大掛かりな準備を必要としないだけでなく、講演者等の負担となることが少ない。
また、講演者がスライド又はオブジェクトを指示した回数から重要度を決定する方法と異なり、講演者が手遊びをした際の雑音等の影響を受けることが少ない。
As a result, since the importance is determined based on the act of the speaker, it is less likely to differ from the importance considered by the speaker than the method of determining the importance from the number of nods of the participants and the gaze time.
Furthermore, since only the pointing position detection device and the RFID are used by the lecturer and the participant, not only a large-scale preparation is required, but also the burden on the lecturer is small.
Further, unlike the method of determining the importance level from the number of times the speaker has instructed the slide or the object, the speaker is less affected by noise or the like when the speaker plays with hands.
ここで、オブジェクト範囲が互いに重なる場合における重要度の決定方法について図15を参照して説明する。
図15は、オブジェクト範囲が互いに重なる場合の重要度の決定方法を示した図である。
図15に示すように、オブジェクトOB1のオブジェクト範囲ROB1とオブジェクトOB3のオブジェクト範囲OB3は互いに重なり合っている。
ここで、スライド指示位置PP1は、時刻情報T1においてオブジェクト範囲ROB1内のみに位置し、時刻T2においてオブジェクト範囲ROB1及びオブジェクト範囲ROB2の双方内に位置し、時刻T3においてオブジェクト範囲ROB2内のみに位置した。
Here, a method of determining the importance when the object ranges overlap each other will be described with reference to FIG.
FIG. 15 is a diagram illustrating a method of determining the importance when the object ranges overlap each other.
As shown in FIG. 15, the object range ROB1 of the object OB1 and the object range OB3 of the object OB3 overlap each other.
Here, the slide instruction position PP1 is located only within the object range ROB1 at the time information T1, is located within both the object range ROB1 and the object range ROB2 at the time T2, and is located only within the object range ROB2 at the time T3. .
このような場合において、重要度特定装置220は、スライド指示位置PPとオブジェクトOBとの位置関係に応じてスコアリングする。
また、上記スコアを時刻情報Tと関連付けて時系列データベース320のスコアテーブルTSCへ蓄積する。
In such a case, the importance
Further, the score is stored in the score table TSC of the
スコアテーブルTSCの時刻カラムCTには時刻情報Tを、スコアカラムCSCにはオブジェクトOBのスコアを蓄積する。
その後、重要度特定装置220は、オブジェクトOB毎にスコアの合計値及び偏差値を求める。
また、合計値及び偏差値を解析結果テーブルTAの指示時間カラムCAT及び偏差値カラムCADに蓄積する。
これにより、複雑なオブジェクト構成を有する資料についても講演者が定める重要度と本システムの用いる重要度との相違が生じ難くなる。
Time information T is stored in the time column CT of the score table TSC, and the score of the object OB is stored in the score column CSC.
Thereafter, the importance
Further, the total value and the deviation value are accumulated in the instruction time column CAT and the deviation value column CAD of the analysis result table TA.
As a result, the difference between the importance level determined by the speaker and the importance level used by the present system is less likely to occur even for materials having complicated object configurations.
次に、スコアリング方法について具体的に説明する。
重要度特定装置220は、スライド指示位置PP2とオブジェクト範囲ROB1の外接円の中心C1及びC3との距離L12及びL32を計算し、その距離の比を計算する。
その後、重要度特定装置220は、計算した距離Lが短いオブジェクトOBほど高いスコアを取得するように、距離L12及びL32の比に応じてスコアを配分する。
Next, the scoring method will be specifically described.
The
Thereafter, the
データ蓄積部300は、資料データベース310及び時系列蓄積手段である時系列データベース320から成る。
また、データ蓄積部300は、データ収集部100、データ集計部200及びデータ表示部400と接続している。
The data storage unit 300 includes a
Further, the data storage unit 300 is connected to the
資料データベース310は、例えば、リレーショナルデータベースで構成される。
この資料データベース310は、解析装置20、オブジェクト特定装置210、重要度特定装置220、データ表示部400の重要度表示装置410及び条件設定装置420に接続している。
資料データベース310は、解析結果テーブルTA及びスライドテーブルTSを有する。
The
The
The
時系列データベース320は、例えば、リレーショナルデータベースで構成される。
この時系列データベース320は、情報管理装置60、オブジェクト特定装置210、重要度特定装置220、データ表示部400の条件設定装置420及び検索装置430に接続している。
時系列データベース320は、時系列テーブルTT及びスコアテーブルTSCを有する。
The
The
The
データ表示部400は、重要度表示手段である重要度表示装置410、条件設定手段である条件設定装置420、検索手段である検索装置430、結果表示手段である結果表示装置440から成る。
データ表示部400はデータ蓄積部300と接続している。
The data display unit 400 includes an
The data display unit 400 is connected to the data storage unit 300.
重要度表示装置410は、例えばパーソナルコンピュータ等で構成され、資料データベース310及び条件設定装置420に接続している。
重要度表示装置410は、資料データベース310に蓄積された資料、スライドID、スライド毎の偏差値、オブジェクトID及びオブジェクト毎の偏差値を参照する。
その後、資料並びにスライド毎及びオブジェクト毎の偏差値を視覚的に表示する。
The importance
The importance
Thereafter, the deviation values for each material and each slide and each object are visually displayed.
ここで、重要度表示装置の表示について図16を参照して説明する。
図16は重要度表示装置の構成図である。
図16に示すように、重要度表示装置410は、液晶表示装置やCRT等からなる表示装置411、表示装置411に接続されたコンピュータ412、コンピュータ412に接続されたポインティングデバイス413及びキーボード414から構成されている。
また、表示装置411は、スライド一覧画面415及びスライド表示画面416から成る。
Here, the display of the importance display device will be described with reference to FIG.
FIG. 16 is a configuration diagram of the importance display device.
As shown in FIG. 16, the
The display device 411 includes a slide list screen 415 and a slide display screen 416.
重要度表示装置410は、条件設定装置420で設定された重要度表示条件を取得する。
その後、取得した重要度表示条件が示す資料を資料データベース310から参照する。
また、参照した資料に含まれるスライドをスライド一覧画面415に一覧表示する。ここで、スライド一覧画面415は、各スライドをサムネイルとしてスライドサムネイルSNSに表示する。
これにより、オペレータは、スライドの概要を一見して知ることができる。
The importance
Thereafter, the material indicated by the acquired importance display condition is referred from the
The slides included in the referenced material are displayed in a list on the slide list screen 415. Here, the slide list screen 415 displays each slide as a thumbnail on the slide thumbnail SNS.
Thereby, the operator can know the outline of the slide at a glance.
更に、重要度表示装置410は、資料データベース310に蓄積されたスライド毎の偏差値を参照する。
その後、偏差値の高低等に対して予め定めた外枠模様を、スライドサムネイルSNSの外枠に付加して表示する。
これにより、オペレータはスライドの重要度を一見して知ることができる。
Further, the importance
Thereafter, a predetermined outer frame pattern for the height of the deviation value is added to the outer frame of the slide thumbnail SNS and displayed.
Thereby, the operator can know the importance of the slide at a glance.
次に、スライド表示画面416について説明する。
重要度表示装置410は、資料データベース310に蓄積されたオブジェクト毎の偏差値を参照する。
その後、スライド表示画面416はスライドを表示する。その際に、偏差値の高低等に対して予め定めた外枠模様を、オブジェクト範囲ROBに付加して表示する。
これにより、オペレータはオブジェクトの重要度を一見して知ることができる。
Next, the slide display screen 416 will be described.
The importance
Thereafter, the slide display screen 416 displays the slide. At that time, a predetermined outer frame pattern for the height of the deviation value is added to the object range ROB and displayed.
Thereby, the operator can know at a glance the importance of the object.
次に、重要度表示装置の操作について説明する。
オペレータは、ポインティングデバイス413等を操作してポインタPtを移動させる。これにより、スライド一覧画面415に表示された1つ又は複数のスライドサムネイルSNSの中から、スライド表示画面416へ表示するスライドを選択する。
その後、重要度表示装置410は選択されたスライドをスライド表示画面416へ表示する。
Next, the operation of the importance level display device will be described.
The operator moves the pointer Pt by operating the pointing device 413 or the like. Thereby, a slide to be displayed on the slide display screen 416 is selected from one or a plurality of slide thumbnails SNS displayed on the slide list screen 415.
Thereafter, the importance
条件設定装置420は、例えばパーソナルコンピュータ等で構成され、資料データベース310、時系列データベース320、重要度表示装置、及び検索装置430に接続している。
条件設定装置420は、重要度表示装置410の表示条件、検索装置430の検索条件及び結果表示装置440の表示条件を設定する。
The
The
ここで、条件設定装置420について図17を参照して説明する。
図17は条件設定装置の構成を表した図である。
図17に示すように、条件設定装置420は、液晶表示装置又はCRT等からなる表示装置421、表示装置421に接続されたコンピュータ422、コンピュータ422に接続されたポインティングデバイス423及びキーボード424から構成されている。
Here, the
FIG. 17 is a diagram showing the configuration of the condition setting device.
As shown in FIG. 17, the
ここで、条件設定装置の操作方法を説明する。
表示装置421上の条件設定画面425に表示されたポインタPtをポインティングデバイス423等で操作することにより移動させるか又はキーボード424から条件を入力することで、オペレータは条件を設定する。
Here, an operation method of the condition setting device will be described.
The operator sets a condition by moving the pointer Pt displayed on the condition setting screen 425 on the display device 421 by operating the pointing device 423 or the like or inputting a condition from the
オペレータが重要度ボタンBTDを操作すると、条件設定装置420は、設定された条件を記憶する。
その後、重要度表示装置410は上記条件で指定された資料IDを参照し、それに含まれるスライド及びスライドの重要度等を表示する。
When the operator operates the importance button BTD, the
Thereafter, the importance
オペレータが検索ボタンを操作すると、同様に条件設定装置420は設定された条件を記憶する。
その後、検索装置430は上記検索条件を参照し、それに従ってシーンを検索する。
これにより、オペレータは様々な検索条件に基づいてシーンを検索することができる。
When the operator operates the search button, the
Thereafter, the
Thereby, the operator can search a scene based on various search conditions.
具体的には、条件設定装置420は資料データベース310に蓄積された資料ID、スライドID、オブジェクトID及びオブジェクト種類並びに時系列データベース320に蓄積された講演ID及び講演者IDを参照し、条件設定コンボボックスCCに表示する。尚、条件設定をしない場合をも考慮して「*」を選択肢に加える。
Specifically, the
具体例として、重要度表示装置410が、資料ID「00001」により識別される資料について、重要度を表示するように設定する場合について説明する。
オペレータは資料IDコンボボックスCC1で「00001」を選択する。その後、重要度ボタンBTDを操作すると、条件設定装置420は設定された条件を記憶する。
その後、重要度表示装置410が、条件設定装置420の記憶した表示条件を参照し、参照した条件に従って重要度を表示する。
尚、検索条件の設定操作については、後述する。
As a specific example, a case will be described in which the importance
The operator selects “00001” in the material ID combo box CC1. Thereafter, when the importance level button BTD is operated, the
Thereafter, the
The search condition setting operation will be described later.
検索装置430は、例えばパーソナルコンピュータ等で構成され、時系列データベース320、条件設定装置420及び結果表示装置440に接続している。
The
検索装置430は、条件設定装置420から検索条件及び表示条件を取得する。
その後、検索条件に沿ったシーンを時系列データベース320から検索し、検索結果を表示条件に沿ってソートする。
更に、ソートされた検索結果を結果表示装置440へ送信する。
The
After that, scenes that match the search conditions are searched from the
Further, the sorted search results are transmitted to the
ここで、条件設定装置410の操作方法について図17を用いて説明し、その後、検索装置420の検索方法について図18ないし図22を用いて説明する。
Here, the operation method of the
具体例として、講演者が特定のオブジェクトを指示しているシーンを検索する場合について説明する。
図17において、オペレータは、オブジェクトIDコンボボックスCC6でオブジェクトIDを指定し、残りには「*」を指定する。その後、検索ボタンBTSを操作する。
これにより、条件設定装置420を操作して所望の検索条件を設定することができる。
As a specific example, a case where a lecturer searches for a scene indicating a specific object will be described.
In FIG. 17, the operator designates an object ID in the object ID combo box CC6, and designates “*” for the rest. Thereafter, the search button BTS is operated.
Thereby, it is possible to set a desired search condition by operating the
次に、図18を用いて、オブジェクトID「001」によって識別されるオブジェクトを講演者が指示したシーンを、検索装置430が検索する方法について説明する。
図18はオブジェクトIDが「001」であるオブジェクトを指示したシーンの検索を説明する為の図である。
Next, a method for the
FIG. 18 is a diagram for explaining retrieval of a scene in which an object having an object ID “001” is designated.
図18に示すように、検索装置430は、時系列データベース320の有する時系列テーブルTTに蓄積されたレコードから、蓄積した指示オブジェクトIDが「001」であるレコードを検索する。
また、検索されたレコードの時刻情報からシーン開始時間TNを取得する。
これにより講演者が指示したオブジェクトに基づいてシーンを検索することができる。
As illustrated in FIG. 18, the
Further, the scene start time TN is acquired from the time information of the retrieved record.
Thus, a scene can be searched based on the object designated by the speaker.
更に、具体例として、講演者が図形オブジェクトを指示しているシーンのみを検索する場合について説明する。
図17において、オペレータは、オブジェクト種類コンボボックスCC7で図形を表すオブジェクト種類「F」を選択し、残りには「*」を選択する。その後、検索ボタンBTSを操作する。
これにより、条件設定装置420を操作して所望の検索条件を設定することができる。
Further, as a specific example, a case will be described in which only a scene in which a speaker indicates a graphic object is searched.
In FIG. 17, the operator selects an object type “F” representing a graphic in the object type combo box CC7, and selects “*” for the rest. Thereafter, the search button BTS is operated.
Thereby, it is possible to set a desired search condition by operating the
次に、種類が図形であるオブジェクトを講演者が指示したシーンを、検索装置430が検索する様子について説明する。
図19は、種類が図形であるオブジェクトを指示したシーンの検索方法を説明する為の図である。
図19に示すように、検索装置430は、時系列データベース320の有する時系列テーブルTTに蓄積された指示オブジェクト種類が図形を表す「F」である情報を蓄積したレコードを検索する。
また、検索されたレコードの時刻情報からシーン開始時間TNを取得する。
これにより、講演者が図形オブジェクトを指示しているシーンのみをオペレータは検索することができる。
Next, how the
FIG. 19 is a diagram for explaining a scene search method in which an object whose type is a graphic is designated.
As illustrated in FIG. 19, the
Further, the scene start time TN is acquired from the time information of the retrieved record.
Thereby, the operator can search only the scene in which the lecturer indicates the graphic object.
更に、具体例として、特定の講演者が発表しているシーンのみを検索する場合について説明する。
図17において、オペレータは、講演者コンボボックスCC4で講演者IDを選択し、残りには「*」を選択する。その後、検索ボタンBTSを操作する。
これにより、条件設定装置420を操作して所望の検索条件を設定することができる。
Furthermore, as a specific example, a case will be described in which only scenes presented by a specific speaker are searched.
In FIG. 17, the operator selects a speaker ID in the speaker combo box CC4, and selects “*” for the rest. Thereafter, the search button BTS is operated.
Thereby, it is possible to set a desired search condition by operating the
次に、特定の講演者が発表したシーンを検索装置430が検索する様子について説明する。
図20は、特定の講演者が発表したシーンの検索を説明する為の図である。
図20に示すように、検索装置430は、時系列データベース320の有する時系列テーブルTTに蓄積された講演者IDに基づいてシーンを検索する。
また、検索されたレコードの時刻情報からシーン開始時間TNを取得する。
これにより、講演者に基づいてシーンを検索することができる。
Next, how the
FIG. 20 is a diagram for explaining retrieval of a scene announced by a specific speaker.
As illustrated in FIG. 20, the
Further, the scene start time TN is acquired from the time information of the retrieved record.
Thereby, a scene can be searched based on a lecturer.
更に、具体例として、講演者がオブジェクトの指示を継続した時間(以下、指示継続時間と言う)が「5秒以上」の長さであるようなシーンを検索する場合について説明する。
図17において、オペレータは、ラジオボタンCRで「継続時間」を、時間範囲指定テキストボックスCTB1ないしCTB3及び時間範囲指定コンボボックスCC8で、「5秒以上」という条件を表すように設定する。その後、検索ボタンBTSを操作する。
これにより、条件設定装置420を操作して所望の検索条件を設定することができる。
Furthermore, as a specific example, a case will be described in which a scene in which a speaker continues to specify an object (hereinafter referred to as an instruction continuation time) having a length of “5 seconds or longer” is searched.
In FIG. 17, the operator sets “duration” with the radio button CR so that the condition “5 seconds or more” is expressed in the time range designation text boxes CTB1 to CTB3 and the time range designation combo box CC8. Thereafter, the search button BTS is operated.
Thereby, it is possible to set a desired search condition by operating the
次に、指示継続時間が「5秒以上」の長さであるようなシーンを検索する様子について説明する。
図21は指示継続時間が5秒以上のシーンの検索を説明する為の図である。
図21に示すように、検索装置430は、時系列データベース320の有する時系列テーブルTTに蓄積された指示オブジェクトIDが同じであって、且つ、時刻情報でソートした際に連続するレコード群を検索する。但し、指示オブジェクトID「000」であるものを除く。
Next, a description will be given of how to search for a scene whose instruction duration is “5 seconds or longer”.
FIG. 21 is a diagram for explaining a search for a scene having an instruction duration of 5 seconds or more.
As shown in FIG. 21, the
その後、検索装置430は、検索されたレコード群のレコード数に蓄積時間間隔を掛けることで指示継続時間を求める。
更に、求めた指示継続時間から、指示継続時間に対する検索条件に適合したシーンを特定する。
また、検索されたレコードの時刻情報からシーン開始時間TNを取得する。
これにより、講演者が特定のオブジェクトを継続して5秒以上指示したシーンをオペレータは検索することができる。
Thereafter, the
Furthermore, a scene that matches the search condition for the instruction duration is specified from the obtained instruction duration.
Further, the scene start time TN is acquired from the time information of the retrieved record.
As a result, the operator can search for a scene in which the speaker has instructed a specific object for 5 seconds or longer.
更に、具体例として、講演者がオブジェクトの指示をした累積時間(以下、指示累積時間と言う)が「5秒以上」の長さであるようなシーンを検索する場合について説明する。
図17において、オペレータは、ラジオボタンCRで「累積時間」を、時間範囲指定テキストボックスCTB1ないしCTB3及び時間範囲指定コンボボックスCC8で、「10秒以上」という条件を設定する。その後、検索ボタンBTSを操作する。
これにより、条件設定装置420を操作して所望の検索条件を設定することができる。
Furthermore, as a specific example, a case will be described in which a scene is searched in which the accumulated time (hereinafter referred to as “instructed accumulated time”) instructed by the speaker is “5 seconds or longer”.
In FIG. 17, the operator sets the condition “cumulative time” with the radio button CR, and “10 seconds or more” with the time range specification text boxes CTB1 to CTB3 and the time range specification combo box CC8. Thereafter, the search button BTS is operated.
Thereby, it is possible to set a desired search condition by operating the
次に、指示累積時間が「10秒以上」の長さであるようなシーンを検索する様子について説明する。
図22は指示累積時間が10秒以上のシーンの検索を説明する為の図である。
図22に示すように、検索装置430は、時系列データベース320の有する時系列テーブルTTに蓄積された指示オブジェクトIDが同じレコード群を検索する。但し、指示オブジェクトIDが「000」であるものを除く。
Next, a description will be given of how to search for a scene whose instruction accumulation time is “10 seconds or longer”.
FIG. 22 is a diagram for explaining a search for a scene having an instruction accumulation time of 10 seconds or more.
As illustrated in FIG. 22, the
その後、検索装置430は、検索されたレコード群のレコード数に蓄積時間間隔を掛けることで指示累積時間を求める。
更に、求めた指示累積時間から指示累積時間に対する検索条件に適合したシーンを特定する。
また、検索されたレコードの時刻情報からシーン開始時間TNを取得する。
これにより、講演者が特定のオブジェクトを指示したシーンの集合であって、それぞれのシーンの時間長の総和が10秒を超えるものを、オペレータは検索することができる。
Thereafter, the
Further, a scene that matches the search condition for the instruction cumulative time is specified from the obtained instruction cumulative time.
Further, the scene start time TN is acquired from the time information of the retrieved record.
As a result, the operator can search for a set of scenes in which the lecturer points to a specific object, and the total time length of each scene exceeds 10 seconds.
その他、オペレータは、図17に示すように、資料IDコンボボックスCC1で資料IDを、会議IDコンボボックスCC2及びCC3で会議IDを、スライドIDコンボボックスCC2でスライドIDを基にした検索条件を、条件設定装置420で設定することができる。
また、検索装置430は、条件設定装置420で設定された資料ID、会議ID及びスライドIDを基に検索することができる。
In addition, as shown in FIG. 17, the operator sets a search condition based on the material ID in the material ID combo box CC1, the conference ID in the conference ID combo boxes CC2 and CC3, and the slide ID in the slide ID combo box CC2. It can be set by the
Further, the
また、具体例として、結果表示装置440においてシーン開始時間の昇順でシーンを表示する場合について説明する。
図17において、オペレータは表示方法コンボボックスCC9で「昇順」という条件を設定し、それ以外に検索条件を設定する。
As a specific example, a case where the
In FIG. 17, the operator sets a condition “ascending order” in the display method combo box CC9, and sets a search condition other than that.
特に、上記昇順第3番目となるシーンのみを表示する場合には、オペレータは、表示方法コンボボックスCC9で「昇順」を、順位指定テキストボックスCTB4に「3」という条件を設定する。その後、検索ボタンBTSを操作する。
これにより、条件設定装置420を操作して所望の検索条件のみならず表示条件をも設定することができる。
In particular, when displaying only the third scene in the ascending order, the operator sets the condition “ascending order” in the display method combo box CC9 and the condition “3” in the rank designation text box CTB4. Thereafter, the search button BTS is operated.
As a result, the
次に、検索装置440は、条件設定装置420が記憶した検索条件及び表示条件を参照する。その後、検索条件に基づいてシーンを検索する。更に、検索したシーンを、表示条件に基づいてシーン開始でソートする。
その後、検索装置430へソートされた検索結果を送信する。
Next, the
Thereafter, the sorted search results are transmitted to the
ここで、上記に挙げた複数の検索条件を同時に設定した場合には、それぞれの検索条件をAND結合にて結合するものとする。
また、これらはSQL等の言語を用いてクエリ等を記述することで実現できる。
Here, when the plurality of search conditions listed above are set at the same time, the search conditions are combined by AND combination.
These can be realized by describing a query or the like using a language such as SQL.
結果表示装置440は、例えばパーソナルコンピュータ等で構成され、検索装置430に接続している。
結果表示装置440は、430検索装置430から受信した検索結果を表示する。
The
The
ここで、結果表示装置440について図23を参照して説明する。
図23は結果表示装置の構成を表した図である。
図23に示すように、結果表示装置440は、液晶表示装置又はCRT等からなる表示装置441、表示装置441に接続されたコンピュータ442、コンピュータ442に接続されたポインティングデバイス443及びキーボード444から構成されている。
また、表示装置441は、シーン表示画面445及びシーン一覧画面446から成る。
Here, the
FIG. 23 is a diagram showing the configuration of the result display device.
As shown in FIG. 23, the
The display device 441 includes a scene display screen 445 and a scene list screen 446.
シーン一覧画面446は、検索装置430から受信したシーン及びシーン開始時刻TNを一覧表示する。
また、表示されるシーンはサムネイルとしてシーンサムネイルSNMに表示される。
これにより、オペレータは検索されたシーンの概要を一見して知ることができる。
The scene list screen 446 displays a list of scenes received from the
The displayed scene is displayed as a thumbnail in the scene thumbnail SNM.
Thereby, the operator can know at a glance the outline of the searched scene.
シーン表示画面445はシーンを表示する。
これにより、オペレータは検索されたシーンを視認することができる。
ここで、オペレータが、シーン表示画面へ表示するシーンを選択する操作を説明する。
The scene display screen 445 displays a scene.
Thereby, the operator can visually recognize the searched scene.
Here, an operation in which the operator selects a scene to be displayed on the scene display screen will be described.
オペレータは、ポインティングデバイス443を操作してポインタPtを移動させる。これにより、シーン一覧画面446に表示された1つ又は複数のシーンサムネイルSNMの中から、シーン表示画面445へ表示するシーンを選択する。
その後、結果表示装置440は、選択されたシーンをシーン表示画面445へ表示する。
更に、オペレータは、操作ボタンBTMを操作することで、シーンの再生、停止、早送り、巻き戻し、一時停止及びコマ送り等をすることができる。
The operator operates the pointing device 443 to move the pointer Pt. Accordingly, a scene to be displayed on the scene display screen 445 is selected from one or a plurality of scene thumbnails SNM displayed on the scene list screen 446.
Thereafter, the
Furthermore, the operator can perform playback, stop, fast forward, rewind, pause, frame advance, and the like of the scene by operating the operation button BTM.
上記実施形態では、重要度表示装置410、条件設定装置420、検索装置430及び結果表示装置440をそれぞれ別個の装置として説明したが、これに限定されるわけではなく、一の装置として実現することも可能である。
ここで、データ表示装置450が、重要度表示装置410の全機能、条件設定装置420の一部の機能及び表示装置440の全機能を兼ね備えている他の実施例について図24を参照して説明する。
In the above-described embodiment, the importance
Here, another embodiment in which the data display device 450 has all the functions of the
図24は、データ表示装置の構成図である。
図24に示すように、データ表示装置450は、液晶表示装置又はCRT等からなる表示装置451、表示装置451に接続されたコンピュータ452、コンピュータ452に接続されたポインティングデバイス453及びキーボード454から構成されている。
FIG. 24 is a configuration diagram of the data display device.
As shown in FIG. 24, the data display device 450 includes a display device 451 such as a liquid crystal display device or a CRT, a
また、表示装置451は、結果表示画面455及び重要度表示画面456を備える。
結果表示画面455は、シーン表示画面445及びシーン一覧画面446を有する。
重要度表示画面456は、スライド一覧画面415及びスライド表示画面416を有する。
The display device 451 includes a result display screen 455 and an importance display screen 456.
The result display screen 455 includes a scene display screen 445 and a scene list screen 446.
The importance level display screen 456 includes a slide list screen 415 and a slide display screen 416.
本実施例において、スライド一覧画面415、スライド表示画面416、シーン表示画面445及びシーン一覧画面446を、オペレータが操作する方法は、重要度表示装置410、条件設定装置420及び結果表示装置440がそれぞれ別個に設置された場合の実施例で説明したものと同じ方法に従う。
また、上記4画面の有する機能についても、上記3装置がそれぞれ別個に設置された場合の実施例で説明したものと同じ機能を有している。
In this embodiment, the operator operates the slide list screen 415, the slide display screen 416, the scene display screen 445, and the scene list screen 446 by the
Also, the functions of the four screens have the same functions as those described in the embodiment when the three devices are installed separately.
次に、データ表示装置450が有する条件設定装置420の一部機能について説明する。
オペレータは、ポインティングデバイス453等を操作することにより、ポインタPtを移動させる。これにより、スライド表示画面416に表示されたオブジェクトOBを選択することができる。
Next, a partial function of the
The operator moves the pointer Pt by operating the pointing device 453 or the like. Thereby, the object OB displayed on the slide display screen 416 can be selected.
その後、データ表示装置450は、上記オペレータが選択したオブジェクトOBを講演者が指示したシーンを検索するように、条件設定装置420の記憶した検索条件を変更する。
これにより、データ表示装置450は条件設定装置420の有する機能の一部を兼ね備えることとなる。
Thereafter, the data display device 450 changes the search condition stored in the
As a result, the data display device 450 also has some of the functions of the
その後、検索装置430は、条件設定装置420の記憶する更新された検索条件を参照し、検索を行う。その後、検索結果を表示装置450へ送信する。
次に、データ表示装置450は、受信した検索結果をシーン表示画面445及びシーン一覧画面446に表示する。
これにより、オペレータが選択したスライド表示画面416に表示されたオブジェクトOBを、講演者が指示したシーンを検索することができる。
Thereafter, the
Next, the data display device 450 displays the received search results on the scene display screen 445 and the scene list screen 446.
As a result, the scene instructed by the speaker can be searched for the object OB displayed on the slide display screen 416 selected by the operator.
上記実施形態では、資料がマイクロソフト株式会社のソフトウェアであるパワーポイント用のファイル形式で記述されている場合について説明したが、これに限定されるわけではない。例えば、同じマイクロソフト株式会社のソフトウェアであるエクセルやワード用のファイル形式で記述た資料を採用することも可能である。 In the above-described embodiment, the case where the document is described in the file format for PowerPoint that is software of Microsoft Corporation has been described. However, the present invention is not limited to this. For example, it is also possible to adopt materials described in the file format for Excel or Word, which is the same software of Microsoft Corporation.
上記実施形態では、表示装置10はスクリーン11、プロジェクタ12及びスライド制御装置13から成り、指示位置検出装置21が特開2004−310527の技術を用いる場合について説明したが、これに限定されるわけではない。
例えば、スクリーン11及びプロジェクタ12を液晶ディスプレイ、プラズマディスプレイ、CRTディスプレイと言った装置とし、指示位置検出装置をタッチパネルとする組合せを採用することも可能である。
更に、指示位置検出装置21をパーソナルコンピュータとし、Windows(登録商標) API等を利用することで、マウスポインタの位置を指示位置として取得する構成を採用することも可能である。
In the above embodiment, the
For example, it is possible to employ a combination in which the
Furthermore, it is also possible to adopt a configuration in which the position of the mouse pointer is acquired as the pointing position by using the pointing position detection device 21 as a personal computer and using Windows (registered trademark) API or the like.
上記実施形態では、CCDカメラを用いた場合について説明したが、これに限定されるわけではなく、例えば、CMOSイメージセンサを用いたカメラ等を採用することも可能である。 In the above embodiment, the case where the CCD camera is used has been described. However, the present invention is not limited to this. For example, a camera using a CMOS image sensor or the like may be employed.
上記実施形態では、オブジェクト範囲の形状を方形とした場合について説明したが、これに限定されるわけではなく、多角形、円、楕円、線や点等の形状を採用することも可能である。 In the above embodiment, the case where the shape of the object range is a square has been described. However, the shape of the object range is not limited to this, and a shape such as a polygon, a circle, an ellipse, a line, or a point can also be adopted.
上記実施形態では、複数の検索条件を設定した場合には、それぞれの条件をAND結合する場合について説明したが、これに限定されるわけではなく、OR結合する構成を採用することも可能である。 In the above embodiment, when a plurality of search conditions are set, the case where each condition is AND-coupled has been described. However, the present invention is not limited to this, and an OR-coupled configuration can also be adopted. .
上記実施形態では、オブジェクトが互いに重なり合う場合における重要度の決定方法として、スライド指示位置とオブジェクト範囲の外接円の中心との距離の比に基づいたスコアリング方法について説明したが、これに限定されるわけではない。
例えば、スライド指示位置とオブジェクト範囲の内接円の中心及び重心並びにオブジェクト自体の外接円の中心、内接円の中心、重心又はオブジェクトそのものとの距離の比に基づいたスコアリング方法を採用することも可能である。
In the above embodiment, the scoring method based on the ratio of the distance between the slide indication position and the center of the circumscribed circle of the object range has been described as a method of determining the importance when objects overlap each other, but the present invention is not limited to this. Do not mean.
For example, a scoring method based on the ratio of the distance between the slide instruction position and the center and center of gravity of the inscribed circle of the object range and the center of the circumscribed circle of the object itself, the center of the inscribed circle, the center of gravity or the object itself is adopted. Is also possible.
上記実施形態では、スライド一覧画面411は、重要度に対して予め定めた外枠模様をスライドサムネイルSNSに付加し、スライド表示画面416はオブジェクト範囲ROBに付加して表示する場合について説明したが、これに限定されるわけではない。
例えば、重要度に対して予め定めた色でスライドサムネイルSNSの外枠を表示し、スライド表示画面416はオブジェクト範囲ROBを表示する構成とすることも可能である。
特に、偏差値が37.5未満を青、37.5以上50未満を緑、50以上67.5未満を黄色、67.5以上を赤色と言う規則に従って重要度を表示することで、温度の高低に対する色の一般的イメージと対応させることができる。これにより、オペレータが重要度の高低を把握し易くなる。
In the above embodiment, the slide list screen 411 has been described with respect to the case where the outer frame pattern predetermined for the importance is added to the slide thumbnail SNS, and the slide display screen 416 is added to the object range ROB for display. However, the present invention is not limited to this.
For example, the outer frame of the slide thumbnail SNS may be displayed in a color predetermined for the importance, and the slide display screen 416 may be configured to display the object range ROB.
In particular, by displaying the importance according to the rule that the deviation value is less than 37.5 in blue, 37.5 to less than 50 in green, 50 to less than 67.5 in yellow, and 67.5 or more in red, It can correspond to a general image of colors for high and low. This makes it easier for the operator to grasp the level of importance.
上記実施形態では、スライド一覧画面411は、重要度に対して予め定めた外枠模様をスライドサムネイルSNSに付加し、スライド表示画面416はオブジェクト範囲ROBに付加して表示する場合について説明したが、これに限定されるわけではない。
重要度に対して予め定めた半透明色でスライドサムネイルSNSを塗りつぶし、スライド表示画面416はオブジェクト範囲ROBを同様に塗りつぶす構成とすることも可能である。
In the above embodiment, the slide list screen 411 has been described with respect to the case where the outer frame pattern predetermined for the importance is added to the slide thumbnail SNS, and the slide display screen 416 is added to the object range ROB for display. However, the present invention is not limited to this.
It is also possible to fill the slide thumbnail SNS with a semi-transparent color predetermined for the importance, and to fill the object range ROB on the slide display screen 416 in the same manner.
10…表示装置
11…スクリーン
12…プロジェクタ
13…スライド制御装置
20…解析装置(解析手段)
30…ビデオカメラ
40…指示装置
41…指示位置検出装置
50…位置検出装置(位置検出手段)
60…情報管理装置(講演者管理手段)
100…データ収集部
200…データ集計部
210…オブジェクト特定装置(オブジェクト特定手段)
220…重要度特定装置(重要度特定手段)
300…データ蓄積部
310…資料データベース
320…時系列データベース(時系列蓄積手段)
400…データ表示部
410…重要度表示装置(重要度表示手段)
411…表示装置
412…コンピュータ
413…ポインティングデバイス
414…キーボード
415…スライド一覧画面
416…スライド表示画面
420…条件設定装置(条件設定手段)
421…表示装置
422…コンピュータ
423…ポインティングデバイス
424…キーボード
425…条件設定画面
430…検索装置(検索手段)
440…結果表示装置(結果表示手段)
441…表示装置
442…コンピュータ
443…ポインティングデバイス
444…キーボード
445…シーン表示画面
446…シーン一覧画面
450…データ表示装置
451…表示装置
452…コンピュータ
453…ポインティングデバイス
454…キーボード
455…結果表示画面
456…重要度表示画面
BTD…重要度ボタン
BTM1〜4…操作ボタン
BTS…検索ボタン
C1〜3…中心
CAD…偏差値カラム
CAT…累積時間カラム
CC1〜9…条件設定コンボボックス
CD…資料カラム
CKO…オブジェクト種類カラム
CL…講演カラム
CM…撮影画像カラム
CN1〜4…隅
CO…オブジェクトカラム
CP…講演者カラム
CPP…指示位置カラム
CR…条件設定ラジオボタン
CRO…オブジェクト範囲カラム
CS…スライドカラム
CSC1〜4…スコアカラム
CT…時刻カラム
CTB1〜4…条件設定テキストボックス
CVF…頂点座標
CVN…頂点座標
D…資料
IDD…資料ID
IDO1〜9…オブジェクトID
IDS1〜2…スライドID
KOB1〜9…オブジェクト種類
L1〜4,L11〜L13,L31〜L33…距離
O…原点
OB1〜9…オブジェクト
P1〜4…参加者
PP1〜3…スライド指示位置
Pt…ポインタ
ROB1〜9…オブジェクト範囲
S1〜2…スライド
SC1〜3…シーン
SNM1〜4…シーンサムネイル
SNS1〜4…スライドサムネイル
T1〜3…時刻情報
TA…解析結果テーブル
TN1〜4…シーン開始時刻
TS…スライドテーブル
TSC…スコアテーブル
TT…時系列テーブル
TW1〜3…シーン時間長
DESCRIPTION OF
30 ...
60 ... Information management device (speaker management means)
DESCRIPTION OF
220 ... Importance level specifying device (importance level specifying means)
300 ...
400: Data display unit 410: Importance display device (importance display means)
411 ...
421 ...
440 ... Result display device (result display means)
441 ...
CVF: Vertex coordinates
CVN: Vertex coordinates
D ... Material ID D ... Material ID
IDO1-9 ... Object ID
IDS1-2 ... Slide ID
KOB1-9 ... object types L1-4, L11-L13, L31-L33 ... distance O ... origin OB1-9 ... object
P1-4 ... Participants PP1-3 ... Slide instruction position Pt ... Pointer ROB1-9 ... Object range S1-2 ... Slide SC1-3 ... Scene SNM1-4 ... Scene thumbnail SNS1-4 ... Slide thumbnail T1-3 ... Time information TA ... analysis result table TN1-4 ... scene start time TS ... slide table TSC ... score table TT ... time series table TW1-3 ... scene time length
Claims (16)
前記解析手段により抽出されたオブジェクトと表示された前記スライドに対してなされた指示操作に基づく指示位置情報とを照らし合わせて前記指示操作により指示された指示オブジェクトを特定するオブジェクト特定手段と、
前記表示されたスライドを含む撮像画像と、前記オブジェクト特定手段により特定された指示オブジェクトとを関係づけて蓄積する時系列蓄積手段と、
前記指示オブジェクトに基づいて、前記時系列蓄積手段に蓄積された撮像画像から所望のシーンを検索する検索手段とを備える
ことを特徴とする情報検索システム。 Analyzing means for analyzing a slide displayed based on electronic material and extracting an object included in the slide;
Object specifying means for specifying the pointing object instructed by the pointing operation by comparing the object extracted by the analyzing means and pointing position information based on the pointing operation made on the displayed slide;
Time-series storage means for storing the captured image including the displayed slide in association with the pointing object specified by the object specifying means;
An information search system comprising: search means for searching for a desired scene from captured images stored in the time-series storage means based on the instruction object.
前記オブジェクト特定手段は、前記解析手段が定めた前記オブジェクト範囲に関する情報から前記指示オブジェクトを特定する
ことを特徴とする請求項1に記載の情報検索システム。 The analysis means defines information on an object range that is a range in which a speaker determines that the object has been designated,
2. The information search system according to claim 1, wherein the object specifying unit specifies the pointing object from information on the object range determined by the analyzing unit.
ことを特徴とする請求項1又は2に記載の情報検索システム。 The information search system according to claim 1, further comprising a result display unit that displays a scene searched by the search unit.
ことを特徴とする請求項1ないし3のいずれかに記載の情報検索システム。 4. The information search system according to claim 1, wherein the result display means displays a thumbnail of the searched scene.
前記重要度決定手段の決定した前記スライドの前記重要度を視覚的に表示する重要度表示手段をさらに有する
ことを特徴とする請求項1ないし4のいずれかに記載の情報検索システム。 Further comprising importance level specifying means for determining the importance level of the slide based on the indication object stored in the time series storage means and time information that is the time indicated by the indication object;
5. The information search system according to claim 1, further comprising importance level display means for visually displaying the importance level of the slide determined by the importance level determination means.
ことを特徴とする請求項5に記載の情報検索システム。 6. The information search system according to claim 5, wherein the importance level display unit displays a thumbnail of the slide.
前記重要度決定手段の決定した前記オブジェクトの前記重要度を視覚的に表示する重要度表示手段を、さらに有する
ことを特徴とする請求項1ないし4のいずれかに記載の情報検索システム。 Based on the indication object stored in the time-series storage unit and the time information, further includes an importance level specifying unit that determines the importance level of the object,
5. The information search system according to claim 1, further comprising importance display means for visually displaying the importance of the object determined by the importance determination means.
ことを特徴とする請求項1ないし7のいずれかに記載の情報検索システム。 8. The information search system according to claim 1, further comprising condition setting means for setting search conditions for the search means.
前記オブジェクト特定手段は、前記解析手段の抽出した前記オブジェクトの種類に関する情報から前記指示オブジェクトの種類を特定し、
前記検索手段は、前記指示オブジェクトの種類に基づいてシーンを検索する
ことを特徴とする請求項1ないし8のいずれかに記載の情報検索システム。 The analysis means extracts information on the type of the object,
The object specifying means specifies the type of the pointing object from information on the type of the object extracted by the analyzing means,
9. The information search system according to claim 1, wherein the search means searches for a scene based on the type of the pointing object.
ことを特徴とする請求項1ないし9のいずれかに記載の情報検索システム。 The information according to claim 1, wherein the analysis unit adds or deletes the extracted object, and adds, deletes, or changes information on the object range or information on an object type. Search system.
ことを特徴とする請求項5ないし7のいずれかに記載の情報検索システム。 8. The importance level determination unit uses a deviation value of a cumulative value of time when a speaker indicates the slide or the object as an index indicating the level of importance. Information retrieval system.
ことを特徴とする請求項項5ないし7のいずれか記載の情報検索システム。 8. The importance level determination unit uses a deviation value of a scoring result value corresponding to a positional relationship between the indicated position and a displayed object as an index indicating the level of importance. Any information retrieval system described.
ことを特徴とする請求項1ないし12のいずれかに記載の情報検索システム。 The information search system according to any one of claims 1 to 12, wherein the search means searches for an important scene based on a duration in which the speaker has indicated the object.
ことを特徴とする請求項1ないし12のいずれかに記載の情報検索システム。 The information search system according to any one of claims 1 to 12, wherein the search means searches for a scene based on an accumulated time when the lecturer indicates the object.
前記検索手段は、前記講演者を識別する情報に基づいてシーンを検索する
ことを特徴とする請求項1ないし14のいずれかに記載の情報検索システム。 A speaker management means for storing information for identifying a speaker in the time series storage means;
15. The information search system according to claim 1, wherein the search means searches for a scene based on information for identifying the speaker.
講演者管理手段は、前記参加者及び前記指示装置の位置に基づいて、参加者の中から前記講演者を推測する
ことを特徴とする請求項15に記載の情報検索システム。
Further comprising position detecting means for detecting the position of the pointing device used by the participant and the speaker to point to the displayed slide;
The information retrieval system according to claim 15, wherein the lecturer management unit estimates the presenter from among the participants based on the positions of the participants and the pointing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005261417A JP2007072918A (en) | 2005-09-08 | 2005-09-08 | Information retrieval system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005261417A JP2007072918A (en) | 2005-09-08 | 2005-09-08 | Information retrieval system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007072918A true JP2007072918A (en) | 2007-03-22 |
Family
ID=37934287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005261417A Pending JP2007072918A (en) | 2005-09-08 | 2005-09-08 | Information retrieval system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007072918A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5408348B2 (en) * | 2010-05-18 | 2014-02-05 | 富士通株式会社 | Pointer information processing apparatus, pointer information processing program, and conference system |
JP2014186374A (en) * | 2013-03-21 | 2014-10-02 | Casio Comput Co Ltd | Information process device, information process method and program |
KR20170058301A (en) * | 2015-11-18 | 2017-05-26 | 브라보 아이디어스 디지털 코., 엘티디. | Method for identifying a target object in a video file |
-
2005
- 2005-09-08 JP JP2005261417A patent/JP2007072918A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5408348B2 (en) * | 2010-05-18 | 2014-02-05 | 富士通株式会社 | Pointer information processing apparatus, pointer information processing program, and conference system |
JP2014186374A (en) * | 2013-03-21 | 2014-10-02 | Casio Comput Co Ltd | Information process device, information process method and program |
KR20170058301A (en) * | 2015-11-18 | 2017-05-26 | 브라보 아이디어스 디지털 코., 엘티디. | Method for identifying a target object in a video file |
KR101901026B1 (en) * | 2015-11-18 | 2018-09-20 | 브라보 아이디어스 디지털 코., 엘티디. | Method for identifying a target object in a video file |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8831356B2 (en) | Information processing apparatus, metadata setting method, and program | |
TWI651640B (en) | Organize digital notes on the user interface | |
TWI659354B (en) | Computer device having a processor and method of capturing and recognizing notes implemented thereon | |
US20080062283A1 (en) | Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium | |
US20120308202A1 (en) | Information processing apparatus, information processing method, and program | |
US20160343147A1 (en) | Image search system, image search apparatus, and image search method | |
JP4791565B2 (en) | Evaluation system, marker display control method and program | |
JP4490214B2 (en) | Electronic album display system, electronic album display method, and electronic album display program | |
US20140055479A1 (en) | Content display processing device, content display processing method, program and integrated circuit | |
TW201546699A (en) | Note capture, recognition, and management with hints on a user interface | |
EP1855212B1 (en) | Document management system | |
JP2010086221A (en) | Image editing method and device, and computer readable recording medium storing program for implementing the method | |
US9542098B2 (en) | Display control apparatus and method of controlling display control apparatus | |
US9824447B2 (en) | Information processing apparatus, information processing system, and information processing method | |
CN112698775A (en) | Image display method and device and electronic equipment | |
US20140013253A1 (en) | Apparatus for identifying output target content, method thereof, and storage medium | |
JP2007072918A (en) | Information retrieval system | |
JP2007026316A (en) | Image management device, image-managing computer program and recording medium recording the same | |
JP5180052B2 (en) | Image evaluation apparatus and image evaluation program | |
US20110032254A1 (en) | Sheet metal model creation device and sheet metal model creation method | |
JP5012644B2 (en) | Presentation recording apparatus, presentation playback apparatus, and program | |
CN104935855B (en) | Prompting point control device and prompting point control method | |
JP5554214B2 (en) | Minutes system and program | |
JP2020119368A (en) | Video information management system and video information management method | |
JP2006228059A (en) | Presentation content retrieval system and method using pointer position information, and computer-readable recording medium |