JP6089892B2 - Content acquisition apparatus, information processing apparatus, content management method, and content management program - Google Patents
Content acquisition apparatus, information processing apparatus, content management method, and content management program Download PDFInfo
- Publication number
- JP6089892B2 JP6089892B2 JP2013075035A JP2013075035A JP6089892B2 JP 6089892 B2 JP6089892 B2 JP 6089892B2 JP 2013075035 A JP2013075035 A JP 2013075035A JP 2013075035 A JP2013075035 A JP 2013075035A JP 6089892 B2 JP6089892 B2 JP 6089892B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- image
- additional information
- touch
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、コンテンツ取得装置、情報処理装置、コンテンツ管理方法、コンテンツ管理プログラムに関する。 The present invention relates to a content acquisition device, an information processing device, a content management method, and a content management program.
静止画像や動画像を撮ることができるカメラ機能付き機器が普及している。ユーザは、これらの機器を用いて手軽に画像を撮ることができる。その結果、機器に蓄積される画像数は大量になり、ユーザが気に入った画像を抽出することは困難となる。そこで、画像を自動で整理する方法が提案されている(例えば、特許文献1〜特許文献3参照)。
Devices with a camera function that can take still images and moving images are widespread. The user can easily take an image using these devices. As a result, the number of images stored in the device becomes large, and it becomes difficult to extract images that the user likes. Therefore, a method for automatically arranging images has been proposed (see, for example,
しかしながら、たとえ、画像や音声等のコンテンツを自動で整理できる方法が提供されたとしても、コンテンツの分類情報をユーザが設定する場合には、ユーザに面倒な手間を掛けることになる。 However, even if a method for automatically organizing content such as images and sounds is provided, when the user sets content classification information, it is troublesome for the user.
そこで、一側面では、コンテンツの管理を容易にすることを目的とする。 Therefore, an object of one aspect is to facilitate the management of content.
一つの案では、コンテンツを取得する取得部と、取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録する記録部と、前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定のタッチ操作の分類のコンテンツを抽出する抽出部と、を有することを特徴とするコンテンツ取得装置が提供される。 In one proposal, the acquisition unit that acquires content, the type of touch operation on the touch screen of the displayed content among the acquired content , at least one of the number of touch operations, the scaling rate, the angle, and the priority, A recording unit that records additional information including the content in correspondence with the content, and by referring to the recording unit, the type of touch operation included in the additional information, the number of touch operations, the scaling rate, the angle, and the priority There is provided a content acquisition apparatus comprising: an extraction unit that classifies the content according to at least one of them and extracts content of a specific touch operation classification.
一態様によれば、コンテンツの管理を容易にすることができる。 According to one aspect, content management can be facilitated.
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.
<はじめに>
ユーザは、カメラ機能付き機器を携帯し、手軽に画像を撮ることが多い。その結果、機器に蓄積される画像数は大量になり、ユーザが気に入った画像を抽出することは困難となる。例えば、運動会において自分の子供の徒競走をカメラで撮影する場合、ユーザは、被写体である子供の移動スピードが速いため連写モードにしてスタートからゴールまでを何十枚も撮影することがある。ユーザは、その中から気に入った写真だけを選択して保存及びプリントしたい。一方で、ユーザは、撮影された画像の枚数が多いため、1枚ずつ確認し仕分けする作業に手間がかかることを想定して、結局そのままとなってしまう場合がある。
<Introduction>
Users often carry devices with camera functions and easily take images. As a result, the number of images stored in the device becomes large, and it becomes difficult to extract images that the user likes. For example, when photographing a child race of a child with a camera at an athletic meet, the user may shoot dozens of images from the start to the goal in the continuous shooting mode because the moving speed of the child as a subject is fast. The user wants to select and save and print only his / her favorite photos. On the other hand, since the number of captured images is large, the user may end up as it is, assuming that it takes time to check and sort the images one by one.
(顔認識による分類)
最近では、静止画像や動画像の顔認識機能が発達し、ある人物の顔を認識させておいて登録すれば、その人物が映っている画像を仕分け可能な機能を実現するソフトウェアも増えている。しかし、この仕分け方法では、上記のような子供の写真の場合、全て同じ人物なのでベストショットを仕分けることは難しい。
(Classification by face recognition)
Recently, the face recognition function of still images and moving images has been developed, and if a person's face is recognized and registered, software that realizes a function that can sort images showing that person is increasing. . However, with this sorting method, it is difficult to sort the best shots in the case of the above-mentioned child photographs because they are all the same person.
(キーワードによる分類)
また、画像にキーワードなどを付加して画像をキーワードにより分類する方法もある。図10を参照しながら、画像をキーワードにより分類する方法について簡単に説明する。この場合、機器の制御部は、最初に機器に画像のサムネイルを表示する(ステップS10)。次に、制御部は、表示された画像中に仕分け対象があるかを判定する(ステップS11)。仕分け対象があると判定された場合、制御部は、ユーザがクリック操作した対象の画像を表示する(ステップS12)。次に、制御部は、キーワードによる仕分けをするかを判定する(ステップS13)。キーワードで仕分けすると判定された場合、制御部は、キーワード入力画像を表示し(ステップS14)、ユーザ操作に応じたキーワード入力を行う(ステップS15)。次に、制御部は、表示されているコンテンツ(ここでは画像)にキーワードを付与し(ステップS16)、ステップS11に戻り、次の仕分け対象があるかを判定する。
(Classification by keyword)
There is also a method of classifying an image by a keyword by adding a keyword or the like to the image. A method for classifying images by keywords will be briefly described with reference to FIG. In this case, the control unit of the device first displays an image thumbnail on the device (step S10). Next, the control unit determines whether there is a sorting target in the displayed image (step S11). When it is determined that there is a sorting target, the control unit displays an image of a target clicked by the user (step S12). Next, the control unit determines whether to sort by keyword (step S13). If it is determined to sort by keyword, the control unit displays a keyword input image (step S14) and performs keyword input according to the user operation (step S15). Next, the control unit assigns a keyword to the displayed content (here, an image) (step S16), returns to step S11, and determines whether there is a next sorting target.
なお、ステップS11にて仕分け対象がないと判定された場合、又はステップS13にてキーワードによる仕分けをしないと判定された場合、制御部は、本処理を終了させる。 If it is determined in step S11 that there is no sorting target, or if it is determined in step S13 that no sorting by keyword is performed, the control unit ends this process.
以上に説明したキーワードによる分類の場合、ユーザは、キーワード入力画面からキーワードを入力しなければならず、ユーザに面倒な手間を掛けることになる。
(会話情報や注視時間による分類)
また、画像を閲覧中に録音された会話情報や注視時間を利用して画像を分類する方法もある。図11を参照しながら、会話情報や注視時間により画像を分類する方法について簡単に説明する。この場合、機器の制御部は、最初に機器に画像のサムネイルを表示する(ステップS20)。次に、制御部は、表示された画像中に仕分け対象があるかを判定する(ステップS21)。仕分け対象があると判定された場合、制御部は、ユーザがクリック操作した対象の画像を表示する(ステップS22)。
In the case of the classification based on the keywords described above, the user has to input the keyword from the keyword input screen, which is troublesome for the user.
(Classification based on conversation information and gaze time)
There is also a method of classifying images using conversation information recorded while browsing images and gaze time. A method for classifying images according to conversation information and gaze time will be briefly described with reference to FIG. In this case, the control unit of the device first displays an image thumbnail on the device (step S20). Next, the control unit determines whether there is a sorting target in the displayed image (step S21). When it is determined that there is a sorting target, the control unit displays an image of a target clicked by the user (step S22).
次に、制御部は、画像を表示している間の会話情報を取得し、注視時間を計時する(ステップS23)。次に、制御部は、表示されているコンテンツ(ここでは画像)に会話情報や注視時間を付与する(ステップS24)。 Next, the control unit acquires conversation information while displaying an image, and measures the gaze time (step S23). Next, the control unit adds conversation information and a gaze time to the displayed content (here, an image) (step S24).
なお、ステップS21にて仕分け対象がないと判定された場合、制御部は、本処理を終了させる。 In addition, when it determines with there being no classification object in step S21, a control part complete | finishes this process.
以上に説明した会話情報や注視時間による分類の場合、1人で閲覧している時は会話をしないため、会話情報が得られず、会話情報による分類ができない。また、小店舗等、狭い空間内に不特定多数の人が密集する場所で画像を閲覧しているような場合には、閲覧者ではない周辺の人の会話情報も取り込まれることがある。この場合、注目度が誤って判定され、コンテンツが本来の関心度とは異なる分類に仕分けされてしまう可能性があり、分類の精度に欠ける結果となる。 In the case of the classification based on the conversation information and the gaze time described above, since the conversation is not performed when one person is browsing, the conversation information cannot be obtained and the classification based on the conversation information cannot be performed. In addition, when an image is viewed in a small space such as a small store where an unspecified number of people are crowded, conversation information of surrounding people who are not viewers may be captured. In this case, the degree of attention may be erroneously determined, and the content may be sorted into a classification different from the original degree of interest, resulting in a lack of classification accuracy.
そこで、以下に説明する実施形態では、閲覧者の操作情報を利用したデータの分類方法を提案する。つまり、以下の実施形態では、撮影した画像データを閲覧している際の閲覧者の画像データへの操作を示す付加情報を、該当する画像データ内(例えばExifなど)又は該当する画像データに関連付けて操作情報を記録する(タグ化)。例えば、閲覧者の画像データへの操作とは、画像データへのタッチ操作等がある。これにより、記録されている大量のデータの中から閲覧者の操作の種別によって自動分類された、特定の分類の画像データを自動的に抽出できるようにするものである。 Therefore, in the embodiment described below, a data classification method using the operation information of the viewer is proposed. In other words, in the following embodiment, additional information indicating an operation on a viewer's image data when browsing captured image data is associated with the corresponding image data (for example, Exif) or the corresponding image data. Record operation information (tagging). For example, the operation of the viewer on the image data includes a touch operation on the image data. Thus, it is possible to automatically extract image data of a specific classification automatically classified according to the type of operation of the viewer from a large amount of recorded data.
なお、以下の一実施形態では、画像についての自動分類及び特定の分類の画像の抽出について説明し、一実施形態の変形例では、音声についての自動分類及び特定の分類の音声の抽出について説明する。しかしながら、本実施形態に係るコンテンツは、これに限られず、例えば静止画像データ、動画像データ、音声データ及びこれらを組み合わせたデータに適用し得る。 In the following embodiment, automatic classification of an image and extraction of an image of a specific classification will be described. In a modification of the embodiment, automatic classification of audio and extraction of a voice of a specific classification will be described. . However, the content according to the present embodiment is not limited to this, and can be applied to, for example, still image data, moving image data, audio data, and data obtained by combining these.
[装置の全体構成]
まず、本発明の一実施形態に係るコンテンツ取得装置について、図1を参照しながら説明する。図1は、一実施形態に係るコンテンツ取得装置の全体構成を示した図である。一実施形態に係るコンテンツ取得装置10は、例えば、デジタルカメラ、録音装置、カメラ機能又は録音機能付きの携帯電話、カメラ機能又は録音機能付きのタブレット型端末、カメラ機能又は録音機能付きのスマートフォン、録音機能付きの音楽プレイヤー等であってもよい。コンテンツ取得装置10は、コンテンツを取得する手段として、コンテンツ(画像)を撮影する機能、又はコンテンツ(音声)を録音する機能の少なくともいずれかの機能を有する。
[Overall configuration of the device]
First, a content acquisition apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an overall configuration of a content acquisition apparatus according to an embodiment. The
コンテンツ取得装置10は、レンズ11、画像処理部12、記録部13、マイク14、音声処理部15、表示部16、制御部17、操作部18及び抽出部19を有する。
The
レンズ11は、例えば、図示しないシャッタとともに光学系として構成され、光を集光する。レンズ11を介して集光された光は、図示しないCMOS撮像センサにより光電変換される。光電変換されたアナログ電気信号はデジタル信号に変換され、デジタル信号は色差信号(画像信号)に変換され、画像処理部12に出力される。
For example, the
画像処理部12は、入力した画像信号に対してJPEGのエンコードの処理等を行い、エンコードされた画像データを記録部13に出力する。
The
マイク14は、音を集音し、得られた音声信号を音声処理部15に出力する。なお、レンズ11及びマイク14は、コンテンツを取得する取得部の一例である。
The
音声処理部15は、音声信号に対して増幅処理などの所定の処理を施した音声データを記録部13に出力する。
The
表示部16は、コンテンツ取得装置10のカメラ機能により撮影された画像や録音機能により録音された音声を示すアイコン等を表示する。表示部16には、タッチパネルが積層されてもよい。その場合、表示部16と操作部18とは一体化し、表示部16の画面に対するユーザの接触操作が、操作部18を用いた入力操作になる。ただし、表示部16と操作部18とは別体であってもよく、操作部18はキーボードやマウスであってもよい。
The display unit 16 displays an image or the like indicating an image captured by the camera function of the
制御部17は、レンズ11を用いて撮影された画像のうち、表示部16に表示している画像に対して操作が行われたことを示す付加情報を取得する。表示している画像に関連付けて記録部13に記録する。記録部13は、付加情報を画像又は音声のデータに関連付けて記録する。
The
抽出部19は、画像に関連付けて記録された付加情報にしたがって画像を分類し、特定の分類の画像を抽出する。
The
例えば、コンテンツ取得装置10のカメラ機能により撮影された画像を直ぐに表示部16に表示させてユーザに閲覧させる場合、画像1の撮影→画像1の表示→画像2の撮影→画像2の表示→・・・のように表示処理が行われる。また、表示部16には、記録部13に記録された複数の画像のサムネイルが表示されてもよい。
For example, when an image captured by the camera function of the
ユーザは、表示されている画像に対してタッチ操作や拡大操作等の接触操作を行うことがある。制御部17は、この画像に対する接触操作を所定の入力操作と認識し、入力操作に対する必要な処理(例えば、拡大表示等)を実行する。また、制御部17は、この接触操作を付加情報として取得し、記録部13は、付加情報を接触操作した画像と関連させて記録する。つまり、本実施形態では、ユーザが画像を閲覧中、表示されている画像に対して接触操作を行った場合、操作されたことを示す付加情報を画像とリンクさせて記録しておき、記録された付加情報を画像の分類(仕分け)に使用する。これによれば、画像閲覧時のユーザ操作が画像の仕分けに利用される。具体的には、画像の閲覧時にその画像が閲覧者であるユーザによりどれくらい接触操作されたかが、ユーザがどれくらいその画像に関心があったかを示す注目度と相関関係にあるとの観点からユーザのその画像に対する注目度が推定される。これにより、ユーザの注目度に合致したコンテンツを抽出することができる。このため、ユーザによる手動でのデータの仕分け作業が不要であり、また、ユーザがキーワード等の分類条件を予め設定する手間もを省きながら、大量の画像を容易に管理することができる。
The user may perform a touch operation such as a touch operation or an enlargement operation on the displayed image. The
ここで、表示している画像に対して行われる操作としては、例えば、以下の操作を一例として挙げることができる。
1.表示されている画像へのタッチ操作及びタッチ操作の回数
2.表示されている画像を拡大表示させるための操作
3.表示されている画像を回転させるための操作
4.表示されている画像に何らかの加工を施すための操作、例えば、ソフトウェア(アプリケーションプログラム)を使って画像にスタンプを押したり、吹き出しをつけたりする等の加工が施された場合
5.指で丸くなぞるなど、ユーザがカスタマイズした特定のタッチ操作
ただし、表示している画像に対して行われる操作のうち付加情報として記録される操作は、上記操作例に限られない。また、同一画像に対する複数の操作については、複数の操作のそれぞれが付加情報としてその画像に関連付けて記録される。
Here, as an operation performed on the displayed image, for example, the following operation can be given as an example.
1. 1. Touch operation to the displayed image and the number of
[付加情報付与処理]
次に、本実施形態に係るコンテンツ取得装置において実行される付加情報付与処理について、図2を参照しながら説明する。図2は、一実施形態に係る付加情報付与処理を示したフローチャートである。
[Additional information assignment processing]
Next, the additional information addition process executed in the content acquisition apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing additional information provision processing according to an embodiment.
例えば、ユーザが子供の運動会の写真を一人で閲覧する場合、ユーザの閲覧操作に応じて、制御部17は、表示部16に子供の運動会の画像又はサムネイルを表示させる(ステップS30)。次に、制御部17は、表示されているコンテンツ(ここでは、画像)のいずれかに対して仕分け(分類)対象となる操作、すなわち、付加情報を付与すべき操作が行われたかを判定する(ステップS31)。具体例としては、制御部17は、表示部16に積層されたタッチパネルからの電気信号に基づき、タッチ画面の所望の位置が操作されたことを示す情報を得る。制御部17は、この情報に基づき、仕分け対象となる画像への操作が行われたかを判定する。なお、画像が操作されるとは、画像が表示されている画面への接触操作に限られず、画像が表示されている画面への近接操作を検出できる場合には、検出された近接操作も画像が操作される場合に含まれる。
For example, when a user browses a picture of a child's athletic meet alone, the
仕分け対象となる操作が行われたと判定された場合、記録部13は、操作種別を取得し(ステップS32)、操作種別を含む付加情報をその画像に関連付けて記録する(ステップS33)。ここで、付加情報の記録方法としては、2通り考えられる。一つは、記録部13が、コンテンツ取得装置10の記録領域に画像データに関連付けて付加情報を記録する方法である。もう一つは、記録部13が、画像データ自体がもつExifという記録領域に付加情報を記録させる方法である。Exifとは、画像データなどに埋め込まれるメタデータで、撮影時の位置情報(緯度経度)や撮影状態(露出やシャッタースピードなど)が記録されている。なお、Exif領域に記録された情報を見たり、書き換えたりするには専用のツールが必要である。
When it is determined that an operation to be classified is performed, the
各画像データのExif領域に画像に関連付けて付加情報を記録する場合も、コンテンツ取得装置10の記録領域に各画像に関連付けて付加情報を記録する場合も、記録部13が、表示しているコンテンツに対する操作を示す付加情報を該コンテンツに関連付けて記録する。画像データ自体と付加情報とを関連付けて記録させてもよいし、画像を識別するための画像IDと付加情報とを関連付けて記録してもよい。
Whether the additional information is recorded in association with the image in the Exif area of each image data or the additional information is recorded in association with each image in the recording area of the
ステップS31にて、仕分け対象となる操作は行われていないと判定された場合、付加情報を付与することなく、ステップS34に進む。ステップS34では、制御部17は、画像の表示を続けるかを判定する。画像の表示を続けると判定された場合、ステップS31〜ステップS34の処理を繰り返し、ステップS34にて画像の表示を続けないと判定された場合、本処理が終了する。
If it is determined in step S31 that the operation to be classified is not performed, the process proceeds to step S34 without adding additional information. In step S34, the
例えば、図3(a)には、表示部13に表示されている複数のサムネイルからユーザにより任意の画像がタッチされた場合に実行される付加情報付与処理の結果が示されている。図3(a)〜図3(e)の右側の枠内は、各画像に設けられたExif領域への記録内容を簡略化して示したものである。ここでは、タッチされた画像のコンテンツIDを「0001」とする。この場合、記録部14は、タッチ操作が行われたことと、タッチ回数が2回であることを示す<Touch>、<cout>2の付加情報を「0001」のコンテンツIDを持つ画像のExif領域に記録する。
For example, FIG. 3A shows a result of an additional information adding process executed when an arbitrary image is touched by the user from a plurality of thumbnails displayed on the
Exifの領域以外のコンテンツ取得装置10が有する記録領域(データベース)に「0001」のコンテンツIDに関連付けて上記の付加情報を記録してもよい。その場合、図4に示したように、HDDやRAM等で構成される所定の記録領域には、コンテンツID401が「0001」に関連付けて、操作種別402が「タッチ」であり、回数403が「2」であることが記録される。
The additional information may be recorded in association with the content ID “0001” in a recording area (database) of the
付加情報の他の例としては、拡縮率404、角度405、優先度406が挙げられる。ただし、付加情報は、これに限られない。また、拡縮率404、角度405、優先度406等の付加情報は、記録しなくてもよい。また、優先度406は、付加情報に基づき自動で付与されてもよく、ユーザの要求に応じて付与されてもよい。例えば、ユーザは、タッチ回数を増やすことでタッチしている画像のお気に入り度(優先度)を上げることができる。
Other examples of the additional information include an enlargement /
例えば、図3(b)には、表示部13に表示されている画像がズームされた場合に実行される付加情報付与処理の結果が示されている。ここでは、ズームされた画像のコンテンツIDを「0002」とする。この場合、記録部14は、画面がタッチされ、5倍にズームする操作が行われたことを示す<Touch>、<zoom>5の付加情報を「0002」のコンテンツIDを持つ画像に設けられたExif領域に記録する。または、例えば、図4に示したように、コンテンツID401が「0002」に関連付けて操作種別402が「ズーム」であり、拡縮率404が「250%」であることが所望の記録領域に記録されてもよい。
For example, FIG. 3B shows the result of the additional information adding process executed when the image displayed on the
例えば、図3(c)には、表示部13に表示されている画像が回転された場合に実行される付加情報付与処理の結果が示されている。ここでは、回転された画像のコンテンツIDを「0003」とする。この場合、記録部14は、画面がタッチされ、90度回転する操作が行われたことを示す<Touch>、<rotation>90の付加情報を「0003」のコンテンツIDを持つ画像に設けられたExif領域に記録する。または、例えば、図4に示したように、コンテンツID401が「0003」に関連付けて操作種別402が「回転」であり、角度405が「90度」であることが所望の記録領域に記録されてもよい。
For example, FIG. 3C shows the result of the additional information adding process executed when the image displayed on the
例えば、図3(d)には、表示部13に表示されている画像にソフトウェア(アプリケーション)を使用してスタンプを押す、又は吹き出しをつける等の加工が施された場合に実行される付加情報付与処理の結果が示されている。この場合、記録部14は、画面がタッチされ、画像の25%が加工されたことを示す<Touch>、<edit>25の付加情報を画像のコンテンツIDを持つ画像に設けられたExif領域又は所望の記録領域に記録する。
For example, FIG. 3D shows additional information executed when an image displayed on the
例えば、図3(e)には、画像が表示されている画面上を指で丸くなぞる等特定のタッチ操作を行った場合に実行される付加情報付与処理の結果が示されている。この場合、例えば、画面上を丸くなぞったら表示されている画像を削除候補にするなど、画面上の操作を予め定義しておけば、ユーザごとに仕分けのカスタマイズが可能となる。この場合、記録部14は、画面が丸くなぞるようにタッチされたので、表示されている画像が削除候補であることを示す<Touch>、<custom1>deleteの付加情報を画像のコンテンツIDを持つ画像に設けられたExif領域又は所望の記録領域に記録する。例えば、タッチされた画像であっても明らかに暗い画像は、前記画面上を丸くなぞる操作により削除候補の付加情報を画像に付与することができる。
For example, FIG. 3 (e) shows the result of the additional information adding process executed when a specific touch operation such as tracing with a finger on the screen on which the image is displayed is performed. In this case, for example, if the operation on the screen is defined in advance, such as making an image displayed when the screen is traced round, the sorting can be customized for each user. In this case, since the
以上に説明したように、本実施形態に係るコンテンツ取得装置10では、画像を閲覧しているユーザが画像を操作したことに基づき、ユーザのその画像に対する注目度が推定される。そして、該操作を示す付加情報に基づき、関連付けられた画像が分類される。このように、本実施形態に係るコンテンツ取得装置10は、閲覧時の画像へのユーザ操作を利用して付加情報を収集し、収集された付加情報に基づき、次に説明する画像の分類を行う。これにより、大量の画像を容易に管理することができる。
As described above, in the
[コンテンツ抽出処理]
次に、本実施形態に係るコンテンツ取得装置において実行されるコンテンツ抽出処理について、図5を参照しながら説明する。図5は、一実施形態に係るコンテンツ抽出処理を示したフローチャートである。
[Content extraction process]
Next, content extraction processing executed in the content acquisition apparatus according to the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating content extraction processing according to an embodiment.
図5に示したコンテンツ抽出処理は、画像の閲覧時に付与された付加情報に基づき、画像を出力(例えば、プリントや再表示等)する段階で行われる処理である。まず、ユーザは、どのような写真をプリントするかを選択する。ここでは、ユーザは運動会の日を選択することで、運動会の日に撮影された画像群から写真をプリントすることを指定する。 The content extraction process shown in FIG. 5 is a process performed at the stage of outputting an image (for example, printing, redisplaying, etc.) based on additional information given at the time of browsing the image. First, the user selects what kind of photograph is to be printed. Here, the user designates printing of a photo from a group of images taken on the day of the athletic meet by selecting the day of the athletic meet.
抽出部19は、仕分け対象のコンテンツがあるかを判定する(ステップS40)。例えば、図4に示されるように、コンテンツID401が「0001」、「0002」、「0003」、「0004」・・・の画像が仕分け対象である。
The
仕分け対象がないと判定された場合、表示部16は、運動会の日に撮影された画像群のサムネイルをデフォルトで表示し(ステップS41)、本処理を終了する。サムネイルのデフォルト表示の一例としては、撮影時間に応じて画像を表示する等が挙げられる。 When it is determined that there is no sorting target, the display unit 16 displays, by default, thumbnails of the images taken on the day of the athletic meet (step S41), and the process ends. An example of the default display of thumbnails is to display an image according to the shooting time.
一方、仕分け対象があると判定された場合、抽出部19は、特定の分類の画像表示を行うかを判定する(ステップS42)。特定の分類の画像表示を行わないと判定された場合、表示部16は、運動会の日に撮影された画像群のサムネイルをデフォルトで表示し(ステップS41)、本処理を終了する。
On the other hand, when it is determined that there is a sorting target, the
一方、特定の分類の画像表示を行うと判定された場合、抽出部19は、付加情報が付与されているかを判定する(ステップS43)。付加情報が付与されていないと判定された場合、表示部16は、運動会の日に撮影された画像群のサムネイルをデフォルトで表示し(ステップS41)、本処理を終了する。
On the other hand, when it is determined that an image of a specific classification is to be displayed, the
一方、付加情報が付与されていると判定された場合、抽出部19は、分類処理を行う(ステップS44)。分類処理としては、抽出部19は、記録部13が記録した付加情報から、操作種別402毎に画像を分類し、分類した結果に基づき特定の分類のコンテンツを抽出する場合が挙げられる。特定の分類のコンテンツを抽出する一例として、抽出部19は、分類した結果に基づき、操作種別402が「タッチ」に分類された画像群を抽出したり、操作種別402が削除候補の画像データを削除した後、操作種別402が「タッチ」に分類された画像群を抽出したりしてもよい。また、特定の分類のコンテンツを抽出する他の一例としては、抽出部19は、操作種別402が「タッチ」に分類された画像群から、タッチ回数403の多い順に並べ替えて、例えば5回以上のタッチ回数の画像を抽出してもよい。
On the other hand, when it is determined that additional information is given, the
特定の分類のコンテンツを抽出する他の一例としては、抽出部19は、付加情報に含まれる優先度406に基づき、優先度406の高い操作種別402に分類された画像を抽出してもよい。例えば、図4の例では、抽出部19は、優先度406が「1」の「タッチ」に分類された画像、優先度406が「2」の「ズーム」に分類された画像、優先度406が「3」の「回転」に分類された画像の順に画像を抽出してもよい。また、分類方法は、これに限られず、ユーザの注目度を考慮した様々な方法を取り得る。例えば、抽出部19は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出してもよい。
As another example of extracting content of a specific classification, the
次に、表示部16は、抽出されたサムネイルを表示する(ステップS45)。次に、抽出部19は、サムネイルの再表示を行うかを判定する(ステップS46)。再表示すると判定された場合、ユーザは、操作画面から分類条件を変更する。分類条件の変更とは、例えば、優先度406を変更することが挙げられる。
Next, the display unit 16 displays the extracted thumbnail (step S45). Next, the
次に、抽出部19は、予め設定された特定の分類から上記ユーザ操作に応じて変更された特定の分類に基づき画像を再度分類する処理を行う(ステップS47)。ユーザが再表示を要求する間ステップS45〜ステップS47の処理は繰り返され、ユーザが再表示を要求しないとき、本処理は終了する。これにより、ユーザは、分類又は再分類により抽出された画像をプリントすることができる。
Next, the
以上に説明したように、本実施形態に係るコンテンツ取得装置10によれば、閲覧時に操作が行われた画像が優先的に抽出される。これは、画像の閲覧時にその画像がどれくらい接触操作されたかが、ユーザがどれくらいその画像に関心があったかを示す注目度と相関関係にあるとの観点に基づく。そして、本実施形態に係るコンテンツ取得装置10は、閲覧者の上記注目度を画像の付加情報として記録し、付加情報に基づき画像を分類する。また、本実施形態では、分類された画像から特定の分類の画像を抽出し、表示する。これにより、コンテンツの管理を容易に行うことができる。例えば、ユーザが閲覧時にタッチした画像だけを抽出してプリントアウトすることが可能となる。また、タッチされた画像から不必要と判断した画像を削除してから、残った画像のみをプリントアウトすることもできる。
As described above, according to the
さらに、本実施形態に係るコンテンツ取得装置10によれば、ステップS45〜ステップS47の処理を繰り返すことで、抽出された画像の数を更に絞り込むことができる。例えば、抽出部19は、特定の分類の画像を抽出する処理で、タッチされた画像を抽出したとする。記録部が画像の加工時に挿入されたコメントの内容を付加情報として記録していた場合、抽出部19は、抽出されているタッチされた画像から、気に入っているコメントが付与された画像を更に抽出することで、画像を更に絞り込むことができる。このように、本実施形態に係るコンテンツ取得装置10では、付加情報の組み合わせや付加情報の優先順位に基づき抽出すべき画像の特定の分類の条件を変更させることができる。これによれば、分類の条件が固定されている場合と比べて、分類に自由度があり、ユーザの嗜好や興味の傾向を分類の条件に反映させ易い。これにより、ユーザの注目度により合致したコンテンツを抽出することができる。
Furthermore, according to the
例えば、図6では、コンテンツID401が「0001」の画像には、タッチ、ズーム、回転の3つの操作が行われている。よって、コンテンツに対する操作種別402がタッチであって、タッチ回数403を特定の分類の条件として画像を抽出する場合には、コンテンツID401が「0001」の画像と「0002」の画像とが抽出される。しかし、操作種別402がタッチ、ズーム、回転を特定の分類の条件として画像を抽出する場合には、コンテンツID401が「0001」の画像は、「0002」の画像よりも先に抽出され、コンテンツID401が「0002」の画像は抽出されない場合もあり得る。このように、特定の分類の設定に自由度を持たせ、ユーザ操作によっても変更可能とすることにより、ユーザの注目度により合致したコンテンツを抽出することができる。
For example, in FIG. 6, three operations of touch, zoom, and rotation are performed on the image whose
[情報処理装置の全体構成例]
以上では、図1に示したコンテンツ取得装置10によって画像を撮影し、撮影した画像をコンテンツ取得装置10内の各機能を用いて分類し、管理した。しかしながら、本実施形態に係る付加情報付与処理及びコンテンツ抽出処理は、コンテンツ取得装置10内で実行せず、PC等の情報処理装置内で実行することも可能である。以下では、一実施形態に係る情報処理装置について、図7を参照しながら説明する。図7は、一実施形態に係る情報処理装置の全体構成を示した図である。
[Example of overall configuration of information processing apparatus]
In the above, an image is captured by the
一実施形態に係る情報処理装置20は、例えば、PC、タブレット型端末、スマートフォン、携帯電話、情報型端末PDA等であってもよい。情報処理装置20は、コンテンツを入力する手段として、コンテンツ入力部21を有する。情報処理装置20が有するその他の機能(記録部26、表示部27、制御部28、操作部29及び抽出部30)は、コンテンツ取得装置10が有するこれらの機能(記録部13、表示部16、制御部17、操作部18及び抽出部19)と同じであるため、ここでは説明を省略する。
The
コンテンツ入力部21は、USB(Universal Serial Bus)22、ネットワークI/F(インタフェース)23、カメラ24及びマイク25を有している。ただし、コンテンツ入力部21は、USB22又はネットワークI/F23を有していれば、カメラ24やマイク25は有していなくてもよい。
The
コンテンツ入力部21は、USB22に接続された媒体から画像データを入力してもよいし、ネットワークI/F23を介して接続されるコンテンツ取得装置10やその他の機器から画像データを入力してもよい。もちろん、カメラ24により撮影された画像やマイク25により取得した音声を入力してもよい。入力したコンテンツは、記録部13により記録される。情報処理装置20に設けられたHDDやRAM等の記録領域に記録される。
The
本実施形態に係る情報処理装置20においても、制御部28が、入力したコンテンツのうち、表示部27に表示しているコンテンツに対して操作が行われたことを示す付加情報を取得する。そして、記録部26が、その付加情報をコンテンツに関連付けて記録する。また、抽出部30は、コンテンツに関連付けて記録された付加情報にしたがってコンテンツを分類し、特定の分類のコンテンツを抽出する。本実施形態に係る情報処理装置20によっても、コンテンツ取得装置10の場合と同様に、コンテンツの管理を容易にすることができる。
Also in the
[音声の例]
以上の実施形態では、コンテンツとして画像を例に挙げて、付加情報付与処理及びコンテンツ抽出処理について説明し、画像データを分類した。しかしながら、本実施形態に係るコンテンツ取得装置10及び本実施形態に係る情報処理装置20では、音声についても同様に、付加情報付与処理及びコンテンツ抽出処理を実行することで音声データを分類することができる。
[Audio example]
In the above embodiment, the additional information adding process and the content extracting process are described by taking an image as the content as an example, and the image data is classified. However, in the
音声データに対する付加情報付与処理及びコンテンツ抽出処理について、図8を参照しながら説明する。音声データはマイク14又はマイク25から取得したり、USB22に接続された媒体やネットワークI/F23を介して接続される機器から入力したりすることができる。以下では、例えば音楽プレイヤー等のコンテンツ取得装置10を例に挙げて説明するが、情報処理装置20においても同様に実行することができる。
The additional information adding process and the content extracting process for the audio data will be described with reference to FIG. The audio data can be acquired from the
図8では、音声データが、表示部16にサムネイル表示されている。音声データがCDジャケットに収められた曲の場合、表示部16には、ジャケットの画像及びコンテンツID「0001」が示されたアイコンM1が表示される。音声データが録音された情報の場合には、録音マーク、録音日時及びコンテンツID「0002」、「0003」が示されたアイコンM2、M3が表示される。 In FIG. 8, the audio data is displayed as a thumbnail on the display unit 16. If the audio data is a song stored in a CD jacket, the display unit 16 displays an image of the jacket and an icon M1 indicating a content ID “0001”. If the audio data is recorded information, icons M2 and M3 indicating a recording mark, recording date and time, and content IDs “0002” and “0003” are displayed.
表示されているコンテンツのいずれかが操作された場合、制御部17は、操作されたコンテンツに対して前記操作されたことを示す付加情報を取得する。記録部13は、該付加情報を該コンテンツに関連付けて記録する。例えば、ユーザは、再生したいコンテンツをタッチ操作したり、クリックしたりして選択する。その結果、記録部13は、図8の右側に示したように、コンテンツID401が「0001」のコンテンツの付加情報として、操作種別402の「選択操作」、回数403の「1」回を記録する。また、ユーザが、選択したコンテンツの再生時に設定した音量を付加情報として記録してもよい。図8では、コンテンツID401が「0001」のコンテンツの付加情報として、音量407が「中」である情報が記録されている。
When any of the displayed contents is operated, the
抽出部19は、コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する。例えば、抽出部19は、再生回数が多い順にコンテンツの表示順を並べ替えてサムネイル表示してもよい。再生回数が同じ場合には、再生時の音量が高い場合に注目度が高いと推定して、音量が高い順にコンテンツの表示順を並べ替えてサムネイル表示してもよい。図8の左下には、回数403→音量407の順に付加情報を参照してコンテンツを抽出し、並べ替えた結果、アイコンM2、M3、M1の順番でコンテンツが表示されている。このとき、抽出部19は、まったく再生されていないコンテンツを抽出しないようにしてもよい。この場合、再生回数が「0」回のアイコンは表示されない。その他、抽出部19は、様々な分類方法、抽出方法を採用することができる。
The
[動画像の例]
本実施形態に係るコンテンツ取得装置10及び情報処理装置20では、動画像についても同様に、付加情報付与処理及びコンテンツ抽出処理を実行することができる。この場合、記録部13,26は、例えば、動画像が操作された回数(選択回数)だけでなく、動画像の編集(トリミング)等の加工度合い等を付加情報として記録してもよい。抽出部19,30は、動画像の操作回数や、加工度合いが高ければ優先度を高くし、特定の分類の動画像の抽出時に優先的に抽出される対象となるようにしてもよい。
[Example of moving image]
In the
以上に説明したように、本実施形態に係るコンテンツ取得装置10及び情報処理装置20では、画像を閲覧しているユーザが画像を操作したことが、ユーザがその画像に注目していることと推定する。このため、画像を閲覧しているユーザが画像を操作したことを示す付加情報が記録される。付加情報は、画像の自動分類に使用され、特定の分類の画像が抽出される。これにより、大量の画像の中からユーザ(閲覧者、操作者)の意図どおりに、自動的に大まかな画像の仕分けが可能となる。また、画像以外の音声等のコンテンツに関しても同様な方法で、ユーザが注目していると推定されるコンテンツを自動で抽出することができる。
As described above, in the
これによれば、撮影時又は撮影後に画像を表示させ、閲覧する際の画像への注目度に基づき画像を仕分けすることができるため、ユーザの主観や状況に応じた仕分けが可能となる。よって、誤った注目度に応じた仕分けが行われる可能性を低減することができる。また、画像の分類は付加情報に基づき行われ、ユーザが分類条件を設定する必要がない。このため、ユーザは、コンテンツの分類のために面倒な手間を強いられない。また、会話情報を得られない状況においても、精度の高いコンテンツの分類及び抽出けが可能となる。 According to this, since an image can be displayed at the time of shooting or after shooting, and the image can be sorted based on the degree of attention to the image at the time of browsing, sorting according to the user's subjectivity and situation becomes possible. Therefore, it is possible to reduce the possibility of performing sorting according to the erroneous attention level. Further, image classification is performed based on additional information, and the user does not need to set classification conditions. For this reason, the user is not burdened with troublesome time for content classification. Even in a situation where conversation information cannot be obtained, it is possible to classify and extract content with high accuracy.
(ハードウェア構成例)
最後に、コンテンツ取得装置10及び情報処理装置20のハードウェア構成例について簡単に説明する。図9は、本実施形態にかかるコンテンツ取得装置10及び情報処理装置20のハードウェア構成例を示す図である。
(Hardware configuration example)
Finally, a hardware configuration example of the
図9に示すように、コンテンツ取得装置10及び情報処理装置20は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107及びHDD(Hard Disk Drive)108を有し、それぞれがバスBで相互に接続されている。
As shown in FIG. 9, the
入力装置101は、コンテンツ取得装置10及び情報処理装置20に各操作を入力する際に用いられる。入力装置101は、キーボードやマウスなどであってもよい。表示装置102は、ディスプレイなどを含み、ユーザに撮影された画像やサムネイル等を表示する。
The
通信I/F107は、コンテンツ取得装置10及び情報処理装置20をネットワークに接続するインタフェースである。これにより、コンテンツ取得装置10及び情報処理装置20は、ネットワークを介して画像データや音声データの送受信を行うことができる。
The communication I / F 107 is an interface that connects the
HDD108は、プログラムやデータを格納している不揮発性の記録装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェアや各種機能を提供するアプリケーションソフトウェアなどがある。また、HDD108は、上記実施形態の付加情報付与処理やコンテンツ抽出処理を行うためにCPU106により実行されるプログラムを格納する。HDD108には、画像データや音声データが格納されてもよい。
The HDD 108 is a non-volatile recording device that stores programs and data. The stored programs and data include basic software that controls the entire apparatus and application software that provides various functions. The HDD 108 stores a program executed by the
外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。情報処理装置20は、外部I/F103を介して、記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、USBメモリ(Universal Serial Bus memory)の他、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)等がある。
The external I /
ROM105は、不揮発性の半導体メモリ(記録装置)であり、起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記録装置)である。CPU106は、上記記録装置(例えば「HDD」や「ROM」や「RAM」など)から、プログラムやデータをRAM上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。
The
制御部17,28、抽出部19、30の各部は、HDD108等にインストールされたプログラムがCPU106に実行させる処理により実現される。静止画像データ、動画像データ、音声データ等のコンテンツの記録領域には、例えば、RAM104、HDD108、又はコンテンツ取得装置10及び情報処理装置20にネットワークを介して接続される図示しない記録装置を用いることができる。
Each of the
以上、コンテンツ取得装置、情報処理装置、コンテンツ管理方法、コンテンツ管理プログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。 As described above, the content acquisition device, the information processing device, the content management method, and the content management program have been described with the embodiments. However, the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. Is possible.
例えば、本発明に係るコンテンツには、静止画像の電子データや、動画像の電子データや、音声の電子データ等が含まれる。また、本発明に係る操作されたコンテンツには、再生されていない状態における操作(例えば、フォルダ移動やファイルに対する操作等)が含まれてもよい。また、本発明に係る操作されたコンテンツには、再生されている状態における操作(例えば、表示されている画像に対する操作や、再生されている音声に対する操作等)が含まれてもよい。 For example, the content according to the present invention includes still image electronic data, moving image electronic data, audio electronic data, and the like. Further, the operated content according to the present invention may include an operation in a state where the content is not reproduced (for example, a folder move, an operation on a file, etc.). Further, the operated content according to the present invention may include an operation in a state of being reproduced (for example, an operation on a displayed image, an operation on a reproduced sound, etc.).
また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。例えば、本発明に係るコンテンツの操作は、画像、音声、画像と音声の組み合わせのいずれの操作であっても本発明を適用することができる。 In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range. For example, the present invention can be applied to any operation of content according to the present invention, which is an operation of an image, sound, or a combination of image and sound.
以上の説明に関し、更に以下の項を開示する。
(付記1)
コンテンツを取得する取得部と、
取得したコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録する記録部と、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する抽出部と、
を有することを特徴とするコンテンツ取得装置。
(付記2)
前記記録部は、前記操作の種別を前記付加情報に含めて記録する、
ことを特徴とする付記1に記載のコンテンツ取得装置。
(付記3)
前記抽出部は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
ことを特徴とする付記1又は2に記載のコンテンツ取得装置。
(付記4)
前記抽出されたコンテンツを表示する表示部を更に備え、
前記抽出部は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
ことを特徴とする付記1〜3のいずれか一項に記載のコンテンツ取得装置。
(付記5)
コンテンツを記録し、記録されたコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録する記録部と、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する抽出部と、
を有することを特徴とする情報処理装置。
(付記6)
前記記録部は、前記操作の種別を前記付加情報に含めて記録する、
ことを特徴とする付記5に記載のコンテンツ取得装置。
(付記7)
前記抽出部は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
ことを特徴とする付記5又は6に記載のコンテンツ取得装置。
(付記8)
前記抽出されたコンテンツを表示する表示部を更に備え、
前記抽出部は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
ことを特徴とする付記5〜7のいずれか一項に記載のコンテンツ取得装置。
(付記9)
コンテンツを取得し、
取得したコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録し、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータが実行するコンテンツ管理方法。
(付記10)
前記記録する処理は、前記操作の種別を前記付加情報に含めて記録する、
処理をコンピュータが実行することを特徴とする付記9に記載のコンテンツ管理方法。
(付記11)
前記抽出する処理は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
処理をコンピュータが実行することを特徴とする付記9又は10に記載のコンテンツ管理方法。
(付記12)
前記抽出されたコンテンツを表示し、
前記抽出する処理は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
処理をコンピュータが実行することを特徴とする付記9〜11のいずれか一項に記載のコンテンツ管理方法。
(付記13)
コンテンツを取得し、
取得したコンテンツのうち、操作されたコンテンツに対して前記操作されたことを示す付加情報を該コンテンツに関連付けて記録し、
前記コンテンツに関連付けて記録された付加情報にしたがって該コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータに実行させるコンテンツ管理プログラム。
(付記14)
前記記録する処理は、前記操作の種別を前記付加情報に含めて記録する、
処理をコンピュータに実行させることを特徴とする付記13に記載のコンテンツ管理プログラム。
(付記15)
前記抽出する処理は、予め設定された特定の分類、最後の抽出に使用された特定の分類、又は前記予め設定された特定の分類からユーザ操作に応じて変更された特定の分類のいずれか一つに応じてコンテンツを抽出する、
処理をコンピュータに実行させることを特徴とする付記13又は14に記載のコンテンツ管理プログラム。
(付記16)
前記抽出されたコンテンツを表示し、
前記抽出する処理は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
処理をコンピュータに実行させることを特徴とする付記13〜15のいずれか一項に記載のコンテンツ管理プログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
An acquisition unit for acquiring content;
Among the acquired contents, a recording unit that records additional information indicating the operation on the operated content in association with the content;
An extraction unit that classifies the content according to the additional information recorded in association with the content, and extracts content of a specific classification;
A content acquisition apparatus comprising:
(Appendix 2)
The recording unit records the type of operation included in the additional information;
The content acquisition device according to
(Appendix 3)
The extraction unit is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Extract content according to
The content acquisition device according to
(Appendix 4)
A display unit for displaying the extracted content;
The extraction unit changes the specific classification according to an operation performed by the user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content acquisition device according to any one of
(Appendix 5)
A recording unit that records content, and records additional information indicating that the operation has been performed on the operated content among the recorded content in association with the content;
An extraction unit that classifies the content according to the additional information recorded in association with the content, and extracts content of a specific classification;
An information processing apparatus comprising:
(Appendix 6)
The recording unit records the type of operation included in the additional information;
The content acquisition apparatus according to supplementary note 5, wherein
(Appendix 7)
The extraction unit is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Extract content according to
The content acquisition device according to appendix 5 or 6, characterized by the above.
(Appendix 8)
A display unit for displaying the extracted content;
The extraction unit changes the specific classification according to an operation performed by the user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content acquisition device according to any one of appendices 5 to 7, characterized in that:
(Appendix 9)
Get content,
Of the acquired content, the additional information indicating that the operation has been performed on the operated content is recorded in association with the content,
Classifying the content according to the additional information recorded in association with the content, and extracting content of a specific classification;
A content management method in which processing is executed by a computer.
(Appendix 10)
In the recording process, the operation type is included in the additional information and recorded.
The content management method according to appendix 9, wherein the processing is executed by a computer.
(Appendix 11)
The extraction process is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification. Extract content according to
The content management method according to
(Appendix 12)
Displaying the extracted content;
The extracting process changes the specific classification in accordance with an operation performed by a user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content management method according to any one of appendices 9 to 11, wherein the process is executed by a computer.
(Appendix 13)
Get content,
Of the acquired content, the additional information indicating that the operation has been performed on the operated content is recorded in association with the content,
Classifying the content according to the additional information recorded in association with the content, and extracting content of a specific classification;
A content management program that causes a computer to execute processing.
(Appendix 14)
In the recording process, the operation type is included in the additional information and recorded.
(Appendix 15)
The extraction process is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification. Extract content according to
15. The content management program according to
(Appendix 16)
Displaying the extracted content;
The extracting process changes the specific classification in accordance with an operation performed by a user based on the display result of the content, and re-extracts the content of the changed specific classification.
The content management program according to any one of
10:コンテンツ取得装置、13、26:記録部、16、27:表示部、17、28:制御部、18、29:操作部、19、30:抽出部、20:情報処理装置、21:コンテンツ入力部 10: Content acquisition device, 13, 26: Recording unit, 16, 27: Display unit, 17, 28: Control unit, 18, 29: Operation unit, 19, 30: Extraction unit, 20: Information processing device, 21: Content Input section
Claims (6)
取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録する記録部と、
前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定のタッチ操作の分類のコンテンツを抽出する抽出部と、
を有することを特徴とするコンテンツ取得装置。 An acquisition unit for acquiring content;
Of the acquired content, additional information including the type of touch operation on the touch screen of the displayed content , and the number of touch operations, scaling ratio, angle, and priority is recorded in association with the content. A recording section;
Referring to the recording unit, the type of touch operation included in the additional information, the number of touch operations, scaling factor, and the angle and at least one of priority, according to classifying the content, the classification of particular touch operation An extractor for extracting the content of
A content acquisition apparatus comprising:
ことを特徴とする請求項1に記載のコンテンツ取得装置。 The extraction unit is any one of a predetermined specific classification, a specific classification used for the last extraction, or a specific classification changed according to a user operation from the predetermined specific classification Extract content according to
The content acquisition apparatus according to claim 1 .
前記抽出部は、前記コンテンツの表示の結果に基づきユーザにより行われた操作に応じて前記特定の分類を変更し、該変更した特定の分類のコンテンツを再抽出する、
ことを特徴とする請求項1又は2に記載のコンテンツ取得装置。 A display unit for displaying the extracted content;
The extraction unit changes the specific classification according to an operation performed by the user based on the display result of the content, and re-extracts the content of the changed specific classification.
Content acquisition apparatus according to claim 1 or 2, characterized in that.
前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定のタッチ操作の分類のコンテンツを抽出する抽出部と、
を有することを特徴とする情報処理装置。 The content is recorded , and the additional information including the type of touch operation on the touch screen of the displayed content and at least one of the number of touch operations, the enlargement / reduction ratio, the angle, and the priority is recorded among the recorded content. A recording unit for recording in correspondence with
Referring to the recording unit, the type of touch operation included in the additional information, the number of touch operations, scaling factor, and the angle and at least one of priority, according to classifying the content, the classification of particular touch operation An extractor for extracting the content of
An information processing apparatus comprising:
記録部が、取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録し、
抽出部が、前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータが実行するコンテンツ管理方法。 The acquisition unit acquires the content,
Recording section, among the acquired content, corresponding with the type of the touch operation on the touch screen of the display content, the number of touch operations, scaling factor, and at least one of angle and priorities, the additional information including the said content Let me record,
The extraction unit refers to the recording unit , classifies the content according to the type of touch operation included in the additional information, and at least one of the number of touch operations, the enlargement / reduction ratio, the angle, and the priority . Extract the content of the classification,
A content management method in which processing is executed by a computer.
取得したコンテンツのうち、表示されたコンテンツのタッチ画面に対するタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、を含む付加情報を該コンテンツに対応させて記録部に記録し、
前記記録部を参照して、前記付加情報に含まれるタッチ操作の種別と、タッチ操作の回数、拡縮率、角度及び優先度の少なくともいずれかと、に従い前記コンテンツを分類し、特定の分類のコンテンツを抽出する、
処理をコンピュータに実行させるコンテンツ管理プログラム。 Get content,
Of the acquired content, a recording unit that associates the additional information including the type of touch operation with respect to the touch screen of the displayed content and at least one of the number of touch operations, the scaling ratio, the angle, and the priority with the content recorded in,
Referring to the recording unit, the content is classified according to the type of touch operation included in the additional information and at least one of the number of touch operations, the scaling rate, the angle, and the priority. Extract,
A content management program that causes a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013075035A JP6089892B2 (en) | 2013-03-29 | 2013-03-29 | Content acquisition apparatus, information processing apparatus, content management method, and content management program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013075035A JP6089892B2 (en) | 2013-03-29 | 2013-03-29 | Content acquisition apparatus, information processing apparatus, content management method, and content management program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014199599A JP2014199599A (en) | 2014-10-23 |
JP6089892B2 true JP6089892B2 (en) | 2017-03-08 |
Family
ID=52356440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013075035A Expired - Fee Related JP6089892B2 (en) | 2013-03-29 | 2013-03-29 | Content acquisition apparatus, information processing apparatus, content management method, and content management program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6089892B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003044511A (en) * | 2001-07-26 | 2003-02-14 | Fuji Photo Film Co Ltd | Display device, image pickup device, image retrieval device, and program |
JP2007226555A (en) * | 2006-02-23 | 2007-09-06 | Matsushita Electric Ind Co Ltd | Browsing device for unconsciously shot image and its method |
JP2007323416A (en) * | 2006-06-01 | 2007-12-13 | Canon Inc | Method for classifying digital image by operation history |
JP5037483B2 (en) * | 2008-12-22 | 2012-09-26 | シャープ株式会社 | Content playback apparatus, content playback method, content playback processing program, and computer-readable recording medium |
JP5402375B2 (en) * | 2009-08-07 | 2014-01-29 | ソニー株式会社 | Information processing apparatus, reference value determination method, and program |
JP2012088997A (en) * | 2010-10-21 | 2012-05-10 | Canon Inc | Image retrieval apparatus, image retrieval method, program and storage medium |
JP2012160795A (en) * | 2011-01-31 | 2012-08-23 | Hitachi Consumer Electronics Co Ltd | Content recommendation apparatus |
-
2013
- 2013-03-29 JP JP2013075035A patent/JP6089892B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014199599A (en) | 2014-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10846324B2 (en) | Device, method, and user interface for managing and interacting with media content | |
JP4752897B2 (en) | Image processing apparatus, image display method, and image display program | |
CN101662584B (en) | Information processing device and method | |
JP5139296B2 (en) | Information processing device | |
US8879890B2 (en) | Method for media reliving playback | |
US20110022982A1 (en) | Display processing device, display processing method, and display processing program | |
US9082452B2 (en) | Method for media reliving on demand | |
US9449027B2 (en) | Apparatus and method for representing and manipulating metadata | |
US20070185890A1 (en) | Automatic multimode system for organizing and retrieving content data files | |
US8375312B2 (en) | Classifying digital media based on content | |
JP2012507189A (en) | Image placement within pages using content-based filtering and theme-based clustering | |
JP2005276178A (en) | Rapid visual sorting for digital file and data | |
US20130167055A1 (en) | Method, apparatus and system for selecting a user interface object | |
WO2010021625A1 (en) | Automatic creation of a scalable relevance ordered representation of an image collection | |
TWI556640B (en) | Media file management method and system, and computer-readable medium | |
US8320667B2 (en) | Automatic and scalable image selection | |
JP2009217828A (en) | Image retrieval device | |
TWI547156B (en) | Methods for media file management | |
Wu et al. | Point-of-capture archiving and editing of personal experiences from a mobile device | |
WO2013124528A1 (en) | Method, apparatus and computer program product for management of media files | |
JP6089892B2 (en) | Content acquisition apparatus, information processing apparatus, content management method, and content management program | |
US20130308836A1 (en) | Photo image managing method and photo image managing system | |
JP2007133838A (en) | Image display method and image display program | |
KR20090003939A (en) | How to manage portrait image files on your computer | |
JP2011176574A (en) | Digital camera, device and program for filing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160927 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170123 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6089892 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |