[go: up one dir, main page]

JP7574880B1 - Recording device and program - Google Patents

Recording device and program Download PDF

Info

Publication number
JP7574880B1
JP7574880B1 JP2023085268A JP2023085268A JP7574880B1 JP 7574880 B1 JP7574880 B1 JP 7574880B1 JP 2023085268 A JP2023085268 A JP 2023085268A JP 2023085268 A JP2023085268 A JP 2023085268A JP 7574880 B1 JP7574880 B1 JP 7574880B1
Authority
JP
Japan
Prior art keywords
user
image
reaction
recording
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023085268A
Other languages
Japanese (ja)
Other versions
JP2024168518A (en
Inventor
千夏 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2023085268A priority Critical patent/JP7574880B1/en
Application granted granted Critical
Publication of JP7574880B1 publication Critical patent/JP7574880B1/en
Publication of JP2024168518A publication Critical patent/JP2024168518A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】写真等の利用促進につながる記録装置等を提供する。【解決手段】ユーザ端末2は、写真をディスプレイに表示する表示手段210と、ディスプレイに表示された写真を見た時の感情に基づくユーザの受動的な反応データを取得する取得手段220と、反応データに基づき、写真を見た時のユーザの反応結果を当該写真と紐づけて記録する記録手段230と、を有する。反応データは例えばユーザの生体情報であり、取得手段220は、ユーザに装着したウェアラブルデバイス3から反応データを受信する。【選択図】図4[Problem] To provide a recording device etc. that leads to the promotion of the use of photos etc. [Solution] A user terminal 2 has a display means 210 that displays photos on a display, an acquisition means 220 that acquires passive reaction data of a user based on the emotions felt when viewing a photo displayed on the display, and a recording means 230 that records the result of the user's reaction when viewing a photo based on the reaction data, linking it to the photo. The reaction data is, for example, biometric information of the user, and the acquisition means 220 receives the reaction data from a wearable device 3 worn by the user. [Selected Figure] Figure 4

Description

本発明は、写真等の画像の有効利用を促進するための記録装置等に関する。 The present invention relates to a recording device that promotes the effective use of images such as photographs.

写真撮影がデジタル化し、撮影数が膨大になるにつれ、いい写真をプリントしたり、フォトブックにまとめたりする作業が大掛かりになり、せっかく撮った写真がうもれてしまうことも多い。 As photography becomes digitalized and the number of photos taken increases dramatically, the task of printing good photos and compiling them into a photo book becomes more involved, and often the photos you've taken end up going unnoticed.

これに対し、特許文献1には、写真のピントの鮮鋭さや構図の良さ、被写体の笑顔度といった客観的尺度を用いて「いい写真」を簡単に検索できるシステムについて開示されており、撮影した写真を有効利用する助けとなっている。 In response to this, Patent Document 1 discloses a system that makes it easy to search for "good photos" using objective criteria such as the sharpness of the focus, the quality of the composition, and the degree to which the subject smiles, helping to make effective use of the photos that have been taken.

特開2007-097090号公報JP 2007-097090 A

しかしながら、実際に写真を見たときにときめいたり、キュンとしたり、過去の思い出を呼び起こしたりする対象は、前記のような客観的尺度によって分析された「いい写真」と合致するとは限らない。 However, the things that make us feel excited, thrilled, or evoke memories when we see them in real life do not necessarily match what we consider to be "good photos" analyzed using the objective criteria mentioned above.

例えば、ピントがあっておらずぶれた写真に躍動感を感じたり、画像にはみ出した子供の顔に愛着を持ったりすることもある。また子供が泣いている写真でも、その子供の親にとっては笑顔と同じくらい愛おしい感情を呼び起こすこともあり、これらの写真の重要性を、ピントや構図、笑顔度等を基準とした客観的尺度で測ることは難しい。 For example, we may sense a sense of dynamism in an out-of-focus, blurry photograph, or feel attached to a child's face that is visible in the image. A photograph of a crying child may also evoke feelings of love for the child's parents that are as strong as a smiling face, making it difficult to objectively measure the importance of such photographs using criteria such as focus, composition, or the degree of the smile.

写真を見て感じたときめきやキュンとする気持ち、思い出等を写真とともに記憶し、写真を見るたびに呼び起こすことこそが、写真の価値ともいえるが、従来の技術では、これらの主観的な重要性を有する写真を有効に検索したり抽出したりすることはできず、写真の利用促進の面では課題があった。 The value of a photograph lies in the fact that it allows us to remember the excitement, thrills, and memories we feel when we see it, and evokes them every time we look at it. However, conventional technology has not been able to effectively search for or extract photos that have this subjective importance, and this has created challenges in terms of promoting the use of photos.

本発明は上記の課題に鑑みてなされたものであり、写真等の利用促進につながる記録装置等を提供することを目的とする。 The present invention was made in consideration of the above problems, and aims to provide a recording device etc. that will lead to the promotion of the use of photographs etc.

前述した課題を解決するための第1の発明は、画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録装置であって、ユーザの操作に応じて、前記記録装置の記憶部、または、前記記録装置とネットワークを介して接続されたコンピュータに格納された既存の前記画像をディスプレイに表示する表示手段と、前記ディスプレイに表示された前記画像を見た時の感情に基づくユーザの受動的な反応データを取得する取得手段と、前記反応データに基づき、前記画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録手段と、を有することを特徴とする記録装置である。
前記記録装置は、例えば、表示対象の全ての前記画像を表示するまで、前記画像を前記ディスプレイに表示して前記反応データを取得し、前記反応結果を前記画像と紐づけて記録する処理を繰り返す。
The first invention for solving the above-mentioned problems is a recording device that records a user's reaction results when viewing an image by linking the result to the image, characterized in that the recording device has: a display means that displays an existing image stored in a memory unit of the recording device or a computer connected to the recording device via a network on a display in response to user operation; an acquisition means that acquires passive reaction data of the user based on emotions when viewing the image displayed on the display; and a recording means that records the user's reaction results when viewing the image based on the reaction data by linking the result to the image.
The recording device repeats the process of displaying the images on the display, acquiring the reaction data, and recording the reaction results in association with the images, for example, until all of the images to be displayed have been displayed.

本発明では、写真等の画像を見た人の感情から来る受動的な反応データを取得し、その人が画像を見た時の反応結果を画像と紐づけて記録する。同じ画像であっても見る人によって反応は異なり、またその反応は画像の客観的尺度による評価とも相違することが多く、本発明では、画像を見てときめいた、キュンとした、過去の思い出が呼び起こされたなどユーザの感情的(主観的)な評価を画像に付与することで、これらの評価に基づいて画像を後から検索したり、抽出したりすることが可能になり、画像の有効利用に寄与する。またユーザは写真を見るだけで良く、感想をテキスト入力したり「いいね」ボタンを押したりするなどの能動的な行動が不要なので、操作も簡単である。 In this invention, passive reaction data based on the emotions of people who view images such as photographs is acquired, and the reaction results of the people when they viewed the image are linked to the image and recorded. The same image will have different reactions depending on the person viewing it, and these reactions often differ from the evaluation of the image based on objective measures. In this invention, by assigning the user's emotional (subjective) evaluation to the image, such as "I was excited when I saw the image," "It made my heart flutter," or "It evoked memories from the past," it becomes possible to search for or extract images later based on these evaluations, contributing to the effective use of images. In addition, the operation is simple, as users only need to look at the photo and no active actions such as entering their impressions in text or pressing the "Like" button are required.

前記反応データはユーザの生体情報であり、前記取得手段は、ユーザに装着したウェアラブルデバイスから前記反応データを受信することが望ましい。
前記の反応データは、例えばユーザの体温や心拍数などの生体情報とすることができ、ユーザが特に意識しない反応も記録することができる。
It is desirable that the reaction data is biometric information of a user, and that the acquisition means receives the reaction data from a wearable device worn by the user.
The reaction data may be biological information such as the user's body temperature or heart rate, and may also include reactions that the user is not particularly aware of.

前記反応データはユーザの表情を示すユーザの撮影画像であり、前記取得手段は、ユーザを撮影してその撮影画像を取得することが望ましい。
反応データはユーザの表情を示す撮影画像でもよく、この場合は、既知の画像認識技術等を用い、撮影画像からユーザの感情の種類を判別し、反応結果として記録することもできる。
It is desirable that the reaction data is a captured image of the user showing a facial expression of the user, and that the acquisition means acquires the captured image by photographing the user.
The reaction data may be a captured image showing the user's facial expression. In this case, known image recognition technology or the like may be used to determine the type of emotion the user is feeling from the captured image and record it as the reaction result.

前記記録装置は、前記ディスプレイを備えた携帯端末であることも望ましい。
記録装置は、例えばスマートフォン等のディスプレイを備えた携帯端末とすることができ、スマートフォン等で表示した画像について、ユーザの反応結果を記録することができる。
It is also preferable that the recording device is a mobile terminal equipped with the display.
The recording device may be, for example, a mobile terminal equipped with a display, such as a smartphone, and may record the user's reaction to an image displayed on the smartphone or the like.

第2の発明は、コンピュータを、画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録装置であって、ユーザの操作に応じて、前記記録装置の記憶部、または、前記記録装置とネットワークを介して接続されたコンピュータに格納された既存の前記画像をディスプレイに表示する表示手段と、前記ディスプレイに表示された前記画像を見た時の感情に基づくユーザの受動的な反応データを取得する取得手段と、前記反応データに基づき、前記画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録手段と、を有する記録装置として機能させるためのプログラムである。 A second invention is a program for causing a computer to function as a recording device that records the results of a user's reaction when viewing an image by linking the image to the recording device, the recording device having: a display means that displays on a display an existing image stored in the memory unit of the recording device or a computer connected to the recording device via a network in response to user operation; an acquisition means that acquires passive reaction data of the user based on the emotions felt when viewing the image displayed on the display; and a recording means that records the results of the user's reaction when viewing the image based on the reaction data by linking the image to the image.

本発明により、写真等の利用促進につながる記録装置等を提供することができる。 This invention makes it possible to provide a recording device etc. that will lead to increased use of photography etc.

記録システム1を示す図。FIG. 1 shows a recording system 1. ユーザ端末2の構成を示す図。FIG. 2 shows a configuration of a user terminal 2. ウェアラブルデバイス3の構成を示す図。FIG. 2 is a diagram showing the configuration of a wearable device 3. 記録システム1の機能を示す図。FIG. 2 is a diagram showing the functions of the recording system 1. 記録システム1における処理を示すフローチャート。4 is a flowchart showing a process in the recording system 1. サーバ4を含むシステム例。1 is an example of a system including a server 4. ユーザの撮影画像を反応データとする場合のフローチャート。13 is a flowchart for a case where a photographed image of a user is used as reaction data.

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。 The following describes in detail a preferred embodiment of the present invention with reference to the drawings.

(1.記録システム1)
図1は、本発明の記録装置の実施形態に係るユーザ端末2を含む記録システム1を示す図である。記録システム1は、ユーザ端末2のディスプレイに表示された画像を見た時のユーザの反応結果を当該画像と紐づけて記録するものであり、図1に示すように、ユーザ端末2とウェアラブルデバイス3とを通信可能に接続した構成を有する。
(1. Recording System 1)
1 is a diagram showing a recording system 1 including a user terminal 2 according to an embodiment of the recording apparatus of the present invention. The recording system 1 records a user's reaction when viewing an image displayed on the display of the user terminal 2 in association with the image, and has a configuration in which the user terminal 2 and a wearable device 3 are communicatively connected as shown in FIG.

ユーザ端末2はユーザの所持する端末であり、上記反応結果の記録に関する各種の処理を行うコンピュータ(コンピュータ端末)である。本実施形態では、ユーザ端末2として、スマートフォン、タブレット端末などの携帯端末が用いられる。 The user terminal 2 is a terminal owned by the user, and is a computer (computer terminal) that performs various processes related to recording the above-mentioned reaction results. In this embodiment, a mobile terminal such as a smartphone or a tablet terminal is used as the user terminal 2.

図2はユーザ端末2の構成を示す図である。図2に示すように、ユーザ端末2は、制御部21、記憶部22、ディスプレイ23、入力部24、通信部25、カメラ26、音声入出力部27等をバス等により接続して構成される。ただし、ユーザ端末2はこれに限ることなく、適宜様々な構成をとることができる。 Figure 2 is a diagram showing the configuration of the user terminal 2. As shown in Figure 2, the user terminal 2 is configured by connecting a control unit 21, a storage unit 22, a display 23, an input unit 24, a communication unit 25, a camera 26, an audio input/output unit 27, etc., via a bus or the like. However, the user terminal 2 is not limited to this and can have various configurations as appropriate.

制御部21は、CPU、ROM、RAMなどから構成される。CPUは、記憶部22、ROMなどの記憶媒体に格納されたユーザ端末2の処理に係るプログラムをRAM上のワークエリアに呼び出して実行し、ユーザ端末2の各部を制御して後述する処理を実現する。ROMは不揮発性メモリであり、ブートプログラムやBIOSなどのプログラム、データなどを恒久的に保持している。RAMは揮発性メモリであり、記憶部22、ROMなどからロードしたプログラムやデータを一時的に保持するとともに、制御部21が各種処理を行うために使用するワークエリアを備える。 The control unit 21 is composed of a CPU, ROM, RAM, etc. The CPU loads programs related to the processing of the user terminal 2 stored in storage media such as the memory unit 22 and ROM into a work area on the RAM, executes them, and controls each part of the user terminal 2 to realize the processing described below. The ROM is a non-volatile memory, and permanently stores programs such as the boot program and BIOS, as well as data. The RAM is a volatile memory, and temporarily stores programs and data loaded from the memory unit 22, ROM, etc., and has a work area that the control unit 21 uses to perform various processes.

記憶部22はフラッシュメモリ等であり、後述する処理に際しユーザ端末2が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーションシステム)等が格納される。これらのプログラムやデータは、制御部21により必要に応じて読み出され、実行される。 The storage unit 22 is a flash memory or the like, and stores programs executed by the user terminal 2 during processing described below, data required for program execution, an OS (operating system), etc. These programs and data are read and executed by the control unit 21 as necessary.

ディスプレイ23は例えば液晶パネル等であり、入力部24を兼ねたタッチパネル付ディスプレイとして実現される。ディスプレイ23は、ユーザ端末2の操作、選択に係る各種の画面を表示し、画面上のタッチパネル操作によるユーザの指示入力等を受付ける。 The display 23 is, for example, a liquid crystal panel, and is realized as a touch panel display that also serves as the input unit 24. The display 23 displays various screens related to the operation and selection of the user terminal 2, and accepts user input of instructions, etc., via touch panel operations on the screen.

通信部25は、無線通信等による通信を媒介する通信インタフェースであり、ウェアラブルデバイス3等との間で通信を行う。 The communication unit 25 is a communication interface that mediates communication via wireless communication, etc., and communicates with the wearable device 3, etc.

カメラ26はCCD(Charged Coupled Device)等の撮像素子を有するエリアカメラであり、音声入出力部27は、音声入力を行うためのマイクや音声出力を行うためのスピーカーを備える。 The camera 26 is an area camera having an imaging element such as a CCD (Charged Coupled Device), and the audio input/output unit 27 has a microphone for audio input and a speaker for audio output.

図1の説明に戻る。ウェアラブルデバイス3はユーザが装着して用いる端末であり、例えばリストバンド型あるいは腕時計型の端末である。ただし、ウェアラブルデバイス3はこれに限らず、イヤホン型、イヤリング型、ブレスレット型、ヘッドギア型、メガネ型の端末等を用いることもできる。 Returning to the explanation of FIG. 1, the wearable device 3 is a terminal worn by the user, for example a wristband-type or watch-type terminal. However, the wearable device 3 is not limited to this, and earphone-type, earring-type, bracelet-type, headgear-type, or eyeglass-type terminals can also be used.

図3はウェアラブルデバイス3の構成を示す図である。図3に示すように、ウェアラブルデバイス3は、メインコントローラ31、ディスプレイ32、体温センサ33、心拍センサ34、無線モジュール35等を有する。 Figure 3 is a diagram showing the configuration of the wearable device 3. As shown in Figure 3, the wearable device 3 has a main controller 31, a display 32, a body temperature sensor 33, a heart rate sensor 34, a wireless module 35, etc.

メインコントローラ31は、ウェアラブルデバイス3全体の制御を行う制御部であり、CPU、ROM、RAM、メモリなどを有する。CPU、ROM、RAMについては前記したものと略同様である。メモリには、ウェアラブルデバイス3の各種の設定情報やウェアラブルデバイス3で測定した測定データ等が格納される。 The main controller 31 is a control unit that controls the entire wearable device 3, and has a CPU, ROM, RAM, memory, etc. The CPU, ROM, and RAM are substantially the same as those described above. The memory stores various setting information for the wearable device 3, measurement data measured by the wearable device 3, etc.

ディスプレイ32は、小型液晶パネルや電子ペーパーなどの簡易ディスプレイである。 Display 32 is a simple display such as a small LCD panel or electronic paper.

体温センサ33と心拍センサ34は、ウェアラブルデバイス3を装着したユーザの生体情報として、ユーザの体温と心拍数をそれぞれ測定する。体温センサ33や心拍センサ34には既知のセンサを用いることができる。 The body temperature sensor 33 and the heart rate sensor 34 measure the body temperature and heart rate of the user, respectively, as biometric information of the user wearing the wearable device 3. Known sensors can be used for the body temperature sensor 33 and the heart rate sensor 34.

無線モジュール35は、ユーザ端末2との間で無線通信を行い、ユーザ端末2に上記のセンサ33、34による測定データの送信を行うための通信部であり、アンテナ等を備える。 The wireless module 35 is a communication unit that performs wireless communication with the user terminal 2 and transmits measurement data from the above-mentioned sensors 33 and 34 to the user terminal 2, and is equipped with an antenna, etc.

(2.記録システム1の機能)
図4は、記録システム1の機能を示すブロック図である。図4に示すように、記録システム1において、ユーザ端末2(記録装置)は、表示手段210、取得手段220、記録手段230等を有する。
(2. Functions of Recording System 1)
Fig. 4 is a block diagram showing the functions of the recording system 1. As shown in Fig. 4, in the recording system 1, the user terminal 2 (recording device) has a display unit 210, an acquisition unit 220, a recording unit 230, and the like.

表示手段210は、ユーザ端末2の制御部21が、記憶部22に格納された写真(静止画像)をディスプレイ23に表示させるものである。 The display means 210 causes the control unit 21 of the user terminal 2 to display the photographs (still images) stored in the memory unit 22 on the display 23.

取得手段220は、ユーザ端末2の制御部21が、ディスプレイ23に表示された写真を見た時の感情に基づくユーザの受動的な反応データを取得するものである。受動的な反応データとは、感想をテキスト入力したり「いいね」ボタンを押したりするなどの能動的な行動を伴わない反応を示すデータである。この反応データは例えば前記したユーザの生体情報であるが、ユーザの感情に基づくものであれば特に限定されない。 The acquisition means 220 is for the control unit 21 of the user terminal 2 to acquire passive reaction data of the user based on the emotions felt when viewing a photo displayed on the display 23. Passive reaction data is data indicating reactions that do not involve active actions such as inputting impressions in text or pressing a "Like" button. This reaction data is, for example, the biometric information of the user described above, but is not particularly limited as long as it is based on the user's emotions.

記録手段230は、ユーザ端末2の制御部21が、上記の反応データに基づき、写真を見た時のユーザの反応結果を当該写真と紐づけて記録するものである。 The recording means 230 is a means by which the control unit 21 of the user terminal 2 records the user's reaction results when viewing a photo based on the above-mentioned reaction data, linking the reaction results to the photo.

(3.記録システム1の処理)
次に、図5等を参照し、記録システム1で実行される処理について説明する。図5は記録システム1における処理を示すフローチャートであり、図5の各処理は、ユーザ端末2の制御部21がユーザ端末2の各部を制御して実行する。
(3. Processing of Recording System 1)
Next, with reference to Fig. 5 etc., a description will be given of the processing executed in the recording system 1. Fig. 5 is a flowchart showing the processing in the recording system 1, and each processing in Fig. 5 is executed by the control unit 21 of the user terminal 2 by controlling each unit of the user terminal 2.

本実施形態において、ユーザ端末2は、ユーザの操作に応じてアプリケーションを起動し、記憶部22に格納された写真をディスプレイ23に表示する(S1)。 In this embodiment, the user terminal 2 launches an application in response to a user operation and displays the photos stored in the memory unit 22 on the display 23 (S1).

ユーザは、ディスプレイ23に表示された画像を眺める。この時、ウェアラブルデバイス3はユーザの生体情報を継時的に測定しており、測定された生体情報をユーザ端末2に送信する。ユーザ端末2は、その生体情報を反応データとして受信し、取得する(S2)。前記したように、生体情報は、体温センサ33で測定される体温や心拍センサ34で測定される心拍数であるが、これらに限定されることはない。例えば脳波等であってもよい。 The user looks at the image displayed on the display 23. At this time, the wearable device 3 continuously measures the user's biological information and transmits the measured biological information to the user terminal 2. The user terminal 2 receives and acquires the biological information as reaction data (S2). As described above, the biological information is body temperature measured by the body temperature sensor 33 and heart rate measured by the heart rate sensor 34, but is not limited to these. For example, it may be brain waves, etc.

ユーザ端末2は反応データを解析し(S3)、反応データがユーザの喜び、驚き、落ち着きなどの感情を現すものである場合(S4;YES)、ユーザが写真を見た時にその感情を生じた旨の情報を反応結果として写真に紐づけて記録する(S5)。生体情報がユーザの感情を特に現すものでない場合は(S4;NO)、そのままS6の処理に移行する。 The user terminal 2 analyzes the reaction data (S3), and if the reaction data indicates the user's emotions such as joy, surprise, or calm (S4; YES), the user terminal 2 records information indicating that emotion occurred when the user viewed the photograph as a reaction result, linking it to the photograph (S5). If the biometric information does not indicate any particular emotion of the user (S4; NO), the process proceeds directly to S6.

反応データの解析および判定の手法は特に限定されないが、例えば、S3において前記した反応データの値やその時間変化量を所定の閾値と比較し、S4において、反応データの値やその時間変化量が閾値以上であれば、その閾値に対応する感情(例えば、喜び等)が反応データに現れていると判定できる。あるいは、反応データの値等が閾値未満である場合に、その閾値に対応する感情(例えば、落ち着き等)が反応データに現れていると判定してもよい。また2種類以上の生体情報を組み合わせて解析および判定に用いてもよいし、1種類の生体情報を解析および判定に用いてもよい。 The method of analyzing and judging the reaction data is not particularly limited, but for example, in S3, the value of the reaction data or its change over time is compared with a predetermined threshold, and in S4, if the value of the reaction data or its change over time is equal to or greater than the threshold, it can be judged that an emotion corresponding to the threshold (e.g., joy, etc.) is expressed in the reaction data. Alternatively, if the value of the reaction data is less than the threshold, it can be judged that an emotion corresponding to the threshold (e.g., calmness, etc.) is expressed in the reaction data. In addition, two or more types of bioinformation may be combined and used for analysis and judgment, or one type of bioinformation may be used for analysis and judgment.

ユーザ端末2は、表示対象の全ての写真を表示するまで(S6;NO)、S1からS5の処理を繰り返し、全ての写真を表示すれば(S6;YES)、処理を終了する。 The user terminal 2 repeats the processes from S1 to S5 until all photos to be displayed have been displayed (S6; NO), and ends the process when all photos have been displayed (S6; YES).

こうして記録された反応結果は、写真の検索・抽出等に利用することができる。例えば喜び等の感情を閲覧者にもたらした写真を、上記反応結果をキーとして容易に検索・抽出し、フォトブック等としてまとめることができる。また写真の付加価値として、閲覧者の感情を記録することにより、閲覧者が亡くなったあとに残された写真に対する思いを知ることもできる。また、著名人やスポーツ選手などを閲覧者とすることで、著名人やスポーツ選手等の感情という付加価値付きの写真を販売等することも可能となる。 The reaction results recorded in this way can be used to search and extract photos. For example, photos that evoked emotions such as joy in the viewer can be easily searched and extracted using the reaction results as a key, and compiled into a photo book or the like. Furthermore, by recording the viewer's emotions as added value to the photo, it is possible to learn the viewer's feelings about the photos left behind after their death. Furthermore, by having celebrities or athletes as viewers, it is possible to sell photos with added value in the form of the emotions of the celebrity or athlete, etc.

以上説明したように、本実施形態では、写真を見た人の感情から来る受動的な反応データを取得し、その人が写真を見た時の反応結果を写真と紐づけて記録する。同じ写真であっても見る人によって反応は異なり、またその反応は写真の客観的尺度による評価とも相違することが多く、本実施形態では、写真を見てときめいた、キュンとした、過去の思い出が呼び起こされたなどユーザの感情的(主観的)な評価を写真に付与することで、これらの評価に基づいて写真を後から検索したり、抽出したりすることが可能になり、写真の有効利用に寄与する。またユーザはたくさんの写真を一通り見るだけで良く、感想をテキスト入力したり「いいね」ボタンを押したりするなどの能動的な行動が不要なので、操作も簡単である。 As explained above, in this embodiment, passive reaction data based on the emotions of the person who viewed the photo is acquired, and the reaction of the person when viewing the photo is linked to the photo and recorded. The same photo will have different reactions depending on the person viewing it, and these reactions often differ from the evaluation of the photo based on objective measures. In this embodiment, by assigning the user's emotional (subjective) evaluation to the photo, such as the photo making the user excited, making the heart flutter, or evoking memories from the past, it becomes possible to later search or extract photos based on these evaluations, which contributes to the effective use of photos. In addition, the user only needs to look through many photos at once, and there is no need for active actions such as entering impressions in text or pressing the "Like" button, so operation is simple.

また本実施形態では、上記の反応データをユーザの体温や心拍数などの生体情報とすることで、ユーザが特に意識しない反応も記録することができる。 In addition, in this embodiment, the above reaction data is treated as biometric information such as the user's body temperature and heart rate, making it possible to record reactions that the user is not particularly aware of.

しかしながら、本発明は上記の実施形態に限定されない。例えば本実施形態ではユーザ端末2に格納された写真を表示しているが、図6に示すように、ユーザ端末2とネットワークを介して接続されたサーバ4(コンピュータ)にユーザのアカウント等と紐づけて写真を格納しておき、この写真をユーザ端末2に送信してディスプレイ23に表示するようにしてもよい。 However, the present invention is not limited to the above embodiment. For example, in this embodiment, photos stored in the user terminal 2 are displayed, but as shown in FIG. 6, photos may be stored in a server 4 (computer) connected to the user terminal 2 via a network in association with a user account, etc., and the photos may be sent to the user terminal 2 and displayed on the display 23.

この場合、ユーザ端末2がウェアラブルデバイス3から反応データを受信して反応結果の記録要求をサーバ4に行うか、サーバ4がユーザ端末2から(ウェアラブルデバイス3で測定した)反応データを受信して反応結果の記録を行う。前者の場合、ユーザ端末2が本発明の記録装置として機能し、後者の場合、サーバ4が本発明の記録装置として機能する。 In this case, the user terminal 2 receives the reaction data from the wearable device 3 and requests the server 4 to record the reaction results, or the server 4 receives the reaction data (measured by the wearable device 3) from the user terminal 2 and records the reaction results. In the former case, the user terminal 2 functions as the recording device of the present invention, and in the latter case, the server 4 functions as the recording device of the present invention.

また本実施形態では、ユーザの受動的な反応データとしてウェアラブルデバイス3によって測定した生体情報を用いているが、現在では人の表情を撮影した撮影画像から感情を分析するAI(人工知能)などを用いた画像認識技術に関する研究も進んでいる。そのため、生体情報の代わりに、ユーザ端末2のカメラ26でユーザの表情を撮影した撮影画像を用いることもできる。 In addition, in this embodiment, biometric information measured by the wearable device 3 is used as passive reaction data of the user, but currently, research is progressing on image recognition technology using AI (artificial intelligence) and the like that analyzes emotions from images of people's facial expressions. Therefore, instead of biometric information, it is also possible to use images of the user's facial expressions captured by the camera 26 of the user terminal 2.

この場合のフローが図7であり、前記した図5のフローと比較すると、ウェアラブルデバイス3から反応データを受信する(図5のS2参照)代わりに、ユーザ端末2がカメラ26を起動してユーザの表情を撮影し、その撮影画像を反応データとして取得する(図7のS2’)点で異なる。S3では前記の画像認識技術を用いて撮影画像におけるユーザの表情を解析し、何らかの感情を示すものであるか否かをS4において判定すればよい。ユーザの表情に何らかの感情が示されている場合、その感情の種類(喜び、驚き、落ち着き等)を判別し、その結果を反応結果として記録することもできる。 The flow in this case is shown in Figure 7, which differs from the flow in Figure 5 described above in that instead of receiving reaction data from the wearable device 3 (see S2 in Figure 5), the user terminal 2 activates the camera 26 to capture the user's facial expression and obtains the captured image as reaction data (S2' in Figure 7). In S3, the above-mentioned image recognition technology is used to analyze the user's facial expression in the captured image, and in S4 it is determined whether or not the facial expression shows any emotion. If the user's facial expression shows any emotion, the type of emotion (happiness, surprise, calm, etc.) can be determined and the result recorded as a reaction result.

また本実施形態では、スマートフォン等のユーザ端末2で表示した写真について、ユーザの反応結果を記録することができるが、ユーザ端末2からヘッドマウントディスプレイなどのウェアラブルデバイス3に写真を送信して表示させることも可能であり、当該ウェアラブルデバイス3でユーザの表情を撮影し、その撮影画像を反応データとしてユーザ端末2に送信することも可能である。またユーザの撮影画像からは、瞳孔の大きさなどの生体情報を反応データとして取得することも可能である。 In this embodiment, the user's reaction results can be recorded for a photo displayed on a user terminal 2 such as a smartphone, but it is also possible to send the photo from the user terminal 2 to a wearable device 3 such as a head-mounted display for display, and it is also possible to photograph the user's facial expression with the wearable device 3 and transmit the captured image to the user terminal 2 as reaction data. It is also possible to obtain biological information such as pupil size from the captured image of the user as reaction data.

また本実施形態では写真(静止画像)を表示し、写真に対する反応結果を写真と紐づけて記録したが、写真ではなく動画(動画像)を表示し、動画に対する反応結果を動画と紐づけて記録してもよい。 In addition, in this embodiment, a photo (still image) is displayed and the reaction results to the photo are recorded in association with the photo, but a video (moving image) may be displayed instead of a photo, and the reaction results to the video may be recorded in association with the video.

以上、添付図面を参照して、本発明の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 The above describes preferred embodiments of the present invention with reference to the attached drawings, but the present invention is not limited to these examples. It is clear that a person skilled in the art can come up with various modified or revised examples within the scope of the technical ideas disclosed in this application, and it is understood that these also naturally fall within the technical scope of the present invention.

1:記録システム
2:ユーザ端末
3:ウェアラブルデバイス
4:サーバ
23、32:ディスプレイ
210:表示手段
220:取得手段
230:記録手段
1: Recording system 2: User terminal 3: Wearable device 4: Server 23, 32: Display 210: Display means 220: Acquisition means 230: Recording means

Claims (5)

画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録装置であって、
ユーザの操作に応じて、前記記録装置の記憶部、または、前記記録装置とネットワークを介して接続されたコンピュータに格納された既存の前記画像をディスプレイに表示する表示手段と、
前記ディスプレイに表示された前記画像を見た時の感情に基づくユーザの受動的な反応データを取得する取得手段と、
前記反応データに基づき、前記画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録手段と、
を有することを特徴とする記録装置。
A recording device that records a user's reaction to an image in association with the image,
a display unit that displays, in response to a user's operation, the existing images stored in a storage unit of the recording device or in a computer connected to the recording device via a network on a display;
an acquisition means for acquiring passive reaction data of a user based on emotions felt when viewing the image displayed on the display ;
a recording means for recording a reaction result of the user when viewing the image based on the reaction data in association with the image;
A recording apparatus comprising:
前記反応データはユーザの生体情報であり、
前記取得手段は、ユーザに装着したウェアラブルデバイスから前記反応データを受信することを特徴とする請求項1記載の記録装置。
The reaction data is biometric information of a user,
2. The recording apparatus according to claim 1, wherein the acquisition means receives the reaction data from a wearable device worn by a user.
前記反応データはユーザの表情を示すユーザの撮影画像であり、
前記取得手段は、ユーザを撮影してその撮影画像を取得することを特徴とする請求項1記載の記録装置。
the reaction data is a captured image of the user showing a facial expression of the user;
2. The recording apparatus according to claim 1, wherein the acquisition means captures an image of the user by photographing the user.
前記記録装置は、表示対象の全ての前記画像を表示するまで、前記画像を前記ディスプレイに表示して前記反応データを取得し、前記反応結果を前記画像と紐づけて記録する処理を繰り返すことを特徴とする請求項1記載の記録装置。 The recording device according to claim 1, characterized in that the recording device repeats the process of displaying the images on the display, acquiring the reaction data, and recording the reaction results in association with the images until all of the images to be displayed are displayed . コンピュータを、
画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録装置であって、
ユーザの操作に応じて、前記記録装置の記憶部、または、前記記録装置とネットワークを介して接続されたコンピュータに格納された既存の前記画像をディスプレイに表示する表示手段と、
前記ディスプレイに表示された前記画像を見た時の感情に基づくユーザの受動的な反応データを取得する取得手段と、
前記反応データに基づき、前記画像を見た時のユーザの反応結果を前記画像と紐づけて記録する記録手段と、
を有する記録装置として機能させるためのプログラム。
Computer,
A recording device that records a user's reaction to an image in association with the image,
a display unit that displays, in response to a user's operation, the existing images stored in a storage unit of the recording device or in a computer connected to the recording device via a network on a display;
an acquisition means for acquiring passive reaction data of a user based on emotions felt when viewing the image displayed on the display ;
a recording means for recording a reaction result of the user when viewing the image based on the reaction data in association with the image;
A program for causing the device to function as a recording device having the above configuration.
JP2023085268A 2023-05-24 2023-05-24 Recording device and program Active JP7574880B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023085268A JP7574880B1 (en) 2023-05-24 2023-05-24 Recording device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023085268A JP7574880B1 (en) 2023-05-24 2023-05-24 Recording device and program

Publications (2)

Publication Number Publication Date
JP7574880B1 true JP7574880B1 (en) 2024-10-29
JP2024168518A JP2024168518A (en) 2024-12-05

Family

ID=93254404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023085268A Active JP7574880B1 (en) 2023-05-24 2023-05-24 Recording device and program

Country Status (1)

Country Link
JP (1) JP7574880B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178593A (en) 2002-11-25 2004-06-24 Eastman Kodak Co Imaging method and system
JP2010148052A (en) 2008-12-22 2010-07-01 Kyocera Corp Mobile terminal with camera
JP2011193275A (en) 2010-03-15 2011-09-29 Nikon Corp Display device
JP2019047234A (en) 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JP2023025400A (en) 2021-08-10 2023-02-22 富士フイルム株式会社 Emotion tagging system, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178593A (en) 2002-11-25 2004-06-24 Eastman Kodak Co Imaging method and system
JP2010148052A (en) 2008-12-22 2010-07-01 Kyocera Corp Mobile terminal with camera
JP2011193275A (en) 2010-03-15 2011-09-29 Nikon Corp Display device
JP2019047234A (en) 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JP2023025400A (en) 2021-08-10 2023-02-22 富士フイルム株式会社 Emotion tagging system, method, and program

Also Published As

Publication number Publication date
JP2024168518A (en) 2024-12-05

Similar Documents

Publication Publication Date Title
CN101286196B (en) Image storage processing apparatus and method, image search apparatus, and image search method
EP2919142B1 (en) Electronic apparatus and method for providing health status information
AU2015201759B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer readable storage medium
EP1422639A2 (en) Imaging method and system
US20100086204A1 (en) System and method for capturing an emotional characteristic of a user
US20120083675A1 (en) Measuring affective data for web-enabled applications
US9646046B2 (en) Mental state data tagging for data collected from multiple sources
US20030165270A1 (en) Method for using facial expression to determine affective information in an imaging system
US9934425B2 (en) Collection of affect data from multiple mobile devices
US20140200417A1 (en) Mental state analysis using blink rate
WO2019044135A1 (en) Information processing device, information processing method, and program
US12204958B2 (en) File system manipulation using machine learning
JPWO2019193781A1 (en) Emotion estimation device, emotion estimation method and program
JP2007068620A (en) Psychological condition measuring apparatus
JP7148624B2 (en) Image proposal device, image proposal method, and image proposal program
JP7574880B1 (en) Recording device and program
US20130052621A1 (en) Mental state analysis of voters
JP6198530B2 (en) Image processing device
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
CN110750154A (en) Display control method, system, device, equipment and storage medium
JPH07289524A (en) Device for skin evaluation and method therefor
JP2013182422A (en) Electronic device
WO2014106216A1 (en) Collection of affect data from multiple mobile devices
US11935329B2 (en) Video analysis program
JP6754412B2 (en) Experience recording system and experience recording method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240930

R150 Certificate of patent or registration of utility model

Ref document number: 7574880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150