JP2014146303A - 情報端末、文字列変換方法及びプログラム - Google Patents
情報端末、文字列変換方法及びプログラム Download PDFInfo
- Publication number
- JP2014146303A JP2014146303A JP2013016215A JP2013016215A JP2014146303A JP 2014146303 A JP2014146303 A JP 2014146303A JP 2013016215 A JP2013016215 A JP 2013016215A JP 2013016215 A JP2013016215 A JP 2013016215A JP 2014146303 A JP2014146303 A JP 2014146303A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- conversion candidate
- emotion
- candidate character
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 297
- 238000000034 method Methods 0.000 title claims description 50
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 239000000284 extract Substances 0.000 claims abstract description 10
- 230000008451 emotion Effects 0.000 claims description 172
- 238000000605 extraction Methods 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 235000016496 Panda oleosa Nutrition 0.000 description 38
- 240000000220 Panda oleosa Species 0.000 description 38
- 230000008569 process Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
【課題】ユーザの心情に応じて、簡易な操作によって文字列を漢字等に変換する。
【解決手段】情報端末は、撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成し、画像データに基づいて、当該人物の感情を判別する。また、情報端末は、入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、抽出された変換候補の文字列の表示順を、判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、表示する。また、情報端末は、表示した変換候補の文字列から一つの文字列を選択する。
【選択図】図2
【解決手段】情報端末は、撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成し、画像データに基づいて、当該人物の感情を判別する。また、情報端末は、入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、抽出された変換候補の文字列の表示順を、判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、表示する。また、情報端末は、表示した変換候補の文字列から一つの文字列を選択する。
【選択図】図2
Description
本発明は、情報端末、文字列変換方法及びプログラムに関する。
今日、SNS(Social Networking Service)、ブログ等で、自身の日常、心情等を公開するユーザが増加している。ユーザが自身の日常、心情等をブログ等で公開するための技術として、特許文献1には、ユーザによって撮影された写真に、写真の属性(撮影された季節、被写体の表情等)に応じた文字列を合成して投稿する技術が開示されている。
ユーザが、SNS、ブログ等で自身の心情を公開する際、写真を投稿するだけでなく、文章を投稿することも一般的に行われており、その際ユーザは、自身の心情に沿って文章を作成する。投稿する文章の作成時に、ユーザは、仮名文字列を入力し、これを漢字等に変換する。仮名文字列を漢字等に変換する場合、ユーザは多数の変換候補の中から自身の心情に沿った適切な変換候補を選択しなければならず、作業が煩雑である。
同様の問題は、通常の文書編集作業の際などにも生じている。例えば、文書編集プログラムは、かな文字を入力し、変換ボタンを操作すると、変換候補を表示する。複数の変換候補が存在する場合、選択履歴などに基づいて変換候補の表示順を制御する等のことは行われている。しかし、ユーザのその時点での心情に応じて、文書入力を容易にするための工夫は提案されていない。
本発明は、上記実情に鑑みてなされたものであり、ユーザの心情に応じて、簡易な操作によって文字列を漢字等に変換する情報端末、文字列変換方法及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の観点に係る情報端末は、
文字を入力するための入力手段と、
撮像手段と、
前記撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成する顔画像生成手段と、
前記顔画像生成手段によって生成された前記画像データに基づいて、当該人物の感情を判別する感情判別手段と、
前記入力手段によって入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出する変換候補文字列抽出手段と、
前記変換候補文字列抽出手段によって抽出された変換候補の文字列の表示順を、前記感情判別手段によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示する変換候補文字列表示手段と、
前記変換候補文字列表示手段が表示した前記変換候補の文字列から一つの文字列を選択する変換候補選択手段と、
を備えることを特徴とする。
文字を入力するための入力手段と、
撮像手段と、
前記撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成する顔画像生成手段と、
前記顔画像生成手段によって生成された前記画像データに基づいて、当該人物の感情を判別する感情判別手段と、
前記入力手段によって入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出する変換候補文字列抽出手段と、
前記変換候補文字列抽出手段によって抽出された変換候補の文字列の表示順を、前記感情判別手段によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示する変換候補文字列表示手段と、
前記変換候補文字列表示手段が表示した前記変換候補の文字列から一つの文字列を選択する変換候補選択手段と、
を備えることを特徴とする。
また、本発明の第2の観点に係る文字列変換方法は、
人物の画像から当該人物の感情を判別するステップと、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出するステップと、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示するステップと、
表示された変換候補の文字列から一つの文字列を選択するステップと、
を含むことを特徴とする。
人物の画像から当該人物の感情を判別するステップと、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出するステップと、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示するステップと、
表示された変換候補の文字列から一つの文字列を選択するステップと、
を含むことを特徴とする。
また、本発明の第3の観点に係るプログラムは、
コンピュータに、
人物の画像から当該人物の感情を判別し、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示し、
表示された変換候補の文字列から一つの文字列を選択する、
処理を実行させる。
コンピュータに、
人物の画像から当該人物の感情を判別し、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示し、
表示された変換候補の文字列から一つの文字列を選択する、
処理を実行させる。
本発明によれば、ユーザの心情に応じて、簡易な操作によって文字列を漢字等に変換する情報端末、文字列変換方法及びプログラムを提供することが可能となる。
以下、本発明の実施の形態について、図面を参照して説明する。
(実施の形態1)
本実施の形態1に係る情報端末100は、図1に示すように、入力部101、撮像部102、顔画像生成部103、感情判別部104、変換候補文字列抽出部105、変換候補文字列表示部106、変換候補選択部107及び文字列変換部108を備える。
本実施の形態1に係る情報端末100は、図1に示すように、入力部101、撮像部102、顔画像生成部103、感情判別部104、変換候補文字列抽出部105、変換候補文字列表示部106、変換候補選択部107及び文字列変換部108を備える。
入力部101は、キーボード、タッチパネル等から構成されるデバイスであり、情報端末100に文字を入力することが可能なものである。
撮像部102は、光学系から構成されるデバイスであり、画像を撮影することが可能なものである。
顔画像生成部103は、撮像部102によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成するものである。
感情判別部104は、顔画像生成部103によって生成された人物の顔の画像データに基づいて、その人物の感情(喜怒哀楽等)を判別するものである。
変換候補文字列抽出部105は、入力部101によって情報端末100に入力された変換対象の文字列に対応する変換候補の文字列(変換候補文字列)を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出するものである。
変換候補文字列表示部106は、変換候補文字列抽出部105によって抽出された変換候補の文字列の表示順を、感情判別部104によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、抽出された変換候補の文字列を表示するものである。
変換候補選択部107は、変換候補文字列表示部106が表示した変換候補の文字列から一つの文字列を選択するものである。
文字列変換部108は、入力部101によって入力された変換対象の文字列を、変換候補選択部107によって選択された文字列に変換するものである。
次に、上記構成を有する情報端末100の動作(ユーザの感情に応じて文字列を変換する文字列変換処理)を、図2に示すフローチャートを参照して説明する。
まず、ユーザによる所定の操作によって撮像部102が起動し、撮像部102がユーザの顔を撮影する(ステップS1)。顔画像生成部103は、撮影された画像から人物の顔を検出する(ステップS2)。
人物の顔を検出すると(ステップS2:YES)、顔画像生成部103は、検出した顔の画像データを生成する(ステップS3)。人物の顔を検出しなければ(ステップS2:NO)、顔画像生成部103は、人物の顔を検出するまでこの動作を繰り返す。
続いて、感情判別部104は、顔画像生成部103が生成した顔の画像データに基づいて、当該人物の感情を判別する(ステップS4)。
次に、変換候補文字列抽出部105は、入力部101によって変換対象の文字列が入力されたか否かを判定する(ステップS5)。
変換対象の文字列が入力されたと判定すると(ステップS5:YES)、変換候補文字列抽出部105は、入力部101によって入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出する(ステップS6)。
一方、変換対象の文字列が入力されていないと判定すると(ステップS5:NO)、変換候補文字列抽出部105は、変換対象の文字列が入力されるまでこの動作を繰り返す。
次に、変換候補文字列表示部106は、変換候補文字列抽出部105によって抽出された変換候補の文字列の表示順を、ステップS4で感情判別部104によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、抽出された変換候補の文字列を表示する(ステップS7)。
次いで、変換候補選択部107は、入力部101を介してユーザからの指定があったか否かを判定する(ステップS8)。
変換候補選択部107は、ユーザからの指定があったと判定すると(ステップS8:YES)、変換候補文字列抽出部105が表示した変換候補の文字列から、ユーザが指定する一つの文字列を選択する(ステップS9)。
一方、変換候補選択部107は、ユーザからの指定がないと判定すると(ステップS8:NO)、ユーザからの指定があるまでこの動作を繰り返す。
一方、変換候補選択部107は、ユーザからの指定がないと判定すると(ステップS8:NO)、ユーザからの指定があるまでこの動作を繰り返す。
次に、文字列変換部108は、入力部101によって入力された変換対象の文字列を、変換候補選択部107によって選択された文字列に変換する(ステップS10)。
このようにして、情報端末100は、撮影されたユーザの顔からユーザの感情を判別し、仮名文字列が入力されると、ユーザの感情に基づいて変換候補文字列の表示順を決定し、変換候補文字列を表示する。また、表示された変換候補文字列のうち何れかが選択されると、情報端末100は、入力された仮名文字列(以下、入力仮名文字列という。)を選択した変換候補文字列に変換する。
(実施の形態2)
以下、実施の形態2,3では、上記実施の形態1に係る情報端末100をより具体化した例を説明する。本実施の形態2に係る情報端末200は、通信機能及び文書作成・編集機能を備えるものであり、図3に示すように、情報端末200は、筐体1、タッチパネル2、スピーカ3、マイク4、カメラモジュール5を備える。タッチパネル2、スピーカ3、マイク4、カメラモジュール5、は筐体1に配置されている。
以下、実施の形態2,3では、上記実施の形態1に係る情報端末100をより具体化した例を説明する。本実施の形態2に係る情報端末200は、通信機能及び文書作成・編集機能を備えるものであり、図3に示すように、情報端末200は、筐体1、タッチパネル2、スピーカ3、マイク4、カメラモジュール5を備える。タッチパネル2、スピーカ3、マイク4、カメラモジュール5、は筐体1に配置されている。
タッチパネル2は、タッチ位置検出部と、液晶表示パネル、EL(Electro Luminescence)パネル等、から構成される表示装置とが積層された構成を備える。タッチパネル2は、任意のデータ及び入力操作のための種々のボタン(文字を表すボタン、変換を指示する変換ボタン(変換候補選択手段)、カメラのシャッタボタン等を含む)、アイコン等の画像を表示し、さらに、ユーザのタッチ位置を検出するものである。これにより、タッチパネル2は、入力手段として機能すると共に表示手段として機能する。
スピーカ3は、情報端末200の正面上部に設置されており、入力された電気信号を音声に変換して外部に出力するものである。マイク4は情報端末200の正面下部に設置されており、外部から入力された音声を電気信号に変換して出力するものである。
カメラモジュール5は、図示せぬレンズと固体撮像素子とを備える。レンズが固体撮像素子の撮像面に入射光を結像し、固体撮像素子が結像された入射光を電気信号に変換し出力することで、カメラモジュール5は、静止画像、動画像を撮影する撮像手段として機能する。また、カメラモジュール5は、情報端末200の正面上部に配置されており、ユーザがタッチパネル2を介して入力操作をしているときにユーザの顔を撮影することが可能なものである。
また、情報端末200は、図4に示すような構成を備える。図示するように、情報端末200は、上述のタッチパネル2、スピーカ3、マイク4、カメラモジュール5に加えて、制御部10、通信部20、記憶装置30、を備える。タッチパネル2、スピーカ3、マイク4、カメラモジュール5、通信部20、記憶装置30は、制御部10に接続されている。
制御部10は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12等から構成されており、情報端末200の動作を制御する。
通信部20は、図示せぬ変復調回路やアンテナ等を備え、制御部10の制御に基づいて基地局との間で無線通信を行うことにより、音声通話の通信及びデータ通信を行うものである。これにより、情報端末100は、音声通話とインターネットアクセスが共に可能となる。
記憶装置30は、情報端末200の補助記憶装置である。記憶装置30は、入力プログラム31、顔画像生成プログラム35、感情判別プログラム34、変換候補文字列抽出プログラム36、変換候補文字列表示プログラム37、変換候補選択プログラム38、文字列変換プログラム32及び変換候補DB(Database)33等を記憶する。
入力プログラム31は、ユーザがタッチパネル2を介して文字を入力し、任意の文書を作成・編集するためのアプリケーションプログラムである。ユーザは、入力プログラム31上で入力した仮名文字列を、文字列変換プログラム32等を使用して所望の文字列に変換することが可能である。
顔画像生成プログラム35は、カメラモジュール5によって撮影された画像からユーザの顔を検出し、検出した顔の画像データを生成するためのプログラムである。
感情判別プログラム34は、画像生成プログラム35によって生成された画像データに基づいて、ユーザの感情を判別するプログラムである。
感情判別プログラム34は、画像生成プログラム35によって生成された画像データに基づいて、ユーザの感情を判別するプログラムである。
変換候補文字列抽出プログラム36は、タッチパネル2によって入力された変換対象の文字列に対応する変換候補の文字列を、変換候補DB33から抽出するプログラムである。
変換候補文字列表示プログラム37は、変換候補文字列抽出プログラム36によって抽出された変換候補の文字列の表示順を、感情判別プログラム34によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、抽出された変換候補の文字列を表示するプログラムである。
変換候補文字列表示プログラム37は、変換候補文字列抽出プログラム36によって抽出された変換候補の文字列の表示順を、感情判別プログラム34によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、抽出された変換候補の文字列を表示するプログラムである。
変換候補選択プログラム38は、変換候補文字列表示プログラム37が表示した変換候補の文字列から一つの文字列を選択するプログラムである。
文字列変換プログラム32は、タッチパネル2を介して入力された変換対象の仮名文字列を、漢字等の文字列に変換するプログラムである。
文字列変換プログラム32は、タッチパネル2を介して入力された変換対象の仮名文字列を、漢字等の文字列に変換するプログラムである。
変換候補DB33は、文字列変換プログラム32が入力仮名文字列をどのような文字列(変換候補文字列)に変換するかを、ユーザの感情別に規定するデータベース(辞書)である。変換候補DB33は、図5に示すように、「入力仮名文字列」とユーザの感情(喜怒哀楽等)を示す感情データ別の「変換候補文字列」とを対応付けて格納している。即ち、変換候補DB33は、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納している。
顔画像生成手段は、制御部10と顔画像生成プログラム35から構成される。
感情判別手段は、制御部10と感情判別プログラム34から構成される。
変換候補文字列抽出手段は、制御部10と変換候補文字列抽出プログラム36から構成される。
感情判別手段は、制御部10と感情判別プログラム34から構成される。
変換候補文字列抽出手段は、制御部10と変換候補文字列抽出プログラム36から構成される。
変換候補文字列表示手段は、制御部10と変換候補文字列表示プログラム37から構成される。
変換候補選択手段は、制御部10と変換候補選択プログラム38から構成される。
文字列変換手段は、制御部10と文字列変換プログラム32から構成される。
変換候補選択手段は、制御部10と変換候補選択プログラム38から構成される。
文字列変換手段は、制御部10と文字列変換プログラム32から構成される。
次に、上記構成を有する情報端末200の動作を説明する。情報端末200は、外部との通信機能、通話機能等、通常想定される情報端末としての機能を備えているが、ここでは、本実施の形態に特有な、ユーザの感情に応じて文字列を変換する処理(文字列変換処理)について、情報端末200に電源が投入されてから文字列が変換されてタッチパネル2に表示されるまでを、図6,7に示すフローチャートを参照して説明する。
まず、情報端末200に電源が投入され、ユーザによってタッチパネル2に表示されている入力アプリケーションを示すアイコンが触れられると、制御部10は、文字列変換処理を開始する。
以下、図6を参照して文字列変換処理について説明する。
制御部10は、入力プログラム31、顔画像生成プログラム35、感情判別プログラム34、変換候補文字列抽出プログラム36、変換候補文字列表示プログラム37、変換候補選択プログラム38及び文字列変換プログラム32を読み込む(ステップS201)。以後、入力プログラム31は、本文字列変換処理とは別の処理により、タッチパネルの操作に応じて、仮名文字列を入力する処理を実行する。
そして、制御部10は、顔画像生成プログラム35と感情判別プログラム34を実行して、感情判別処理を行う(ステップS202)。
制御部10は、入力プログラム31、顔画像生成プログラム35、感情判別プログラム34、変換候補文字列抽出プログラム36、変換候補文字列表示プログラム37、変換候補選択プログラム38及び文字列変換プログラム32を読み込む(ステップS201)。以後、入力プログラム31は、本文字列変換処理とは別の処理により、タッチパネルの操作に応じて、仮名文字列を入力する処理を実行する。
そして、制御部10は、顔画像生成プログラム35と感情判別プログラム34を実行して、感情判別処理を行う(ステップS202)。
図7を参照して感情判別処理について説明する。
制御部10は、顔画像生成プログラム35を実行して、カメラモジュール5を起動する(ステップS221)。
制御部10は、顔画像生成プログラム35を実行して、カメラモジュール5を起動する(ステップS221)。
続いて、制御部10は、カメラモジュール5が撮影している画像中に顔を検出したか否かを判定する(ステップS222)。なお、制御部10が顔を検出する方法は任意であり、ハールライク特徴を用いた顔検出方法等の既知の顔認識システムを適宜用いてもよい。
顔が検出されなければ(ステップS222:NO)、制御部10は、ステップS222の処理を、顔が検出されるまで繰り返す。
一方、顔が検出されれば(ステップS222:YES)、制御部10は、検出した顔の画像データを生成する(ステップS223)。
次に、制御部10は、感情判別プログラム34を実行し、上記画像データからユーザの表情を分析して、ユーザの感情(心情)を判別する(ステップS224)。なお、制御部10が画像データからユーザの表情を分析してユーザの感情を判別する方法は任意であり、FACS(Facial Action Coding System)等の既知の技術を適用することが可能である。
そして、制御部10は、感情判別処理を終了する。
次に、制御部10は、感情判別プログラム34を実行し、上記画像データからユーザの表情を分析して、ユーザの感情(心情)を判別する(ステップS224)。なお、制御部10が画像データからユーザの表情を分析してユーザの感情を判別する方法は任意であり、FACS(Facial Action Coding System)等の既知の技術を適用することが可能である。
そして、制御部10は、感情判別処理を終了する。
図6に戻り、制御部10は、入力プログラム31を実行し、仮名文字列が入力されているか否かを判定する(ステップS203)。
仮名文字列が入力されていないと判定すれば(ステップS203:NO)、制御部10は、ステップS203の処理を、仮名文字列が入力されるまで繰り返す。
一方、仮名文字列が入力されていると判定すれば(ステップS203:YES)、制御部10は、変換候補文字列抽出プログラム36を実行し、入力仮名文字列に対応する変換候補文字列を変換候補DB33から抽出する(ステップS204)。
さらに、制御部10は、変換候補文字列表示プログラム37を実行し、抽出した変換候補文字列のうちで、ステップS224で判別したユーザの感情に対応する変換候補文字列を、最上位に表示する変換候補文字列として決定する(ステップS205)。
さらに、制御部10は、変換候補文字列表示プログラム37を実行し、抽出した変換候補文字列のうちで、ステップS224で判別したユーザの感情に対応する変換候補文字列を、最上位に表示する変換候補文字列として決定する(ステップS205)。
なお、最上位以外(2番目以降)の変換候補文字列の表示順位は任意であり、当該入力仮名文字列には対応しているが当該感情には対応していない変換候補文字列を表示してもよい。
次に、制御部10は、変換候補文字列を決定した表示順でタッチパネル2に表示する(ステップS206)。
次いで、制御部10は、変換候補選択プログラム38を実行し、タッチパネル2に表示した変換候補文字列のうち何れかがユーザの入力操作によって指定されたか否かを判定する(ステップS207)。
次いで、制御部10は、変換候補選択プログラム38を実行し、タッチパネル2に表示した変換候補文字列のうち何れかがユーザの入力操作によって指定されたか否かを判定する(ステップS207)。
変換候補文字列の何れも指定されていないと判定すれば(ステップS207:NO)、制御部10は、何れかが指定されるまでステップS207の処理を繰り返す。
一方、変換候補文字列のうち何れかが指定されたと判定すれば(ステップS207:YES)、制御部10は、ユーザが指定した一つの変換候補文字列を選択する(ステップS208)。
そして、制御部10は、文字列変換プログラム32を実行し、入力仮名文字列を、選択された変換候補文字列に変換する(ステップS209)。制御部10は、変換後の文字列をタッチパネル2に表示する(ステップS210)。
次に、制御部10は、入力プログラム31の処理の終了が指示されているか否かを判別し、終了が指示されていなければ(ステップS211:NO)、ステップS203にリターンして、次の仮名文字列の入力を待機する。
一方、入力プログラム31の処理の終了が指示されていると判別すれば(ステップS211:YES)、制御部10は、文字列変換処理を終了する。
一方、入力プログラム31の処理の終了が指示されていると判別すれば(ステップS211:YES)、制御部10は、文字列変換処理を終了する。
次に、上述の処理を具体例に基づいて説明する。なお、前提として、変換候補DB33は、図5に示すようなものとし、ステップS202の感情判別処理で、ユーザの感情は「喜」であると判別された(制御部10が「喜」を示す感情データを生成した)とする。
制御部10は、入力プログラム31を実行し、仮名文字列が入力されたか否かを判定する(ステップS203)。
ここで、例えば、情報端末200に文字列「かんしょう」が入力されているとすると、制御部10は、入力仮名文字列「かんしょう」に対応する変換候補文字列「完勝、感傷…」を変換候補DB33から抽出する(ステップS204)。さらに、制御部10は、これらの文字列のうちで、感情「喜」に対応する文字列「完勝」を最上位に表示する変換候補文字列として決定する(ステップS205)。
続いて、制御部10は変換候補文字列を、例えば、図8(A)に示すように、タッチパネル2に表示する(ステップS206)。制御部10は表示した変換候補文字列のうち、ユーザの指定に基づいて例えば文字列「完勝」を選択(ステップS208)する。そして、制御部10は、図8(B)に示すように、文字列「かんしょう」を文字列「完勝」に変換し(ステップS209)、変換後の文字列「完勝」をタッチパネル2に表示する(ステップS210)。
次に、制御部10は、入力プログラム31の処理の終了が指示されているか否かを判別し(ステップS211)、終了が指示されていなければ(ステップS211:NO)、ステップS203にリターンして、次の仮名文字列の入力を待機する。一方、ステップS211で、入力プログラム31の処理の終了が指示されていると判別すれば(ステップS211:YES)、制御部10は、文字列変換処理を終了する。
このように、情報端末200は、ユーザの顔を撮影して生成した画像データからユーザの感情を判別する。情報端末200は、入力された仮名文字列に対応する変換候補文字列を抽出し、判別されたユーザの感情に基づいて変換候補文字列の表示順を決定して、変換候補文字列をタッチパネル2に表示する。そして、情報端末200は、タッチパネル2に表示された変換候補文字列から一つの文字列を選択し、入力仮名文字列を選択された変換候補文字列に変換する。このため、情報端末200は、入力仮名文字列を、簡易な操作によって、ユーザの感情に応じた漢字(列)等に変換し、文書を作成することが可能である。こうして作成した文書を、通信部20を介してアップすることにより、心情に合致した文書をブログに投稿することができる。
(変形例1)
文字列変換プログラム32のうちには、予測変換機能を有するものがある。予測変換機能は、ユーザが仮名文字列を入力している途中で、ユーザが入力予定の仮名文字列を予測し、入力途中の仮名文字列を漢字等の文字列に変換することが可能である。
文字列変換プログラム32のうちには、予測変換機能を有するものがある。予測変換機能は、ユーザが仮名文字列を入力している途中で、ユーザが入力予定の仮名文字列を予測し、入力途中の仮名文字列を漢字等の文字列に変換することが可能である。
このような予測変換機能が使用された際の文字列変換処理を具体例に基づいて説明する。なお、前提として、変換候補DB33は、図5に示すようなものとし、ステップS202で、ユーザの感情は「哀」であると判別された(制御部10が「哀」を示す感情データを生成した)とする。
制御部10は、入力プログラム31を実行し、仮名文字列が入力されたか否かを判定する(ステップS203)。
ここで、例えば、情報端末200に文字列「あ」が入力されているとすると、制御部10は、入力仮名文字列「あ」に対応する変換候補文字列「…哀愁、…、悪人、…、安堵…」を抽出し、さらに、感情「哀」に対応する文字列「哀愁」を最上位の変換候補文字列として決定する(ステップS204)。なお、図示されていないが、感情「哀」に対応する変換候補文字列が複数ある場合には、選択履歴等の他の条件に基づいて、最上位を決定すればよい。
次に、制御部10は変換候補文字列を、例えば、図9(A)に示すように、タッチパネル2に表示し(ステップS205)、表示した変換候補文字列のうち、文字列「哀愁」が選択されれば、図9(B)に示すように、文字列「あ」を文字列「哀愁」に変換する。制御部10は変換後の文字列「哀愁」をタッチパネル2に表示する(ステップS207)。
(変形例2)
また、上記実施の形態2では、入力仮名文字列に対応する全ての変換候補文字列を変換候補DBから抽出したが、入力仮名文字列に対応し、かつ、判別したユーザの感情に対応する変換候補文字列のみを変換候補DBから抽出するようにしてもよい。
また、上記実施の形態2では、入力仮名文字列に対応する全ての変換候補文字列を変換候補DBから抽出したが、入力仮名文字列に対応し、かつ、判別したユーザの感情に対応する変換候補文字列のみを変換候補DBから抽出するようにしてもよい。
例えば、入力仮名文字列に対応する変換候補文字列が変換候補DB33にN個存在し、そのN個の中に、判別されたユーザの感情に対応する文字列がM個存在する場合は、そのM個の変換候補文字列のみを変換候補DBから抽出する。
(変形例3)
また、上記実施の形態2では、ユーザの感情に対応する変換候補文字列が最上位に表示されるように、変換候補文字列の表示順を決定したが、変換候補文字列の表示順の決定方法を適宜変更してもよい。例えば、ユーザの感情に対応する変換候補文字列の表示順位を一つ上げたり、ユーザの感情に対応しない変換候補文字列の表示順位を一つ下げたりする。
また、上記実施の形態2では、ユーザの感情に対応する変換候補文字列が最上位に表示されるように、変換候補文字列の表示順を決定したが、変換候補文字列の表示順の決定方法を適宜変更してもよい。例えば、ユーザの感情に対応する変換候補文字列の表示順位を一つ上げたり、ユーザの感情に対応しない変換候補文字列の表示順位を一つ下げたりする。
即ち、変換候補文字列の表示順を、ユーザの感情に応じて決定してさえいれば、最終的に表示される変換候補文字列の順番は問わない。
(変形例4)
また、上記実施の形態2では、ユーザの感情に対応する変換候補文字列が最上位に表示されるように、変換候補文字列の表示順を決定したが、ユーザの感情とユーザの感情以外の条件とを組み合わせて選択候補文字列の表示順を決定することも可能である。
また、上記実施の形態2では、ユーザの感情に対応する変換候補文字列が最上位に表示されるように、変換候補文字列の表示順を決定したが、ユーザの感情とユーザの感情以外の条件とを組み合わせて選択候補文字列の表示順を決定することも可能である。
例えば、変換(選択)履歴及び/又は文脈に基づいて決定される表示順位Nと感情に基づいて決定される表示順位Mとを所定の重み付けで合計し、総得点P=W1・N+W2・M(W1,W2,重み係数)に基づいて、表示順を決定する。
(変形例5)
また、上記実施の形態2では、図5の変換候補DB33は、1つの入力仮名文字列と1つの変換候補文字列と、1つの変換候補文字列と1つの感情と、をそれぞれ対応付けてデータを格納しているが、図10(a)に示すように変換候補DBに、1つの入力仮名文字列と複数の変換候補文字列と、複数の変換候補文字列と1つの感情と、をそれぞれ対応付けてデータを格納してもよい。また、図10(b1)、(b2)に示すように変換候補DBに、1つの入力仮名文字列と1つの変換候補文字列と、1つの変換候補文字列と複数の感情と、をそれぞれ対応付けてデータを格納してもよい。
また、上記実施の形態2では、図5の変換候補DB33は、1つの入力仮名文字列と1つの変換候補文字列と、1つの変換候補文字列と1つの感情と、をそれぞれ対応付けてデータを格納しているが、図10(a)に示すように変換候補DBに、1つの入力仮名文字列と複数の変換候補文字列と、複数の変換候補文字列と1つの感情と、をそれぞれ対応付けてデータを格納してもよい。また、図10(b1)、(b2)に示すように変換候補DBに、1つの入力仮名文字列と1つの変換候補文字列と、1つの変換候補文字列と複数の感情と、をそれぞれ対応付けてデータを格納してもよい。
また、感情は「喜」、「怒」、「哀」、「楽」に限定されず、「快」、「不快」、「好き」、「嫌い」、「気だるい」、「有頂天」、「眠い」等、広い意味での感情を意味する。即ち、感情には、心の中にある思いや体が感じる状況等も含まれる。
(変形例6)
また、上記実施の形態2では、顔の画像データに基づいて、ユーザの感情を判別したが、顔の画像データと他のデータに基づいて、ユーザの感情を判別してもよい。他のデータとしては、例えば、体温、脈拍数、時刻、気象等のデータや、過去に選択した1又は複数の選択候補文字列に対応する感情データがある。
また、上記実施の形態2では、顔の画像データに基づいて、ユーザの感情を判別したが、顔の画像データと他のデータに基づいて、ユーザの感情を判別してもよい。他のデータとしては、例えば、体温、脈拍数、時刻、気象等のデータや、過去に選択した1又は複数の選択候補文字列に対応する感情データがある。
(変形例7)
また、上記実施の形態2では、変換候補DB33を情報端末200の内部に配置する例を示したが、変換候補DB33を情報端末200の外部に配置してもよい。この場合には、例えば、制御部10が通信部20を介して変換候補DB33にアクセスする構成とする。
また、上記実施の形態2では、変換候補DB33を情報端末200の内部に配置する例を示したが、変換候補DB33を情報端末200の外部に配置してもよい。この場合には、例えば、制御部10が通信部20を介して変換候補DB33にアクセスする構成とする。
(変形例8)
また、上記実施の形態2では、入力アプリケーションの起動時にだけ、ユーザの感情を判別したが、ユーザの感情を判別するタイミングは、入力アプリケーションの起動時だけに限定されない。
また、上記実施の形態2では、入力アプリケーションの起動時にだけ、ユーザの感情を判別したが、ユーザの感情を判別するタイミングは、入力アプリケーションの起動時だけに限定されない。
例えば、図6のステップS211で終了していないと判別された場合に、図7のステップS222にリターンして、顔画像の有無を判別し、顔画像が存在しないと判別した場合には、すでに判別している「感情」をそのまま使用して図6のステップS203に進み、存在すると判別した場合(ステップS222;YES)、顔画像から感情を改めて判別し(ステップS223)、次の処理に進むようにする。即ち、定期的又は周期的にユーザの感情を判別するようにする。このように設定すれば、情報端末200は、ユーザが文字列を入力する度にユーザの感情を反映した表示順で変換候補文字列を表示することができる。
また、感情判別処理を文字列変換処理から独立させ、リアルタイムにユーザの感情を判別するようにしてもよい。
また、感情判別処理を文字列変換処理から独立させ、リアルタイムにユーザの感情を判別するようにしてもよい。
(実施の形態3)
ユーザの表情は日々変化するものである。このため、ユーザの表情を、感情判別プログラム34等による感情の判別に反映させることが望ましい。
ユーザの表情は日々変化するものである。このため、ユーザの表情を、感情判別プログラム34等による感情の判別に反映させることが望ましい。
ユーザの表情を感情の判別に反映させる方法としては、機械学習が有効である。
実施の形態3に係る情報端末300は、図11に示すように、実施の形態2に係る情報端末200の構成に、更に感情特定手段としての感情特定プログラム40を備える。感情特定プログラム40は、記憶装置30に記憶されている。
実施の形態3に係る情報端末300は、図11に示すように、実施の形態2に係る情報端末200の構成に、更に感情特定手段としての感情特定プログラム40を備える。感情特定プログラム40は、記憶装置30に記憶されている。
なお、実施の形態3に係る情報端末300は、実施の形態2に係る情報端末200と同様の構成を有するので、情報端末200と同様の構成については、同じ符号を付すことで説明を省略する。
感情特定プログラム40は、変換候補選択プログラム38によって選択された文字列に対応付けられている感情を特定するプログラムである。
感情特定手段は、制御部10と感情特定プログラム40から構成される。
感情特定手段は、制御部10と感情特定プログラム40から構成される。
次に、情報端末300の動作について説明する。
なお、情報端末300は、実施の形態2に係る情報端末200の動作と略同様の動作をするので、情報端末200と同様の動作については説明を省略することとし、情報端末200とは異なる動作について図6を流用して説明することとする。
なお、情報端末300は、実施の形態2に係る情報端末200の動作と略同様の動作をするので、情報端末200と同様の動作については説明を省略することとし、情報端末200とは異なる動作について図6を流用して説明することとする。
制御部10は、変換候補選択プログラム38を実行して、変換候補文字列を選択する(ステップS208)。制御部10は、感情特定プログラム40を実行して、その文字列に対応付けられている感情を特定する。制御部10は、特定した感情(出力データ)とそのときのユーザの実際の感情、即ち画像データに基づいて判別した感情(入力データ)との入出力対データを、記憶装置30が備える図示しない記憶部に蓄積する。
感情判別プログラム34は、上記入出力対データを、ステップS224で実行する感情を判別する処理の学習データとして学習し、画像データから感情を判別する能力を更新する。
機械学習の処理自体は、例えば、深夜、情報端末300がクレードルに載置された状態の時に行う。
感情判別プログラム34は、上記入出力対データを、ステップS224で実行する感情を判別する処理の学習データとして学習し、画像データから感情を判別する能力を更新する。
機械学習の処理自体は、例えば、深夜、情報端末300がクレードルに載置された状態の時に行う。
次に、上述の処理を具体例に基づいて説明する。なお、前提として、ステップS202の感情判別処理で、ユーザの感情は「哀」であると判別された(制御部10が「哀」を示す感情データを生成した)とする。
この場合、全ての判別した感情(入力データ)と特定した感情(出力データ)とを蓄積して、このデータを学習データとしてもよい。
また、ステップS202で判別した感情と、特定した感情とが不一致の場合にのみ、判別した感情(入力データ)と特定した感情(出力データ)とを蓄積して、このデータを学習データとしてもよい。
例えば、判別した感情が「哀」であり、入力仮名文字列が「かんしょう」である場合に変換候補文字列「感傷」が上位に表示されたにもかかわらず、ユーザが下位に表示された文字列「完勝」を指定した場合に、判別した感情と最終的に指定された変換候補文字列である「完勝」に対応する感情「喜」とを学習データとして蓄積してもよい。
このようにして、情報端末300は、ユーザの真の感情(上述の例では「喜」)と画像データから判別した感情(上述の例では「哀」)とに基づいて機械学習することによって、誤った判別を訂正し、次回からはユーザの感情を正しく判別することができる。このため、情報端末300は、精度の高い表情認識を行うことが可能である。
なお、情報端末100,200,300は、文字入力機能を備える端末、例えば、携帯電話、スマートフォン、ゲーム機、タブレットPC(Personal Computer)、ノートPC、PDA(Personal Data assistants:携帯情報端末)等、任意である。
上記実施の形態では、入力される変換対象の文字列を、仮名文字列(入力仮名文字列)としたが、入力される変換対象の文字列は仮名文字列に限定されない。例えば、入力される変換対象の文字列を、アルファベット文字列などとしてもよい。
また、コンピュータがプログラムを実行することで、情報端末100,200,300の機能を実現してもよい。情報端末100,200,300の機能を実現するためのプログラムは、USB(Universal Serial Bus)メモリ、SDメモリカード、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、BD(Blu-ray Disc)、HDD(Hard Disc Drive)、SSD(Solid State Drive)等のコンピュータ読み取り可能な記録媒体に記憶されてもよいし、ネットワークを介してコンピュータにダウンロードされてもよい。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
文字を入力するための入力手段と、
撮像手段と、
前記撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成する顔画像生成手段と、
前記顔画像生成手段によって生成された前記画像データに基づいて、当該人物の感情を判別する感情判別手段と、
前記入力手段によって入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出する変換候補文字列抽出手段と、
前記変換候補文字列抽出手段によって抽出された変換候補の文字列の表示順を、前記感情判別手段によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示する変換候補文字列表示手段と、
前記変換候補文字列表示手段が表示した前記変換候補の文字列から一つの文字列を選択する変換候補選択手段と、
を備えることを特徴とする情報端末。
文字を入力するための入力手段と、
撮像手段と、
前記撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成する顔画像生成手段と、
前記顔画像生成手段によって生成された前記画像データに基づいて、当該人物の感情を判別する感情判別手段と、
前記入力手段によって入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出する変換候補文字列抽出手段と、
前記変換候補文字列抽出手段によって抽出された変換候補の文字列の表示順を、前記感情判別手段によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示する変換候補文字列表示手段と、
前記変換候補文字列表示手段が表示した前記変換候補の文字列から一つの文字列を選択する変換候補選択手段と、
を備えることを特徴とする情報端末。
(付記2)
前記変換候補文字列抽出手段は、前記入力手段によって入力された変換対象の文字列と前記感情判別手段によって判別された感情と、に基づいて前記辞書から変換候補の文字列を抽出する、
ことを特徴とする付記1に記載の情報端末。
前記変換候補文字列抽出手段は、前記入力手段によって入力された変換対象の文字列と前記感情判別手段によって判別された感情と、に基づいて前記辞書から変換候補の文字列を抽出する、
ことを特徴とする付記1に記載の情報端末。
(付記3)
前記変換候補選択手段によって選択された文字列に対応付けられている感情を特定する感情特定手段、をさらに備え、
前記感情判別手段は、前記感情特定手段によって特定された感情と、前記顔画像生成手段によって生成された顔の画像データと、に基づいて機械学習を行う、
ことを特徴とする付記1又は2に記載の情報端末。
前記変換候補選択手段によって選択された文字列に対応付けられている感情を特定する感情特定手段、をさらに備え、
前記感情判別手段は、前記感情特定手段によって特定された感情と、前記顔画像生成手段によって生成された顔の画像データと、に基づいて機械学習を行う、
ことを特徴とする付記1又は2に記載の情報端末。
(付記4)
前記辞書、をさらに備える、
ことを特徴とする付記1から3の何れか一つに記載の情報端末。
前記辞書、をさらに備える、
ことを特徴とする付記1から3の何れか一つに記載の情報端末。
(付記5)
人物の画像から当該人物の感情を判別するステップと、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出するステップと、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示するステップと、
表示された変換候補の文字列から一つの文字列を選択するステップと、
を含むことを特徴とする文字列変換方法。
人物の画像から当該人物の感情を判別するステップと、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出するステップと、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示するステップと、
表示された変換候補の文字列から一つの文字列を選択するステップと、
を含むことを特徴とする文字列変換方法。
(付記6)
コンピュータに、
人物の画像から当該人物の感情を判別し、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示し、
表示された変換候補の文字列から一つの文字列を選択する、
処理を実行させるプログラム。
コンピュータに、
人物の画像から当該人物の感情を判別し、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示し、
表示された変換候補の文字列から一つの文字列を選択する、
処理を実行させるプログラム。
1 …筐体
2 …タッチパネル
3 …スピーカ
4 …マイク
5 …カメラモジュール
10 …制御部
11 …CPU
12 …RAM
20 …通信部
30 …記憶装置
31 …入力プログラム
32 …文字列変換プログラム
33 …変換候補DB
34 …感情判別プログラム
35 …顔画像生成プログラム
36 …変換候補文字列抽出プログラム
37 …変換候補文字列表示プログラム
38 …変換候補選択プログラム
40 …感情特定プログラム
100…情報端末
101…入力部
102…撮像部
103…顔画像生成部
104…感情判別部
105…変換候補文字列抽出部
106…変換候補文字列表示部
107…変換候補選択部
108…文字列変換部
200…情報端末
300…情報端末
2 …タッチパネル
3 …スピーカ
4 …マイク
5 …カメラモジュール
10 …制御部
11 …CPU
12 …RAM
20 …通信部
30 …記憶装置
31 …入力プログラム
32 …文字列変換プログラム
33 …変換候補DB
34 …感情判別プログラム
35 …顔画像生成プログラム
36 …変換候補文字列抽出プログラム
37 …変換候補文字列表示プログラム
38 …変換候補選択プログラム
40 …感情特定プログラム
100…情報端末
101…入力部
102…撮像部
103…顔画像生成部
104…感情判別部
105…変換候補文字列抽出部
106…変換候補文字列表示部
107…変換候補選択部
108…文字列変換部
200…情報端末
300…情報端末
Claims (6)
- 文字を入力するための入力手段と、
撮像手段と、
前記撮像手段によって撮影された画像から人物の顔を検出し、検出した顔の画像データを生成する顔画像生成手段と、
前記顔画像生成手段によって生成された前記画像データに基づいて、当該人物の感情を判別する感情判別手段と、
前記入力手段によって入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出する変換候補文字列抽出手段と、
前記変換候補文字列抽出手段によって抽出された変換候補の文字列の表示順を、前記感情判別手段によって判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示する変換候補文字列表示手段と、
前記変換候補文字列表示手段が表示した前記変換候補の文字列から一つの文字列を選択する変換候補選択手段と、
を備えることを特徴とする情報端末。 - 前記変換候補文字列抽出手段は、前記入力手段によって入力された変換対象の文字列と前記感情判別手段によって判別された感情と、に基づいて前記辞書から変換候補の文字列を抽出する、
ことを特徴とする請求項1に記載の情報端末。 - 前記変換候補選択手段によって選択された文字列に対応付けられている感情を特定する感情特定手段、をさらに備え、
前記感情判別手段は、前記感情特定手段によって特定された感情と、前記顔画像生成手段によって生成された顔の画像データと、に基づいて機械学習を行う、
ことを特徴とする請求項1又は2に記載の情報端末。 - 前記辞書、をさらに備える、
ことを特徴とする請求項1から3の何れか一項に記載の情報端末。 - 人物の画像から当該人物の感情を判別するステップと、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出するステップと、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示するステップと、
表示された変換候補の文字列から一つの文字列を選択するステップと、
を含むことを特徴とする文字列変換方法。 - コンピュータに、
人物の画像から当該人物の感情を判別し、
入力された変換対象の文字列に対応する変換候補の文字列を、変換対象の文字列と変換候補の文字列と、変換候補の文字列と感情と、をそれぞれ対応付けて格納する辞書から抽出し、
抽出された変換候補の文字列の表示順を、前記判別された感情と各変換候補の文字列に対応付けられている感情とに応じて決定し、前記抽出された変換候補の文字列を表示し、
表示された変換候補の文字列から一つの文字列を選択する、
処理を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013016215A JP2014146303A (ja) | 2013-01-30 | 2013-01-30 | 情報端末、文字列変換方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013016215A JP2014146303A (ja) | 2013-01-30 | 2013-01-30 | 情報端末、文字列変換方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014146303A true JP2014146303A (ja) | 2014-08-14 |
Family
ID=51426478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013016215A Pending JP2014146303A (ja) | 2013-01-30 | 2013-01-30 | 情報端末、文字列変換方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014146303A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019505011A (ja) * | 2015-12-07 | 2019-02-21 | エスアールアイ インターナショナルSRI International | 統合化された物体認識および顔表情認識を伴うvpa |
WO2025127369A1 (ko) * | 2023-12-12 | 2025-06-19 | 삼성전자주식회사 | 텍스트의 스타일을 변경하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체 |
-
2013
- 2013-01-30 JP JP2013016215A patent/JP2014146303A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019505011A (ja) * | 2015-12-07 | 2019-02-21 | エスアールアイ インターナショナルSRI International | 統合化された物体認識および顔表情認識を伴うvpa |
JP7022062B2 (ja) | 2015-12-07 | 2022-02-17 | エスアールアイ インターナショナル | 統合化された物体認識および顔表情認識を伴うvpa |
WO2025127369A1 (ko) * | 2023-12-12 | 2025-06-19 | 삼성전자주식회사 | 텍스트의 스타일을 변경하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10853650B2 (en) | Information processing apparatus, information processing method, and program | |
CN111339246B (zh) | 查询语句模板的生成方法、装置、设备及介质 | |
JP6138305B2 (ja) | コンテキスト情報を用いるカメラocr | |
KR102443636B1 (ko) | 전화번호 연관 정보를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
US20210150214A1 (en) | Method for Displaying Service Information on Preview Interface and Electronic Device | |
KR20190047214A (ko) | 관련 이미지를 검색하기 위한 전자 장치 및 이의 제어 방법 | |
US20160210276A1 (en) | Information processing device, information processing method, and program | |
CN106662630A (zh) | 使用通信耦接的电子设备来进行位置确定 | |
CN103631506A (zh) | 基于终端的阅读方法及相应的终端 | |
JP6155821B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2014229091A (ja) | 文字入力用のプログラム | |
CN118824282A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
KR20160134564A (ko) | 사용자의 감성을 분석하는 방법 및 디바이스 | |
US12124696B2 (en) | Electronic device and method to provide sticker based on content input | |
JP2014146303A (ja) | 情報端末、文字列変換方法及びプログラム | |
US20200342366A1 (en) | Recording Medium, Information Processing System, and Information Processing Method | |
KR102693272B1 (ko) | 콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치 | |
KR20210095291A (ko) | 스토리를 생성하는 전자 장치 및 그의 동작 방법 | |
JP6822261B2 (ja) | 情報処理装置、プログラムおよび情報処理方法 | |
JP6998914B2 (ja) | 情報処理システム、プログラム、及び情報処理方法 | |
EP4261685A1 (en) | Method for providing clipboard function, and electronic device supporting same | |
KR20120107033A (ko) | 스마트폰을 이용한 얼굴 이미지의 감정상태 검색방법 및 그 시스템 | |
CN110221707A (zh) | 一种英文输入方法、装置和电子设备 | |
Gujjula | AI book reading assistant for visually impaired people | |
JP2016170219A (ja) | 情報表示装置およびプログラム |