JP2013164554A - Electronic device - Google Patents
Electronic device Download PDFInfo
- Publication number
- JP2013164554A JP2013164554A JP2012028702A JP2012028702A JP2013164554A JP 2013164554 A JP2013164554 A JP 2013164554A JP 2012028702 A JP2012028702 A JP 2012028702A JP 2012028702 A JP2012028702 A JP 2012028702A JP 2013164554 A JP2013164554 A JP 2013164554A
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- call
- cpu
- party
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 29
- 230000008921 facial expression Effects 0.000 description 26
- 230000006870 function Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 210000004709 eyebrow Anatomy 0.000 description 7
- 210000000887 face Anatomy 0.000 description 6
- 230000036772 blood pressure Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 5
- 230000035900 sweating Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Landscapes
- Telephone Function (AREA)
Abstract
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
通話中の会話の中に予め登録されている危険キーワードが含まれていた場合に、発信者の声紋および暗証番号により発信者の認証を行い、認証ができなかった場合に、現在の通話が詐欺等の恐れのある危険なものであることの注意を喚起する音声を応答者に聴取させる詐欺電話検出・通報システムが知られている(例えば、特許文献1)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−135328号公報
If a dangerous keyword registered in advance is included in the conversation during a call, the caller is authenticated by the caller's voiceprint and PIN, and the current call is fraudulent if the authentication fails. There is known a fraudulent telephone detection / notification system that allows a responder to listen to a sound that calls attention to a dangerous thing such as a risk (for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2011-135328 A
従来、ユーザが過去に話したことがある相手であるか否かを、ユーザに適切に提示することができないという課題があった。 Conventionally, there has been a problem that whether or not the user has spoken in the past cannot be appropriately presented to the user.
本発明の一態様においては、電子機器は、声紋に関する声紋データを記憶する記憶装置と、機器を使用しているユーザを判別する判別装置と、前記機器により前記ユーザと通話をしている相手の音声を当該ユーザが聞いたことがあるかどうかを、前記記憶装置に記憶されている声紋データと、前記判別装置の判別結果とに基づいて判定する判定装置と、判定装置の判定結果を表示する表示装置と、を備える。 In one aspect of the present invention, an electronic device includes a storage device that stores voiceprint data relating to a voiceprint, a determination device that determines a user who is using the device, and a partner who is talking to the user using the device. A determination device that determines whether or not the user has heard the voice based on voiceprint data stored in the storage device and a determination result of the determination device, and a determination result of the determination device are displayed. A display device.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、一実施形態にかかる固定電話機1の概略構成を示す。本例において、固定電話機1は置き型設置式の電話機である。固定電話機1は、固定電話網の電話回線に接続される。固定電話機1は、本体部2および受話器3を備える。受話器3は、本体部2とコードで接続される。受話器3は、生体センサ6、接触センサ4、マイク部7、および、スピーカ部5を有する。
FIG. 1 shows a schematic configuration of a fixed
本体部2に設けられた表示部9には、例えば液晶表示素子を適用することができる。表示部9は、画像や各種情報を表示する。各種情報としては、着信時においては発信元の電話番号等を例示できる。発信時においては発信先の電話番号等を例示することができる。また、表示部9にタッチパネル機能を設けて、このタッチパネルを用いて固定電話機1を使用するユーザの登録を行なうようにすればよい。なお、タッチパネルとしては、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式を適宜選択して用いればよい。
For example, a liquid crystal display element can be applied to the
本体部2に設けられた内蔵カメラ13は、本体部2の上側に設けられる。内蔵カメラ13は、撮影レンズおよび撮像素子を含む。内蔵カメラ13は、通話しているユーザの表情を撮像することができる。撮像レンズとして広角レンズを用いた場合には、ユーザに加えて、ユーザの近傍に位置する人の表情を撮像することができる。例えば、内蔵カメラ13は、ユーザの隣にいる人の表情を撮像することができる。撮像素子としては、CCDやCMOS等の個体撮像素子を用いることができる。撮像素子は、RGB3原色がベイヤー配列で配置されたカラーフィルタを有してよい。これにより、撮像素子から、各色それぞれに対応した色信号を得ることができる。内蔵カメラ13は、ユーザを撮像する撮像機器の一例である。
The built-in
生体センサ6は、受話器3に設けられる。生体センサ6は、ユーザが受話器3を保持するときに、ユーザの手に触れる位置に設けられる。例えば、生体センサ6は、受話器3の長辺側の側面に設けられる。生体センサ6は、ユーザの生体情報を検出するものである。このように、ユーザが保持するマイクに、ユーザの生体情報を検出する生体センサ6が設けられる。生体センサ6による検出結果は、本体部2における制御に利用される。
The
生体センサ6としては、例えば、脈拍センサを例示することができる。脈拍センサとしては、LEDにより生体に向けて照射光を照射し、当該照射光に対して生体から反射した光を受光することにより、脈拍を検出するセンサを適用できる。脈拍センサとしては、例えば、特開2001−276012号公報(米国特許第6,526,315号明細書)に開示された構成を適用できる。生体センサ6は、脈拍センサの他にも、発汗量を検出する発汗量センサを有してよい。発汗量センサとしては、複数の電極を配した発汗センサを設けることによりユーザの発汗量を検出する構成を適用できる。生体センサ6として更に、体温を測る温度センサ、血圧を測る血圧センサ等を設けることもできる。また、特開2007−215749号公報(米国特許出願公開第2007/0191718号明細書)に開示されているような腕時計型の生体センサと連携することも可能である。すなわち、本体部2または受話器3とは別個に設けられ、ユーザの生体に接触して設けられた生体センサを、本体部2における制御に適用できる。例えば、本体部2が、当該生体センサの検出結果を通信により取得して、取得した検出結果を制御に利用してよい。
Examples of the
また、生体センサ6は、受話器3の長辺側の側面等に設けた圧力センサを含んでもよい。圧力センサによりユーザが受話器3を保持したことを検出して、上述した生体情報の検出を開始するようにしてもよい。すなわち、本体部2の電源がオンになっている場合には、圧力センサはオンにしておき、他の生体センサや各種センサ、本体部2内の各種解析を行う解析部はオフの状態にしてもよい。また、当該圧力センサの出力に基づいて、ユーザが受話器3を通常よりも強く握っているかどうかを判別することもできる。
In addition, the
接触センサ4は、ユーザが受話器3を保持するときに、スピーカ部5がユーザの耳に近接するように受話器3のスピーカ部5の周辺に設けられている。ユーザが受話器3を耳に当てているか否かを検出するものである。接触センサ4は、例えば、LEDにより物体に向けて照射光を照射し、照射光に対して物体で反射した光を受光することにより、物体との距離に対応する情報検出してよい。また、接触センサ4は、照度センサ等による光の検出結果に基づいて物体との距離に対応する情報を検出してもよい。例えば、接触センサ4は、照度センサで外部の光が受光されたか否かに基づき物体との距離に対応する情報を検出してよい。また、接触センサ4として、超音波の検出結果に基づいて物体との距離に対応する情報を検出してよい。例えば、接触センサ4は、超音波を出力し、物体で反射して戻ってくるまでの時間を超音波センサで検出することにより、物体との距離を算出してよい。
The
図2は、固定電話機1のブロック図を示す。本ブロック図を用いて固定電話機1の構成要素を説明する。固定電話機1は、図1に関連して説明した構成要素に加えて、カレンダー部14、ROM10、音声解析部11、画像分析部12およびCPU8に有する。カレンダー部14、ROM10、音声解析部11、画像分析部12およびCPU8は、本体部2に設けられる。
FIG. 2 shows a block diagram of the fixed
カレンダー部14は、年、月、日、時間といった時間情報をCPU8に出力する。また、カレンダー部14は、計時機能を有する。
The
ROM10は、例えばフラッシュメモリなどの不揮発性メモリである。ROM10は、固定電話機1を制御するプログラム、各種パラメータなどを記憶する。また、ROM10は、各種センサが検出した各種データ、ユーザが登録した顔データや、顔表情データに関するデータ等を記憶する。このうち、顔表情データには、笑顔、泣き顔、怒り顔、驚き顔、不安顔、不思議そうな表情、眉間に皺を寄せている表情、緊張している表情、リラックスしている表情等の画像データを含む。眉間に皺を寄せている表情は、嫌そうな表情の一例である。これらの顔や表情の組み合わせから、ユーザがイライラしているか否かを判断するとしてよい。なお、顔データなどの画像データの登録は、固定電話の不図示の通信部を用いて他の機器(例えばパソコン)から画像データを送信してもよく、受話器3に内蔵カメラを設けて、この内蔵カメラによりユーザの顔を撮像するようにしてもよい。
The
また、ROM10は、あらかじめ登録されているフレーズやキーワードのほか、ユーザがタッチパネルを用いて登録した特定のフレーズやキーワードを記憶する。本実施形態においては、振り込み、ATMというような振り込み詐欺に関連するワードや、購入、販売というような勧誘に関連するワードがキーワードとしてROM10に登録されているものとする。また、「10分後にかけなおして下さい」というフレーズがROM10に登録されているものとする。本実施形態においては、ROM10は、話し相手或いはユーザが登録している特定のフレーズやキーワードを発したときに、通話内容を記録保存する。このとき、通話内容を記録保存することが、話し相手に通知される。特定のフレームやキーワード等の特定のワードが検出した場合に、話し相手に対して警告を行うことができる。本機能は、例えば振り込め詐欺等の場面に適用できる。詳細については後述する。
In addition to the phrases and keywords registered in advance, the
また、ROM10は、ユーザの話し相手の声紋に関する声紋データを記憶する記憶装置として機能する。ROM10は、固定電話機1で取り込まれた音声を解析することにより得られた声紋データを記憶する。固定電話機1においては、話し相手とは通話相手であってよい。
The
音声解析部11は、受話器3に設けられたスピーカ部5から取り込まれる音声を解析する。音声解析部11は声紋分析機能を有する。音声解析部11は、取り込まれた音声をユーザが登録した声紋と比較識別することにより、話し相手が初めて電話をかけてきた人物なのか、過去にも通話したことがある人物なのか等を判定する。例えば、音声解析部11は、取り込まれた音声の声紋に基づいて使用しているユーザを判別し、判別したユーザが話し相手と初めて話をしているか否かを判定する。
The
また、音声解析部11は、話し相手の音声を解析する。固定電話機1で取り込まれた話し相手の音声を解析する。CPU8は、取り込まれた話し相手の音声の声紋を、ROM10に記憶されている声紋と比較識別して話し相手を判別し、判別したユーザが話し相手と初めて話をしているか否かを判定する。
The
このように、音声解析部11は、ユーザを判別する判別装置として機能する。また、CPU8は、ユーザと話をしている話し相手の音声を当該ユーザが聞いたことがあるかどうかを、話し相手の声紋およびROM10に記憶されているデータに基づいて判定する判定装置として機能する。
Thus, the
なお、音声解析部11は音声認識辞書を有している。音声解析部11は、音声認識辞書を参照して通話相手の音声を解析する。なお、固定電話機1には、音声認識ソフトウェアがインストールされ、インストール済みのソフトウェアを用いて音声を認識してよい。更には別途市販のソフトをインストールして音声の認識に用いてもよい。具体的には、CPU8が、ソフトウェアに従って動作することにより、音声の認識処理を実行してよい。
The
音声解析部11は、ROM10に予め登録されているフレーズやキーワードのほか、ユーザが登録した特定のフレーズやキーワードが、話し相手の音声に含まれているか否かを検出する。このように、音声解析部11は、話し相手の音声に特定のワードが含まれているかどうかを検出する検出装置として機能する。CPU8は、音声解析部11で特定のワードが検出された場合に、話し相手に対して警告を行う。表示部9は、音声解析部11による判定結果を表示する表示装置として機能する。
The
画像分析部12は内蔵カメラ13が撮像した画像を分析する。画像分析部12は、顔認識部16および表情検出部17を有する。
The
顔認識部16は、内蔵カメラ13が撮像した画像から顔を検出するとともに、検出した顔と、ROM10に記憶されている顔とを比較して、内蔵カメラ13が撮像した人を認識する。顔認識部16は、例えばパターンマッチングにより顔の比較を行う。内蔵カメラ13は前述したように表示部9と同じ側に設けられているので、ユーザの顔を主に撮像することができる。このため、顔認識部16も、ユーザの顔を認識することができる。
The face recognition unit 16 detects a face from an image captured by the built-in
表情検出部17は、顔認識部16により検出された顔領域の画像の顔表情を、ROM10に記憶されている顔表情データと比較することにより、内蔵カメラ13が撮像した人の表情を検出する。なお、表情検出部17は、笑顔、泣き顔、怒り顔、驚き顔、不安顔、不思議そうな表情、眉間に皺を寄せている表情、緊張している表情、リラックスしている表情等の様々な種類の表情を検出する。ROM10は、これらの複数の種類の表情データを記憶する。なお、笑顔検出には、米国特許出願公開第2008−0037841号明細書に記載された方法を適用できる。また、眉間の皺の検出には、米国特許出願公開第2008−0292148号明細書に記載された方法を適用できる。
The facial expression detection unit 17 detects the facial expression of the person captured by the built-in
CPU8は、固定電話機1全体を制御する。本実施形態においては、ユーザの表情、ユーザ或いは話し相手の発したフレーズやキーワード、ユーザの言葉遣いなどに応じて、通話内容を録音するような制御を行う。電源部15は、本体部2および受話器3の各部に電源を供給する。
The
図3は、ROM10に記憶されるユーザ情報の一例を示す。ユーザ情報は、例えば、ユーザID、名前、声紋データおよび画像データを互いに対応づけたデータである。ユーザIDは、固定電話機1を使用するユーザを識別する情報である。ユーザIDは、ユーザ登録時にCPU8が付与する数値等の情報であってよい。
FIG. 3 shows an example of user information stored in the
名前は、表示部9への表示に使用されるユーザ名であり、ユーザによって登録されてよい。家庭においては、「父」「母」など、血縁関係等を示す情報を名前として使用してもよく、名(first name)を使用してもよい。会社等の組織においては、氏名、役職等を名前として使用できる。
The name is a user name used for display on the
声紋データは、ユーザIDに対応するユーザの声紋のデータを特定する情報である。画像データは、ユーザIDに対応するユーザを撮像した画像のデータを特定する情報である。内蔵カメラ13で撮像したユーザの顔等のデータを、画像データとして記憶してよい。
The voiceprint data is information for specifying user voiceprint data corresponding to the user ID. The image data is information that specifies data of an image obtained by capturing the user corresponding to the user ID. Data such as the user's face captured by the built-in
ここでは分かり易く説明することを目的として、声紋データや画像データの一例として、データを格納するファイルのファイル名を示した。しかし、ROM10においてデータを記憶しているメモリ位置の情報等、ROM10におけるデータの記憶場所を特定する情報を音声データや画像データとして適用できる。
Here, for the sake of easy understanding, the file name of a file storing data is shown as an example of voiceprint data or image data. However, information specifying the storage location of data in the
音声解析部11は、マイク部7で取り込まれた音声の声紋と本ユーザ情報とに基づいて、固定電話機1を使用しているユーザを判別する。具体的には、音声解析部11は、マイク部7で取り込まれた音声の声紋に類似する声紋データに対応づけて記憶されたユーザIDを特定する。また、顔認識部16は、内蔵カメラ13で撮像されたユーザの画像と本ユーザ情報とに基づいて、固定電話機1を使用しているユーザを判別する。具体的には、顔認識部16は、内蔵カメラ13で撮像されたユーザの画像に類似する画像データに対応づけて記憶されたユーザIDを特定する。
The
図4は、ROM10に記憶される話相手情報の一例を示す。話相手情報は、例えば、話相手IDおよび声紋データを互いに対応づけたデータである。話相手IDは、話相手を識別する情報である。話相手IDは、CPU8が付与する数値等の情報であってよい。CPU8は、ユーザの誰もが過去に通話したことのない相手から電話がかかってきた場合に、当該相手に付与した話相手IDおよび声紋データを、話相手情報として追加する。なお、話相手を親戚や友人などのグループ化してROM10に記憶させてもよく、このようなグループ化は前述のタッチパネルを用いて行なうことができる。
FIG. 4 shows an example of talk partner information stored in the
音声解析部11は、固定電話機1で取り込まれた話し相手の音声の声紋と本話相手情報とに基づいて、ユーザの話し相手を判別する。具体的には、音声解析部11は、話し相手の音声の声紋に類似する声紋データに対応づけて記憶された話相手IDを特定する。
The
図5は、ROM10に記憶される通話履歴情報の一例を示す。通話履歴情報は、例えば、話相手ID、ユーザIDおよび通話時刻を互いに対応づけたデータである。
FIG. 5 shows an example of call history information stored in the
話相手IDは、上述した話相手情報に含まれる話相手IDに対応する。ユーザIDは、上述したユーザ情報に含まれるユーザIDに対応する。通話時刻は、話相手IDで識別される話し相手とユーザIDで識別されるユーザとが話しをした日時を示す日時情報である。日時情報として、年月日、時刻等の情報を含んでよい。日時情報は、カレンダー部14から供給された時間情報に基づいて決定される。なお、通話時刻としては、通話を開始した通話開始時刻および通話時刻を終了した通話終了時刻の少なくとも一方を含んでよい。
The talk partner ID corresponds to the talk partner ID included in the talk partner information described above. The user ID corresponds to the user ID included in the user information described above. The call time is date and time information indicating the date and time when the talk partner identified by the talk partner ID and the user identified by the user ID talked. Date / time information may include information such as date, time, and the like. The date information is determined based on the time information supplied from the
CPU8は、電話をしてきた相手が過去にいずれのユーザと話しをしているかを、本通話履歴情報に基づいて判断する。また、CPU8は、電話をしてきた相手とユーザとの間の通話履歴情報を、本通話履歴情報および上述したユーザ情報に基づいて、表示部9に表示させる。
The
図6は、表示部9に表示される画面60の一例を示す。本画面60は、ユーザが初めての相手と通話する場合の画面の一例である。本画面60に示すように、CPU8は、「この人とは初めての人です。」等、初めての相手である旨を、表示部9に表示することによりユーザに通知する。
FIG. 6 shows an example of a
また、CPU8は、電話をしてきた相手が過去に他のユーザと通話していることが通話履歴情報に基づいて判断された場合には、この相手との通話履歴を表示部9にさらに表示させる。通話履歴は、日時および受け手の情報を含む。日時情報は通話履歴情報およびユーザ情報に基づいて特定される。受け手情報は、通話履歴情報およびユーザ情報に基づいて特定される。このように、表示部9は、ユーザと話をしている話し相手の声紋のデータがROM10に記憶されている場合に、当該音声を聞いたことがある人に関する表示を行う。
In addition, when it is determined based on the call history information that the other party who has called has made a call with another user in the past, the
図7は、表示部9に表示される画面70の一例を示す。本画面70は、ユーザが初めてではない相手と通話する場合の画面の一例である。本画面70に示すように、CPU8は、「この人とは2回通話したことがあります。」等、初めての相手ではない旨を、表示部9に表示することによりユーザに通知する。
FIG. 7 shows an example of a
また、CPU8は、電話をしてきた相手と受け手としてのユーザとの間の通話履歴を、表示部9にさらに表示させる。通話履歴は、日時情報の一覧を含む。日時情報は通話履歴情報およびユーザ情報に基づいて特定される。このように、表示部9は、話し相手の音声をユーザが聞いたことがある場合に、当該音声をユーザが聞いた時期に関する表示を行う。
Further, the
図8は、固定電話機1における通話中のCPU8による制御の一例を示すフローである。本フローは相手からの電話を受けたときに開始され、この際にCPU8は、カレンダー部14により通話開始日時を取得するとともに、カレンダー部14により通話時間の計時を行なわせる。
FIG. 8 is a flowchart showing an example of control by the
CPU8は、ステップ80で、受け手の声紋および内蔵カメラ13の画像から、受け手としてのユーザが誰かであるかを判別する。例えば、ユーザ情報に基づき、母親が受け手であったと判別する。
In step 80, the
CPU8は、ステップ82で、固定電話機1で取り込まれた相手の声紋を音声解析部11に分析させる。CPU8は、ステップ84で、分析された声紋から相手を判別する。具体的には、CPU8は、分析された声紋と、ROM10に話相手情報として記憶されている声紋データとを比較する。分析された声紋に類似した声紋データが話相手情報として記憶されていない場合に、初めての声紋と判断する。CPU8は、相手の声紋に類似する声紋データが話相手情報として記憶されている場合には、当該声紋データに対応づけられた話相手IDを特定する。
In step 82, the
初めての声紋と判断された場合、CPU8は、ステップ86で、相手の声紋のデータおよび付与した話相手IDを声紋情報に追加する。また、CPU8は、通話してきた相手が初めてであることを表示部9に表示する。更に、CPU8は、当該話相手ID、ユーザIDおよび通話開始時刻の情報を、通話履歴に追加してよい。一方、ステップ84で初めての声紋と判断されなかった場合(すなわち、通話履歴がある場合)、CPU8は、ステップ88に進む。
If it is determined that the voiceprint is the first voiceprint, the
CPU8は、ステップ88で、ROM10に記憶されている通話履歴から、話相手が危険用語の使用履歴があるかどうかを判定する。CPU8は、危険用語を用いた履歴があればステップS90で表示部9に危険用語とともに通話履歴を表示してステップ94に進む。ここで、CPU8は、登録している危険用語およびその用いた回数を表示部9に表示してもよく、使用されている危険用語から詐欺系、勧誘系などと上位概念(階層的な表現)で表示するようにしてもよい。また、危険用語の使用履歴がある場合や、初めての相手からの通話である場合に、CPUは、表示部9を点滅させたり、表示の色を通常とは異なる色(例えば、赤)にしたり、表示の大きさを大きくしたりして視認性を高めるようにしてもよい。一方、CPU8は、危険用語を用いた履歴がなければステップ92で表示部9に表示履歴を表示する。この場合、CPU8は、受け手と話し相手が初めてであるか否かを判断する。例えば、CPU8は、相手の声紋が、母親が初めて聞く音声の声紋であるか否かを判別する。具体的には、CPU8は、通話履歴情報に基づいて、受け手と話相手が初めてであるかを判断する。
In step 88, the
母親の通話履歴がある場合、受け手と話し相手が初めてではないと判断され、CPU8は、表示部9に図7に例示した画面を通話履歴として表示させる。これにより、本実施形態の固定電話機1は、前回通話した日時等をユーザに通知することができる。この際に、CPU8は、カレンダー部14で計時した通話時間や、平均通話時間などを表示部9に表示してもよい。また、母親の通話履歴がない場合、受け手にとって相手が初めての通話相手であると判断され、CPU8は、通話履歴情報に基づいて図6に例示したような他のユーザとの間の通話履歴を表示させる。
If there is a call history of the mother, it is determined that the recipient and the speaking partner are not the first time, and the
CPU8は、ステップ94で、通話の録音を開始し、録音されたデータをROM10に記憶する。録音されるデータとしては、ユーザの音声および話相手の音声を含む。また、CPU8は、音声解析部11により、登録された危険用語の有無の検出を行なう。
In step 94, the
CPU8は、ステップ96で、生体センサ6で検出された生体情報を取得してユーザである母親の状況を分析する。例えば、CPU8は、生体センサ6で検出された母親の脈拍、母親の発汗量、血圧等を分析する。CPU8は、一定期間内の脈拍数が予め定められた基準値を超えたか否か、母親の発汗量が予め定められた基準値を超えたか否か、血圧が予め定められた基準値を超えたか否かを判断してよい。
In step 96, the
CPU8は、ステップ98で、内蔵カメラ13が撮像した画像からユーザの表情を分析する。例えば、CPU8は、予め定められた表情をしているか否かを表情検出部17に検出させる。予め定められた表情としては、不安そうな表情、不思議そうな表情、嫌そうな表情、怒っている表情、イライラした表情等を例示することができる。
In step 98, the
CPU8は、ステップ100で、会話の中に予め定められた危険用語が検出されたか否かを認識する。CPU8は、危険用語があればステップ102に進み、危険用語が無ければステップ106に進む。
In step 100, the
CPU8は、ステップ102で、本フローチャートにおいてステップS102に進むのが初めてかどうかの判断を行なう。これは、次のステップ104の処理を重複して行なわないようにするためである。CPU8は、ステップ104で、相手に通話の録音を告げる。この場合、CPU8は、ROM10に記憶されている音声データ(フレーズ)を出力する。具体的には、「この通話は録音されています」等、相手に警告する音声を、マイク部7から入力された音声に重畳して電話回線に出力する。警告する音声は、マイク部7から入力された音声に代えて出力されてもよい。なお、本フローではステップ94にて録音を開始したが、ステップ104の通知のタイミングで録音を開始するようにしてもよい。
In step 102, the
CPU8は、ステップ106で、通話が終了したかどうかを判断する。具体的には、CPU8は、受話器3に設けられた接触センサ4が本体部2に置かれたかどうかを検出することにより、通話が終了したかどうかを判断し、通話が終了していればステップ108に進み、通話が終了していなければステップ110に進む。
In step 106, the
CPU8は、ステップ108に進んだ場合に、表示部9に通話の要約を表示させる。本実施形態において、CPU8は、音声解析部11を用いて日時、場所に関するキーワードを抽出し、話相手(例えば友人)との待ち合わせ場所や、待ち合わせ日時を表示部9に表示させている。また、CPU8は、カレンダー部14による計時も終了させ、通話時間などを含む通話履歴をROM10に記憶させるとともに、録音した音声の消去を行なう。なお、CPU8は、録音した音声の消去を通話終了後直ちに行なってもよく、所定時間経過後(例えば、24時間)に行なうようにしてもよい。
When the
一方、通話が終了していない場合に、CPU8は、ステップ110で、固定電話機1の動作モードを留守番電話モードにするかどうかを判断する。例えば、CPU8は、ステップ96の生体情報の分析結果と、ステップ98の表情の分析結果とに基づいて、留守番電話モードにするか否かを判断する。本実施形態において、CPU8は、予め定められた表情が、予め定められた長さを超えて検出され続けていると判断された場合に、留守番電話モードにすると判断する。また、CPU8は、基準値を超える脈拍数が検出されたり、基準値を超える発汗量が検出されたり、基準値を超える血圧が検出された場合に、留守番電話モードにすると判断する。なお、これらの基準値は、ユーザID毎に設定してもよく、話相手IDから友人や身内との通話の際に生体センサ6により平時の生体情報を取得して、ROM10に記憶しておくようにすればよい。また、CPU8は、音声解析部11を用いて母親の言葉遣いを分析して、この分析結果に応じて留守番電話モードにするか否かを判断するようにしてもよい。具体的には、CPU8は、母親が「お断りします」、「結構です」、「間に合っています」というワードを発したり、語尾が荒くなった場合に、留守番電話モードにすると判断すればいい。
On the other hand, if the call has not ended, the
なお、CPU8は、生体情報分析や表情分析に基づいて留守番電話モードにすべき旨が判断された場合に、留守番電話モードにするべき状況である旨をユーザに提示してもよい。例えば、CPU8は、詐欺の可能性がある旨を表示部9に表示させてよい。また、CPU8は、母親の状態が通常ではなく、緊張している場合などに相手に尋ねてみるべきフレーズを、表示部9に表示させてもよい。本実施形態では、CPU8は、フレーズとして、"10分後にかけなおして下さい"と表示部9に表示するものとする。このようなフレーズも危険用語に応じてROM10に記憶させておけばよく、また、タッチパネルにより登録するようにしてもよい。また、CPU8は、留守番電話モードにするか否かの問い合わせを表示部9に表示させてもよい。CPU8は、留守番電話モードにする旨がユーザによって選択された場合に、留守番電話モードにすると判断してもよい。
Note that the
CPU8は、動作モードを留守番電話モードにすると判断した場合、ステップ112に進み、動作モードを留守番電話モードに設定して、危険用語を含む通話記録をROM10に記憶して、本フローを終了する。この場合、CPU8は、録音した音声をROM10に記憶させたままにするか、消去するかをユーザに問い合わせるようにしてもよく、消去するタイミングを通常の2倍(例えば48時間)に設定するようにしてもよい。一方、留守番電話モードにしない場合は、ステップ96に処理を戻す。
If the
いわゆるオレオレ詐欺をしようとする者が、親族等と偽って電話番号が変わったことを事前に電話で知らせる等した上で、次回以降の電話で詐欺を実行しようとする場合がある。しかし、本実施形態の固定電話機1によれば、例えば最初の電話で父親がその電話に対応した場合でも、次回の電話で母親が対応した場合には、母親がその話相手とは始めてであることを表示部9に表示して注意を喚起しているので、母親が騙される可能性を低減することができる。なお、受け手と話し相手とが初めてではなくても、受け手が話し相手と通話した回数が予め定められた値より少ない場合や、初めての通話から所定期間内(例えば48時間)通話をしてきた場合に、表示部9に注意を促すフレーズを表示してもよい。このように、詐欺をしようとする者が事前に電話番号を偽る電話をしたとしても、その者との通話頻度が少ない場合には表示部9に注意を喚起する表示を行なうことで受け手が騙される可能性を低減することができる。
There is a case where a person who is trying to do so-called oleo fraud tries to execute fraud on the next and subsequent telephones after notifying the telephone in advance that the telephone number has been changed falsely as a relative or the like. However, according to the fixed
上記の説明において、CPU8の動作として説明した処理は、CPU8がプログラムに従って固定電話機1が有する各ハードウェアを制御することにより実現される。すなわち、本実施形態の固定電話機1に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。
In the above description, the processing described as the operation of the
なお、本実施形態では、通話装置の一例としての固定電話機1を取り上げて説明した。しかし、固定電話機1として、受話器3と本体部2とが無線で接続される、いわゆるコードレス式の固定電話機を適用できる。この場合、ユーザが、内蔵カメラ13でユーザを撮像できないような位置にいる場合でも、マイク部7に入力された音声の声紋から、ユーザを特定することができる。また、通話装置として携帯電話機を適用できる。なお、本実施形態における電話回線は通話回線の一例である。通話回線としては、固定電話回線の他に、携帯電話回線等を適用できる。また、インターネット、衛星通信等の種々の通信回線を通話回線として適用できる。
In the present embodiment, the fixed
また、本実施形態では、家庭において固定電話機1を使用する場面を主として説明した。しかし、固定電話機1等の通話装置を、企業等の組織で使用する場面にも適用できる。例えば、電話オペレータ等をユーザとする通話装置に適用できる。一例として、お客様係や苦情受付係等で使用される場面において使用され得る。例えば、通話相手の音声をユーザが聞いたことがあるかどうかや通話履歴等を表示する機能を、通話装置の機能として適用できる。
Moreover, in this embodiment, the scene which uses the
固定電話機1の機能は、いわゆる電話機単体としてではなく、種々の電子機器に組み込むことができる。例えば、パーソナルコンピュータ等の汎用のコンピュータ装置、テレビ等、電話機能以外の他の機能を有する電子機器に、固定電話機1の機能を組み込むことができる。また、カメラ機能については、内蔵カメラとして電子機器に内蔵される形態の他に、電子機器に外付けされる形態を採用することができる。
The functions of the fixed
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
1 固定電話機、2 本体部、3 受話器、4 接触センサ、5 スピーカ部、6 生体センサ、7 マイク部、8 CPU 、9 表示部、10 ROM、11 音声解析部、12 画像分析部、13 内蔵カメラ、14 カレンダー部、15 電源部、16 顔認識部、17 表情検出部
DESCRIPTION OF
Claims (12)
機器を使用しているユーザを判別する判別装置と、
前記機器により前記ユーザと通話をしている相手の音声を当該ユーザが聞いたことがあるかどうかを、前記記憶装置に記憶されている声紋データと、前記判別装置の判別結果とに基づいて判定する判定装置と、
前記判定装置の判定結果を表示する表示装置と、
を備える電子機器。 A storage device for storing voiceprint data relating to a voiceprint;
A discriminating device for discriminating a user using the device;
Determining whether the user has heard the voice of the other party who is talking to the user by the device based on the voice print data stored in the storage device and the determination result of the determination device A determination device to
A display device for displaying a determination result of the determination device;
Electronic equipment comprising.
前記記憶装置に前記特定のワードが記憶されていた場合に、前記ユーザに警告を行なう警告部を備える請求項1または2記載の電子機器。 The storage device can store a specific word of the opponent,
The electronic device according to claim 1, further comprising a warning unit that warns the user when the specific word is stored in the storage device.
請求項1から4のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 4, wherein, when the user has heard the voice of the other party, the display device performs a display regarding a time when the user heard the voice.
請求項1から5のいずれか一項に記載の電子機器。 6. The display device according to claim 1, wherein when the voice print data of the voice print of the other party who is talking to the user is stored in the storage device, the display device displays the person who has heard the voice. The electronic device as described in any one.
をさらに備える
請求項1から6のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 6, further comprising a detection device that detects whether or not a specific word is included in the voice of the other party.
を備える請求項7に記載の電子機器。 The electronic device according to claim 7, further comprising: a warning unit that issues a warning to the opponent when the detection device detects the specific word.
を備える請求項1から8のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 8, further comprising an imaging device that images the user.
前記通話の内容に応じて前記録音部が録音した音声の消去のタイミングを決定する決定部を備える請求項1から11のいずれか一項に記載の電子機器。 A recording unit for recording the call;
The electronic device according to any one of claims 1 to 11, further comprising a determination unit that determines a timing of erasing the voice recorded by the recording unit according to the content of the call.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012028702A JP2013164554A (en) | 2012-02-13 | 2012-02-13 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012028702A JP2013164554A (en) | 2012-02-13 | 2012-02-13 | Electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013164554A true JP2013164554A (en) | 2013-08-22 |
Family
ID=49175921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012028702A Pending JP2013164554A (en) | 2012-02-13 | 2012-02-13 | Electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013164554A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016146522A (en) * | 2015-02-06 | 2016-08-12 | カシオ計算機株式会社 | Data output device, data output method and program |
JP2020129732A (en) * | 2019-02-07 | 2020-08-27 | 富士通コネクテッドテクノロジーズ株式会社 | Information processing device, information processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1051349A (en) * | 1996-08-01 | 1998-02-20 | Nec Corp | Portable communication equipment |
JP2005109610A (en) * | 2003-09-29 | 2005-04-21 | Hitachi Software Eng Co Ltd | Method and system for preventing nuisance call |
JPWO2004039044A1 (en) * | 2002-10-23 | 2006-02-23 | 富士通株式会社 | Communication terminal, voiceprint information search server, personal information display system, personal information display method in communication terminal, personal information display program |
JP2007096963A (en) * | 2005-09-29 | 2007-04-12 | Saxa Inc | Telephone apparatus |
JP2011049910A (en) * | 2009-08-27 | 2011-03-10 | Kyocera Corp | Electronic equipment |
-
2012
- 2012-02-13 JP JP2012028702A patent/JP2013164554A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1051349A (en) * | 1996-08-01 | 1998-02-20 | Nec Corp | Portable communication equipment |
JPWO2004039044A1 (en) * | 2002-10-23 | 2006-02-23 | 富士通株式会社 | Communication terminal, voiceprint information search server, personal information display system, personal information display method in communication terminal, personal information display program |
JP2005109610A (en) * | 2003-09-29 | 2005-04-21 | Hitachi Software Eng Co Ltd | Method and system for preventing nuisance call |
JP2007096963A (en) * | 2005-09-29 | 2007-04-12 | Saxa Inc | Telephone apparatus |
JP2011049910A (en) * | 2009-08-27 | 2011-03-10 | Kyocera Corp | Electronic equipment |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016146522A (en) * | 2015-02-06 | 2016-08-12 | カシオ計算機株式会社 | Data output device, data output method and program |
JP2020129732A (en) * | 2019-02-07 | 2020-08-27 | 富士通コネクテッドテクノロジーズ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446876B (en) | Sign language information processing method and device, electronic equipment and readable storage medium | |
RU2636580C2 (en) | Method and device for displaying conversational interface | |
CN107025419B (en) | Fingerprint template inputting method and device | |
CN105282345B (en) | The adjusting method and device of In Call | |
CN105845124B (en) | Audio processing method and device | |
CN104991754B (en) | The way of recording and device | |
CN110377761A (en) | A kind of method and device enhancing video tastes | |
CN103576839A (en) | Facial recognition based terminal operation control device and method | |
CN106409317B (en) | Method and device for extracting dream speech | |
CN105100363A (en) | Information processing method, information processing device and terminal | |
WO2018076615A1 (en) | Information transmitting method and apparatus | |
US10402619B2 (en) | Method and apparatus for detecting pressure | |
CN108401129A (en) | Video call method, device, terminal and storage medium based on wearable device | |
CN104202485B (en) | A kind of safety call method, device and mobile terminal | |
CN113920465A (en) | Method and device for identifying film trailer, electronic equipment and storage medium | |
WO2017140108A1 (en) | Pressure detection method and apparatus | |
JP2007037088A (en) | Door phone device | |
JP2013164554A (en) | Electronic device | |
US20220270627A1 (en) | Method and apparatus for audio processing, and storage medium | |
CN107896277B (en) | Method and device for setting alarm clock reminding mode and computer readable storage medium | |
CN118264743A (en) | Communication method, device, electronic equipment and storage medium | |
CN108234782B (en) | Incoming call processing method, device and equipment | |
CN107872590A (en) | A kind of method, apparatus and equipment of phone identification | |
CN109361858A (en) | Obtain method, apparatus, electronic equipment and the storage medium of image | |
JP2004266714A (en) | Personal identification device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160308 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161011 |