[go: up one dir, main page]

CN110347834A - 信息处理装置、便携式装置以及信息处理系统 - Google Patents

信息处理装置、便携式装置以及信息处理系统 Download PDF

Info

Publication number
CN110347834A
CN110347834A CN201910615325.3A CN201910615325A CN110347834A CN 110347834 A CN110347834 A CN 110347834A CN 201910615325 A CN201910615325 A CN 201910615325A CN 110347834 A CN110347834 A CN 110347834A
Authority
CN
China
Prior art keywords
mentioned
unit
sound
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910615325.3A
Other languages
English (en)
Inventor
宝珠山秀雄
秋谷裕之
梅山一也
新田启一
上井弘树
关口政一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ama Yasushi
Nikon Corp
Original Assignee
Ama Yasushi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010034013A external-priority patent/JP5869209B2/ja
Priority claimed from JP2010033982A external-priority patent/JP5348010B2/ja
Priority claimed from JP2010033988A external-priority patent/JP2011170634A/ja
Priority claimed from JP2010033985A external-priority patent/JP2011170633A/ja
Priority claimed from JP2010034003A external-priority patent/JP5353750B2/ja
Priority claimed from JP2010033997A external-priority patent/JP5577737B2/ja
Application filed by Ama Yasushi filed Critical Ama Yasushi
Publication of CN110347834A publication Critical patent/CN110347834A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/258Data format conversion from or to a database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2113Multi-level security, e.g. mandatory access control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2149Restricted operating environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Bioethics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Document Processing Apparatus (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

考虑安全性,并为了实现可用性的提高,因而提供一种信息处理装置,该信息处理装置具备:输入部,其输入信息;提取部,其从被输入到上述输入部的上述信息中提取规定的字;分类部,其将由上述提取部提取的上述字分类为第一文字和第二文字;以及变换部,其通过第一变换方法对上述第一文字进行变换,并且通过不同于上述第一变换方法的第二变换方法对上述第二文字进行变换。

Description

信息处理装置、便携式装置以及信息处理系统
本申请是申请日为2011年2月4日,申请号为201610670174.8,发明名称为“信息处理装置、便携式装置以及信息处理系统”的发明专利申请的分案申请,是针对该发明专利申请的第一次审查意见通知书中指出的单一性问题而提交的分案申请,本发明申请是国际申请日为2011年2月4日、国际申请号为PCT/JP2011/052446、进入中国国家阶段的国家申请号为201180010169.X、发明名称为“信息处理装置、便携式装置以及信息处理系统”的发明申请的分案申请。
技术领域
本发明涉及一种信息处理装置、便携式装置以及信息处理系统。
背景技术
以往,提出了一种辅助用户的便携式信息终端。例如在专利文献1中提出了如下一种技术:使用者通过便携式电话在第一服务器中记录声音消息,将所记录的该消息划分为多个,多个外部秘书将划分后的各消息制作成文本之后存储到第二服务器中,由此进行使用者的日程管理。
另外,在专利文献2中提出了如下一种技术:在便携式信息终端中设置声音输入单元和通信单元,将从声音输入单元输入的声音通过通信单元发送到声音识别服务器,由便携式信息终端接收在声音识别服务器中基于声音生成的文字信息。
专利文献1:日本特开2006-309356号公报
专利文献2:日本特开平7-222248号公报
发明内容
然而,以往的便携式信息终端欠缺对安全性的考虑、操作复杂等,从而并不能说是便于使用的装置。
因此,本发明是鉴于上述问题而完成的,其目的在于提供一种考虑了安全性的、便于使用的信息处理装置、提高了使用性的便携式装置以及信息处理系统。
本发明的第一信息处理装置具备:输入部,其供输入信息;提取部,其从被输入到上述输入部的上述信息中提取规定的字;分类部,其将由上述提取部提取出的上述文字分类为第一文字和第二文字;以及变换部,其通过第一变换方法对上述第一文字进行变换,并且通过不同于上述第一变换方法的第二变换方法对上述第二文字进行变换。
在这种情况下,也可以设为,上述输入部具备与外部的信息处理装置进行通信的通信部,将由上述变换部变换得到的结果通过上述通信部发送到上述外部的信息处理装置。
另外,在本发明的第一信息处理装置中,也可以设为上述输入部具备输入声音信息的声音输入部。在这种情况下,也可以设为具备文本数据生成部,该文本数据生成部基于上述声音信息生成文本数据,上述提取部从上述文本数据生成部所生成的文本数据中提取上述规定的文字。另外,在本发明的信息处理装置中,还可以设为上述输入部具备输入文本数据的文本数据输入部。
另外,在本发明的第一信息处理装置中,也可以设为上述分类部将商务使用的文字分类为第一文字,将私人使用的文字分类为第二文字。还可以设为上述变换部将上述第一文字和上述第二文字变换为上位概念的文字,并且将上述第一文字变换为与上述第二文字相比为上位概念的文字。还可以设为上述变换部将上述第一文字和上述第二文字的至少一部分变换为大写首字母。在这种情况下,也可以设为上述变换部使上述第一变换方法和上述第二变换方法中变换为上述大写首字母的部分的长度不同。另外,在这种情况下,能够在由上述变换部进行变换的文字是姓名的情况下,在上述第一变换方法中,将姓和名双方变换为大写首字母,在上述第二变换方法中,将姓和名中的某一方变换为大写首字母。
另外,在本发明的第一信息处理装置中,也可以设为在由上述变换部进行变换的文字是地名的情况下,在上述第一变换方法中将上述地名变换为规定区域的信息,在上述第二变换方法中将上述地名变换为比上述规定区域小的区域的信息。
本发明的第二信息处理装置具备:显示部,其显示信息;输入部,其输入声音;以及控制部,其根据上述声音的分析结果,将与上述声音相关联的信息显示在上述显示部上。
在这种情况下,能够设为上述控制部根据对上述声音的声谱进行分析的分析部的分析结果,来将与上述声音相关联的信息显示在上述显示部上。还可以设为上述控制部根据上述分析部的分析结果来将与上述声音所包含的规定的文字相关联的信息显示在上述显示部上。在这种情况下,能够设为上述控制部将与上述规定的文字相关联的信息与上述规定的文字一起根据被输入到上述输入部的频率显示在上述显示部上。
在本发明的第二信息处理装置中,也可以设为具备位置检测部,该位置检测部检测位置信息,上述控制部将与上述声音的分析结果相应的信息中的、与上述声音被输入时由上述位置检测部检测出的位置信息相应的信息显示在上述显示部上。在这种情况下,能够设为上述控制部将与下述位置信息相应的信息显示在上述显示部上,该位置信息是距上述声音被输入时由上述位置检测部检测出的位置信息在规定范围内的位置信息。
并且,在本发明的第二信息处理装置中,也可以设为具备位置检测部,该位置检测部检测位置信息,上述控制部根据上述位置检测部的输出,变更显示到上述显示部的显示方式。在这种情况下,也可以设为上述控制部在上述声音输入部所输入的声音中包含检测到上述位置检测信息的位置的信息的情况下,不将与上述位置有关的信息显示在上述显示部上。
另外,在本发明的第二信息处理装置中,也可以设为具有时刻检测部,该时刻检测部检测与时刻有关的信息,上述控制部考虑与上述时刻检测部的时刻有关的信息并在上述显示部上进行显示。在这种情况下,也可以设为上述控制部将与上述声音的分析结果相应的信息中的、与上述声音被输入时由上述时刻检测部检测出的时刻相应的信息显示在上述显示部上。在这种情况下,能够设为上述控制部将从上述声音被输入时由上述时刻检测部检测出的时刻起在规定时间内被输入的信息显示在上述显示部上。
在本发明的第二信息处理装置中,也可以设为具备可携带的装置,该可携带的装置具备上述显示部和上述输入部。
另外,在本发明的第二信息处理装置中,也可以设为在上述声音输入部所输入的声音中包含日期信息时,上述控制部根据该日期信息在上述显示部上进行显示。另外,在本发明的第二信息处理装置中,还可以设为具备日历部,该日历部输出日期信息,上述控制部根据上述日历部的日期信息,在上述显示部上进行显示。另外,在本发明的信息处理装置中,也可以设为具备文本数据生成部,该文本数据生成部将上述声音输入部所输入的声音变换为文本数据。另外,也可以设为上述控制部在上述输入的信息中包含特定的关键词时,将上述特定的关键词变换为不同的用语,并显示在上述显示部上。另外,在本发明的第二信息处理装置中,也可以设为上述控制部根据上述声音中是否存在固定用语、以及上述声音的音调,来决定是否向上述显示部进行显示。
另外,在本发明的第二信息处理装置中,能够设为上述控制部具有加权部,该加权部根据上述所输入的声音的大小、频率以及含义中的至少一个来进行加权,根据上述声音输入部所输入的声音和上述加权部的加权,来变更上述显示部的显示方式。
在这种情况下,能够设为上述加权部至少使用上述声音的频率来确定发出上述声音的人,进行与该人相应的加权。
另外,在本发明的信息处理装置中,也可以设为上述加权部基于上述声音的含义来进行与保密性相应的加权。
另外,也可以设为在具有检测与时刻相关的信息的时刻检测部的情况下,上述控制部使上述加权部的加权结果优先于与上述时刻检测部的时刻相关的信息显示在上述显示部上。
另外,在本发明的第二信息处理装置中,也可以设为在上述声音输入部所输入的声音中包含日期信息时,上述控制部根据该日期信息在上述显示部上进行显示。
另外,在本发明的第二信息处理装置中,也可以设为上述控制部根据上述加权结果,变更上述输入的信息的显示顺序。另外,还可以具备变更部,该变更部变更上述加权部的设定。并且,还可以设为上述控制部根据上述加权结果,变更颜色、显示大小、显示字体中的至少一个。
另外,在本发明的第二信息处理装置中,也可以具备设定部,该设定部用于让使用者设定上述加权。
本发明的第三信息处理装置具备:声音输入部,其对声音进行输入;文本数据生成部,其能够将输入的声音变换为文本数据;以及控制部,其根据声音相关的信息和与使用者相关的信息中的至少一个信息,开始由上述文本数据生成部进行的变换。
在本发明的第三信息处理装置中,能够设为上述控制部在上述声音输入部输入了特定的频率时,开始由上述文本数据生成部进行的变换。另外,上述控制部能够在上述声音输入部输入了与电话相关联的频率时,开始由上述文本数据生成部进行的变换。另外,上述控制部能够在输入了特定人的声音的频率时,开始由上述文本数据生成部进行的变换。
另外,在本发明的第三信息处理装置中,能够设为具备取得部,该取得部取得预定,上述控制部根据上述取得部取得的预定,开始由上述文本数据生成部进行的变换。在这种情况下,上述控制部能够检测上述预定的结束时刻,与该结束时刻相应地开始由上述文本数据生成部进行的变换。
另外,在本发明的第三信息处理装置中,能够设为上述控制部根据使用者的身体信息,开始由上述文本数据生成部进行变换。在这种情况下,本发明的第三信息处理装置能够具备身体信息输入部,该身体信息输入部输入上述使用者的身体信息。
另外,在本发明的第三信息处理装置中,能够设为具备时刻检测部,该时刻检测部检测与时刻有关的时刻信息,上述控制部在上述时刻检测部检测到的时刻信息与特定的时刻一致时,开始由上述文本数据生成部进行变换。在这种情况下,也可以设为具备位置检测部,该位置检测部检测位置信息,上述控制部根据上述位置检测部的检测结果,禁止由上述文本数据生成部进行的变换。
本发明的便携式装置具备:输入部,其进行输入;显示部,其显示与上述输入相关联的信息;检测部,其检测位置信息和时刻信息中的至少一方;以及控制部,其根据上述检测部检测到的信息,限制向上述显示部的显示。
在这种情况下,能够设为上述检测部是检测上述显示部的位置信息的位置检测部,上述控制部在根据上述位置检测部的输出判定为不能确保安全时,限制向上述显示部的显示。
在这种情况下,也可以设为上述控制部在根据上述位置检测部的输出判定为能够确保安全时,解除向上述显示部的显示限制的至少一部分。
另外,在本发明的便携式装置中,能够设为上述检测部是检测与时刻有关的信息的时刻检测部,上述控制部在根据上述时刻检测部的输出判定为不能确保安全时,限制向上述显示部的显示。
在这种情况下,也可以设为上述控制部在根据上述时刻检测部的输出判定为能够确保安全时,解除向上述显示部的显示限制的至少一部分。
在本发明的便携式装置中,也可以设为上述输入部是输入声音的声音输入部。在这种情况下,能够设为上述控制部将对上述输入的声音施加限制后的信息显示在上述显示部上。
本发明的第一信息处理系统具备:本发明的便携式装置;以及变换装置,其对从上述便携式装置输入的信息的至少一部分施加显示限制。
本发明的第二信息处理系统具备:输入部,其输入声音;文本数据生成部,其根据输入到上述输入部的声音,生成文本数据;分析部,其对输入到上述输入部的声音的声谱数据进行分析;以及消除部,其根据上述分析部的分析结果消除由上述文本数据生成部生成了文本数据后的声音。
在这种情况下,也可以设为具备:提取部,其从输入到上述输入部的上述声音中提取规定的文字;分类部,其将由上述提取部提取的上述文字分类为第一文字和第二文字;以及变换部,其通过第一变换方法对上述第一文字进行变换,并且通过不同于上述第一变换方法的第二变换方法对上述第二文字进行变换。
另外,在本发明的第二信息处理系统中,也可以设为上述分析部分析上述声音的声谱数据是否为已注册的用户的声谱数据,上述消除部根据上述分析部的分析结果,消除注册用户以外的声音。另外,还可以设为上述消除部使上述注册用户的声音与上述注册用户以外的声音经上述分析部分析之后直到消除为止的时间不同。
另外,在本发明的第二信息处理系统中,也可以设为具备警告部,该警告部在上述文本数据生成部无法基于上述声音生成文本数据的情况下,进行警告。另外,还可以设为具备再现部,该再现部在上述文本数据生成部无法基于上述声音生成文本数据的情况下,对上述声音进行再现,上述消除部根据上述分析部的分析结果消除由上述再现部再现出的上述声音。在这种情况下,还可以设为上述消除部将由上述再现部再现出的声音在从该再现起经过了规定时间之后,根据上述分析部的分析结果进行消除。
另外,在本发明的第二信息处理系统中,也可以设为具备可携带的便携式终端壳体,该便携式终端壳体具备上述再现部。
本发明起到如下的效果:能够提供一种考虑了安全性并提高了使用性的信息处理装置、提高了使用性的便携式装置以及信息处理系统。
附图说明
图1是一个实施方式所涉及的个人辅助系统100的功能框图。
图2的(a)~图2的(d)是表示从声音输入部输入的声音的录音处理的流程图。
图3是表示声谱DB的图。
图4是与声音数据的处理有关的流程图。
图5是表示存储数据DB的图。
图6是表示图4的步骤S76的具体处理的流程图。
图7是表示关键词DB的图。
图8是表示图4的步骤S84的具体处理的流程图。
图9是表示图8的步骤S122的具体处理的流程图。
图10是表示图9的步骤S142、S148的具体处理的流程图。
图11是表示特定变换词DB的图。
图12是表示图10的步骤S164、S166、S178、S180的具体处理的流程图。
图13是表示地名DB的图。
图14是表示关键词保存DB的图。
图15的(a)~图15的(d)是表示权重表的例子的图。
图16是表示关键词记录DB的图。
图17是表示命令DB的图。
图18的(a)是表示任务列表的显示例的图,图18的(b)是表示录音声音列表的显示例的图。
图19是表示在步骤S96中同时并行地进行的处理(之一)的流程图。
图20是表示在步骤S96中同时并行地进行的处理(之二)的流程图。
图21是表示在步骤S96中同时并行地进行的处理(之三)的流程图。
图22是表示可确保安全的范围DB的图。
图23是表示模糊词DB的图。
图24是表示便携式终端侧的数据的删除处理的流程图。
图25是表示服务器侧的声音数据的删除处理的流程图。
具体实施方式
以下、根据图1~图25详细说明个人辅助系统100的一个实施方式。在图1中示出了个人辅助系统100的框图。如该图1所示,个人辅助系统100具备便携式终端10和服务器50。
便携式终端10是用户可携带的终端,例如是移动电话、智能手机、PHS(PersonalHandy-phone System:个人手持电话通信系统)、PDA(Personal Digital Assistant:个人数字助理)等终端。该便携式终端10的大小例如设为装进胸袋的程度。便携式终端10如图1所示那样具有输入部12、显示部14、再现部16、警告部18、身体信息输入部20、位置检测部22、时刻检测部24、日历部26、闪速存储器28、通信部32以及终端侧控制部30。另外,便携式终端10具有容纳这些各部的至少一部分的、可携带的便携式终端壳体。
输入部12具有声音输入部42和文本数据输入部44。声音输入部42包括麦克风,获取用户的声音或在用户的周边产生的声音。文本数据输入部44包括键盘、触摸面板等输入接口,获取与用户的输入操作相应的文本数据。此外,输入部12还具有受理来自触摸面板等的用户的操作指示的功能。
显示部14包括液晶显示器、有机EL显示器等显示器。显示部14对显示器显示图像数据、文字数据等数据、或者进行用于用户进行操作的菜单显示。
再现部16包括扬声器,输出声音、声响。警告部18在便携式终端10中产生了错误时等对用户进行警告,例如通过再现部16进行警告音的输出、通过显示部14进行警告显示等。
身体信息输入部20例如是获取用户的肌肉的状态(紧张度和放松度)、或者血压、心跳数、脉搏、体温等身体信息的至少一个并输入到终端侧控制部30的装置。此外,作为检测身体信息的方法,例如能够采用如日本特开2005-270543号公报所记载的那样的手表型。此外,血压、脉搏只要是通过使用了红外线的脉搏检测传感器进行检测即可,心跳数只要是通过振动传感器进行检测即可。在心跳数相比普通情况上升时是紧张状态,减少时是放松状态。另外,在紧张状态下瞳孔放大,在放松状态下瞳孔缩小,因此也可以应用对瞳孔进行检测来辨别是紧张状态还是放松状态那样的结构。
位置检测部22用于检测用户的位置(绝对位置),在此采用了例如GPS(GlobalPositioning System:全球定位系统)。此外,作为位置检测部22,也可以采用使用了RFID(Radio Frequency Identification:射频识别)等的绝对位置测量系统。
时刻检测部24具有检测当前的时刻的计时功能。日历部26将日期与星期等对应地进行存储。闪速存储器28是暂时存储数据的存储器。通信部32具有用于通过WiFi通信访问接入点的无线LAN单元、利用以太网(注册商标)线缆的有线连接的单元、或者与计算机等外部设备进行通信的USB连接的单元。在本实施方式中,通信部32能够与服务器50的通信部52进行通信。
终端侧控制部30统一控制构成便携式终端10的各部,执行便携式终端10侧的处理。例如,终端侧控制部30通过时刻检测部24获取声音数据被输入到声音输入部42时的时刻,并且通过位置检测部22获取声音数据被输入时的便携式终端10的位置。并且,终端侧控制部30在向服务器50侧发送声音数据时,还与声音数据一起发送时刻和位置的信息。
服务器50例如设置在使用便携式终端10的用户所任职的公司内。但是不限于此,服务器50也可以设置在系统管理公司中。该服务器50如图1所示那样具有通信部52、文本数据生成部54、声谱分析部55、加权部56、提取部58、分类部60、变换部62、闪速存储器64、硬盘66、以及服务器侧控制部70。
通信部52与便携式终端10侧的通信部32相同,在本实施方式中,能够与便携式终端10侧的通信部32进行通信。通信部52所接收到的数据(声音数据、文本数据)通过服务器侧控制部70被保存到闪速存储器64。即,通信部52在服务器50中作为声音输入部、文本数据输入部而发挥功能。
文本数据生成部54获取被保存在闪速存储器64中的声音数据,对该声音数据进行变换来生成文本数据。所生成的文本数据通过服务器侧控制部70被保存到闪速存储器64。
声谱分析部55使用声音的大小(强度)、频率、长度来与已注册的声谱数据进行图案匹配,由此进行声谱分析,确定发出声音的人物。此外,在声谱分析中,也可以不将声音的大小(强度)、频率、长度全部使用,而至少使用声音的频率来确定发出声音的人物。
加权部56获取保存在闪速存储器64中的声音数据以及基于声音数据生成的文本数据、或者从文本数据输入部44输入的文本数据,进行各文本数据的加权。加权部56将通过加权获得的数值(任务优先级)与文本数据一起保存到闪速存储器64中。
加权部56例如根据声音的大小或频率、文本数据的意思进行加权。具体来说,加权部56基于由声谱分析部55根据声音的大小或频率分析得到的结果(发出声音的人物是谁这样的信息)进行加权、或者基于文本数据的意思进行与保密性相应的加权。此外,在本实施方式中,保密性意味着最好不被他人(不确定的第三方)看到的程度。
加权部56连接有变更部72和设定部74。变更部72变更与加权部56的加权相关的设定,设定部74根据用户的指示来变更与加权部56的加权相关的设定。此外,设定部74可以设为根据从用户的输入部(键盘等)输入的用户的指示来变更设定,也可以设为通过通信部52、32接受从便携式终端10的输入部12输入的用户的指示来变更设定。
提取部58从保存在闪速存储器64中的文本数据中提取规定的文字。即,从被输入到便携式终端10的输入部12的信息中提取规定的文字。该规定的文字是指最好不被他人看到的文字、即保密性比较高的文字,该文字是在保存于硬盘66中的关键词DB(参照图7)中预先决定的。
分类部60将由提取部58提取的文字分类为保密性等级高的文字(第一文字)和保密性等级稍高的(中等的)文字(第二文字)。根据保存在硬盘66中的关键词DB(参照图7)进行该分类。变换部62根据规定的规则对保密性等级为“高”的文字和保密性等级为“中”的文字进行变换,并保存到闪速存储器64中。
闪速存储器64暂时地存储在服务器50内进行处理的数据。闪速存储器64连接有删除部76。删除部76根据服务器侧控制部70的指示,在规定的定时删除保存在闪速存储器64中的声音数据、文本数据。此外,稍后记述删除数据的具体定时。此外,也能够使用其它的易失性存储器来代替闪速存储器64。
在硬盘66中保存各种处理要使用的数据库等的数据。此外,也可以使用其它的非易失性存储器来代替硬盘66。
服务器侧控制部70统一控制服务器50内的各部,执行服务器50侧的处理。此外,服务器50实际上具有CPU(Central Processing Unit:中央处理单元)、ROM(Read OnlyMemory:只读存储器)、RAM(Random Access Memory:随机存取存储器)等,通过CPU执行保存(安装)在ROM等中的程序,来实现上述的文本数据生成部54、加权部56、提取部58、分类部60、变换部62、声谱分析部55等各部分的功能。
接着,根据图2~图25详细说明本实施方式的个人辅助系统100的处理。
首先,根据图2的(a)~图2的(d)说明将从声音输入部42输入的声音保存到服务器50侧的闪速存储器64中的处理(录音处理)。此外,当然录音处理可以始终进行,但是为了实现省电化并进行有效的录音,而在本实施方式中,同时并行地进行图2的(a)~图2的(d)的处理中的至少两个处理、或者只进行某一个处理。
(录音定时例1)
图2的(a)是表示仅在某人物发出声音的期间执行录音的处理的流程图。此外,设被输入到声音输入部42的声音通过通信部32、52被输入到服务器侧控制部70。
在该图2的(a)的处理中,在步骤S10中,服务器侧控制部70判断是否从声音输入部42输入了声音。当此处的判断为肯定时,在步骤S12中,在服务器侧控制部70的指示下,声谱分析部55对被输入的声音进行声谱分析。在该声谱分析中,通过将保存在硬盘66中的声谱DB(参照图3)所包含的声音数据与被输入的声音数据进行对照(图案匹配),来确定发出被输入的声音的人物。在此,在图3的声谱DB中将人物名与该人物的声谱数据进行了对应。此外,在将本系统用于商务的情况下,例如能够将公司的所有职员的声谱数据事先注册到声谱DB中等。另外,在将本系统用于个人的情况下,各用户能够将家庭、亲戚、朋友等的声谱数据分别事先注册到声谱DB中等。从便携式终端10的声音输入部42进行该注册。
接着,在步骤S14中,服务器侧控制部70判断在步骤S12中是否确定了人物、即是否为被注册在声谱DB中的人物的声音。在此处的判断为肯定的情况下,服务器侧控制部70在步骤S16中开始进行录音(向闪速存储器64的保存)。此外,录音得到的声音数据在文本数据生成部54中被变换为文本数据,因此该录音开始的定时也可以说是文本数据生成的定时。另一方面,在步骤S14的判断为否定的情况下,返回到步骤S10。
在步骤S14的判断为肯定并转移到步骤S16之后,服务器侧控制部70持续进行录音直到步骤S18中声音输入中断规定秒的时间为止。并且,在规定秒的时间内没有声音输入的情况下、即在视为声音输入已结束的情况下,步骤S18的判断为肯定。当步骤S18的判断为肯定时,终端侧控制部30在步骤S20中结束录音,并返回到步骤S10。
之后,通过重复上述处理,每次被注册在声谱DB中的人物发出声音的定时都执行录音。此外,决定录音定时的人物也可以由与声谱DB分开的DB进行管理。由此,例如能够将决定录音定时的人物限定为会议的主办者等。
此外,在图2的(a)中,针对根据声谱在某人物发言的定时开始录音的情况进行了说明,但是不限于此,例如也可以从声音输入部42输入了与电话相关联的频率(例如来电的频率)的时刻起开始录音。由此,能够不遗漏电话中的会话地进行录音。
(录音定时例2)
图2的(b)是表示在预先注册的时刻执行录音的处理的流程图。此外,该图2的(b)的处理与图2的(a)的情况不同,通过切换从便携式终端10侧的通信部32向服务器50侧发送声音数据、或者不发送声音数据,来切换录音定时。
在图2的(b)中,在步骤S24中终端侧控制部30通过时刻检测部24检测当前时刻。接着,在步骤S26中,终端侧控制部30判断是否为预先决定的录音开始时刻。在此,录音开始时刻可以在便携式终端10出厂时预先决定,也可以由用户等预先从输入部12输入。作为该录音开始时刻,例如能够设为认为与人的会话等较多、信息量较多的时间(例如到公司上班之后的一个小时)、集中力容易中断的时间(例如午休前后的30分钟)、疲劳达到最大的加班时间(午后八点以后等)。
在步骤S26的判断为肯定的情况下,转移到步骤S28,通信部32在终端侧控制部30的指示下,开始向服务器50侧发送被输入到声音输入部42的声音数据。在这种情况下,通过通信部52和服务器侧控制部70将声音数据保存(录音)到闪速存储器64中。
接着,在步骤S30中,终端侧控制部30通过时刻检测部24检测当前时刻。然后,在接下来的步骤S32中,终端侧控制部30判断是否到达了预先决定的录音结束时刻。当此处的判断为肯定时,转移到步骤S34,但是当判断为否定时,返回到步骤S30。在转移到了步骤S34的情况下,通信部32在终端侧控制部30的指示下,停止向服务器50侧发送声音数据。由此,录音结束。之后,返回到步骤S24,重复上述处理。由此,每当到达录音开始时刻时,都能够进行录音。
(录音定时例3)
图2的(c)是表示在预先注册的会议的最后阶段执行录音的处理的流程图。此外,该图2的(c)的处理也与图2的(b)同样地通过切换从通信部32向服务器50侧发送声音数据、或者不发送声音数据,来切换录音定时。
在图2的(c)中,在步骤S36中,终端侧控制部30通过时刻检测部24检测当前时刻。接着,在步骤S38中,终端侧控制部30从保存在闪速存储器28中的任务列表(稍后记述)中提取会议的预定,并判断是否在该会议的结束时刻前的规定时间(例如之前的10分钟)。在此处的判断为肯定的情况下,在步骤S40中,通过与图2的(b)的步骤S28同样的方法开始录音。
在接下来的步骤S42中,终端侧控制部30通过时刻检测部24检测当前时刻。然后,在接下来的步骤S44中,终端侧控制部30判断是否到达了在步骤S38的判断所使用的会议的结束时刻。当此处的判断为肯定时,转移到步骤S46,当判断为否定时,返回到步骤S42。在转移到步骤S46的情况下,通信部32在终端侧控制部30的指示下,停止向服务器50侧发送声音数据。之后,返回到步骤S36,重复上述处理。由此,能够进行会议的最后阶段的规定时间内的录音。此外,在会议的最后阶段进行录音是因为越是在会议的最后阶段,阐述会议的结论、或者宣布下一次会议的预定的可能性越高。
此外,在图2的(c)的处理中,也可以在会议正在进行的时间中连续进行录音。另外,也可以在该会议的主持人、发言人等被注册在任务列表中的情况下,与图2的(a)的处理相结合地只记录被注册的主持人、发言人的声音。
(录音定时例4)
图2的(d)是表示根据从身体信息输入部20输入的信息(在此设为用户的肌肉的状态(紧张度和放松度))来执行录音的处理的流程图。此外,该图2的(d)的处理也与图2的(b)、图2的(c)同样地通过切换从通信部32向服务器50侧发送声音数据、或者不发送声音数据,来切换录音定时。
在图2的(d)中,在步骤S50中,终端侧控制部30通过身体信息输入部20获取用户的肌肉的状态。接着,在步骤S52中,终端侧控制部30将肌肉的状态与预先决定的阈值进行比较,来判断是否为规定的放松状态。在此处的判断为肯定的情况下,在步骤S54中通过与图2的(b)的步骤S28同样的方法来开始录音。
在接下来的步骤S56中,当终端侧控制部30再次获取肌肉的状态时,在接下来的步骤S58中,终端侧控制部30将肌肉的状态与预先决定的阈值进行比较,来判断是否为规定的紧张状态。当此处的判断为肯定时,转移到步骤S60,当判断为否定时,返回到步骤S56。在转移到了步骤S60的情况下,通信部32在终端侧控制部30的指示下,停止向服务器50侧发送声音数据。之后,返回到步骤S50,重复上述处理。通过以上的处理,来从肌肉的状态判断用户的紧张程度,能够在用户过于放松而没有听到他人的谈话内容那样的状况(例如正在打瞌睡的状况)下进行声音的自动录音。
此外,在图2的(d)中,设仅在过于放松时记录声音,但是也可以与该情况同时地或者代替该情况而在适度地紧张时记录声音。是因为在适度地紧张的情况下进行重要的谈话的可能性较高。
此外,也可以在受话器(便携式终端壳体)中设置出汗传感器和压力传感器中的至少一个来基于抓持受话器的手的出汗量、受话器的抓持力检测用户是处于紧张状态还是放松状态。
将该出汗传感器和压力传感器的输出发送到终端侧控制部30,终端侧控制部30也可以在判定为用户处于紧张状态或放松状态时,开始由声音输入部42进行录音。
作为出汗传感器,只要设置多个电极来测量手的阻抗即可。像感动、兴奋、紧张这样的精神性出汗由于出汗量少、出汗时间短,因此只要与相比手指来说出汗量较多的中间的手掌侧相对应地在受话器中设置出汗传感器即可。
作为压力传感器,可以使用静电电容型、应变仪、电致伸缩元件中的任一个,只要在用户以比正常握住受话器的压力大例如10%以上的压力握住了受话器时判定为紧张状态即可。
另外,出汗传感器和压力传感器中的至少一个可以设置在便携式终端10中,也可以设置在移动电话等中。
此外,即使在图2的(a)~图2的(d)的处理中变为录音开始定时的情况下,例如在便携式终端10存在于录音禁止位置时等,也可以不开始录音。作为录音禁止位置,例如能够采用用户任职的公司以外的公司内等。
(声音数据的处理)
接着,根据图4~图23说明在记录了声音数据之后进行的声音数据的处理。图4是与声音数据的处理有关的流程图。
在图4的步骤S70中,服务器侧控制部70判断是否在闪速存储器64中记录了声音数据。当此处的判断为肯定时,转移到步骤S72,文本数据生成部54在服务器侧控制部70的指示下,将声音数据文本化。在这种情况下,每当声音数据中断规定时间时都将声音数据文本化。另外,服务器侧控制部70将使声音数据文本化得到的数据(文本数据)、声音数据被输入到声音输入部42的时刻、声音数据被输入的位置、以及声音数据的声音等级注册到闪速存储器64内的存储数据DB(图5)中。此外,在此注册的时刻、位置的信息如上所述那样是与声音数据一起从通信部32发送的。接着,在步骤S74中,声谱分析部55在服务器侧控制部70的指示下,进行声谱分析来确定发出声音的人物,并注册到存储数据DB中。此外,在经过了图2的(a)的步骤S12的处理的情况下,也可以不进行步骤S74而将步骤S12的内容注册到存储数据DB中。
图5示出了存储数据DB的数据结构。在存储数据DB中保存前述的时刻、位置、文本数据、发言人物、声音等级、以及任务标记、任务优先级。此外,稍后记述任务标记以及任务优先级的项目。
返回图4,在接下来的步骤S76中,执行任务判断的子程序。在任务判断的子程序中,作为一例执行图6的处理。在图6的处理中,在步骤S110中,服务器侧控制部70判断文本数据是否包含有日期。此外,此处的日期除了包含何年何月何日何时这样的具体的日期以外,还包含明天、后天、上午、下午等日期。在此处的判断为肯定的情况下,在步骤S114中判定为是任务之后,转移到图4的步骤S78,但是在判断为否定的情况下,转移到步骤S112。
在步骤S112中,服务器侧控制部70判断在文本数据中是否包含有特定的文字。在此,特定的文字是与任务相关联的文字,例如“做某事(すること)”、“请做某事(してください)”、“去做(しなさい)(或者“做(しろ)”、“必须做(やれ)”)”、“想做(しよう)(或者这样做吧(しましょう))”、“这样做(します)”、“预定这样做(予定しています)”等文字。该特定的文字可以在装置出厂时作为表预先保存在硬盘66内,也可以由用户随时追加。在步骤S112的判断为肯定的情况下,在步骤S114中判定为是任务之后,转移到图4的步骤S78。另一方面,在步骤S112的判断为否定的情况下,在步骤S116中判定为不是任务之后,转移到图4的步骤S78。
返回到图4,在步骤S78中,服务器侧控制部70判断图6的处理的结果是否为判定为是任务。下面,针对步骤S78的判断为肯定时和否定时的处理进行说明。
(步骤S78的判断为肯定时(在是任务时))
当步骤S78的判断为肯定时,转移到步骤S80,服务器侧控制部70将存储数据DB(图5)的任务标记设定为开启。接着,在步骤S82中,提取部58在服务器侧控制部70的指示下,根据保存在硬盘66中的关键词DB(图7)来提取关键词。如图7所示,在关键词DB中将关键词与该关键词的详细信息、属性、保密性的等级进行关联。因而,提取部58着眼于该关键词DB的关键词的项目,从文本数据中提取注册在关键词DB中的关键词。
例如,设文本数据是“预定在11月20日13点,与大东京株式会社的青山一郎先生洽谈COOLBLUE扬声器2的软件式样”。
在这种情况下,提取部58提取注册在图7的关键词DB中的“COOLBLUE扬声器2”、“软件”、“式样”、“大东京株式会社”、“青山一郎先生”作为关键词。
此外,关键词DB需要预先制作。另外,设为关键词DB的注册内容能够适当地(例如在维护时等)进行追加、变更。另外,在图7中,除了个人名、公司名、技术用语等的属性以外,也可以用特许信息、预算信息、交易信息等的属性注册关键词。
返回图4,在接下来的步骤S84中,执行各关键词的解析子程序。在图8中用流程图示出了步骤S84的解析子程序。
在该图8中,在步骤S120中,分类部60在服务器侧控制部70的指示下,从关键词DB获取关键词的保密性的等级。具体来说,分类部60从关键词DB中获取“中”作为“COOLBLUE扬声器2”的保密性等级,获取“中”作为“式样”的保密性等级,获取“高”作为“大东京株式会社”的保密性等级,获取“高”作为“青山一郎先生”的等级。
接着,在步骤S122中,变换部62在服务器侧控制部70的指示下,根据在步骤S120中获取的保密性来变换关键词,执行将变换后的关键词存储到闪速存储器64中的子程序。
图9是表示步骤S122的子程序的具体处理的流程图。如图9所示,变换部62首先在步骤S138中从由提取部58提取的关键词中选择一个关键词。此外,在此,作为一例,设选择了“大东京株式会社”。
接着,在步骤S140中,变换部62判断所选择的关键词的保密性等级是否为“高”。“大东京株式会社”如上所述那样保密性等级是“高”,因此此处的判断为肯定,转移到步骤S142。在步骤S142中,变换部62执行与保密性相应地对关键词进行变换的子程序。具体来说,按照图10所示的流程图执行处理。
在图10的步骤S160中,变换部62判断所选择的关键词中是否包含了特定变换词。在此,特定变换词是指例如在图11的特定变换词DB中定义的那样的、公司名中频繁使用的文字(株式会社、有限公司、(株)、(有)等)、国家等的机关中频繁使用的文字(机构、省、厅等)、教育机关中频繁使用的文字(大学、高等学校等)等。
在所选择的关键词“大东京株式会社”的情况下,包含有特定变换词“株式会社”,因此步骤S160的判断为肯定,转移到步骤S162。在步骤S162中,变换部62根据特定变换词DB对特定变换词进行变换。在这种情况下,将“大东京株式会社”中的“株式会社”的部分变换为“社”。接着,在步骤S164中执行特定变换词以外的变换子程序。
图12是表示步骤S164的变换子程序的具体处理的流程图。如该图12所示那样,变换部62在步骤S190中判断变换对象部分(特定变换词以外的部分)是否为地名。在此,变换对象部分“大东京”虽然包含地名,但是并不是地名本身,因此判断为否定,转移到步骤S194。
在步骤S194中,变换部62判断变换对象部分是否为姓名。在此,由于不是姓名,因此判断为否定,转移到步骤S198。然后,在步骤S198中,变换部62将变换对象部分“大东京(DaiTokyo)”进行大写首字母变换而设为“D”。当步骤S198的处理结束时,转移到图10的步骤S165。
在步骤S165中,变换部62将步骤S162、S164的变换后的字组合。具体来说,将“D”和“社”组合设为“D社”。
接着,在步骤S168中,变换部62判断变换对象的关键词“大东京株式会社”中是否附带有信息。在此,附带有信息是指在图7的关键词DB的信息的栏中输入了信息的情况。在此,由于“大东京株式会社”中附带有“电机东京都品川区”,因此步骤S168的判断为肯定,转移到步骤S170。
在步骤S170中,变换部62在所附带的信息中选择一个还未选择过的信息。接着,变换部62在步骤S172中判断所选择的信息(例如“电机”)的保密性等级是否为“高”或“中”。在此,当设“电机”的保密性等级是“低”时,步骤S172的判断为否定,因此转移到步骤S182。在步骤S182中,变换部62判断是否已选择所有的信息。在此,由于还未选择“东京都品川区”,因此判断为否定,返回到步骤S170。
接着,变换部62在步骤S170中选择未选择过的信息“东京都品川区”,并且在步骤S172中判断“东京都品川区”的保密性等级是否为“高”或“中”。在此,如图7的关键词DB所示那样,地名被定义为“低”或者遵照附带的关键词的保密性等级,因此“东京都品川区”遵照关键词“大东京株式会社”,保密性等级变为“高”。因而,步骤S172的判断为肯定,转移到步骤S174。在步骤S174中,变换部62判断在“东京都品川区”中是否包含有特定变换词。当此处的判断为否定时,转移到步骤S180,执行对信息进行变换的变换子程序。该步骤S180的变换子程序基本上是与上述步骤S164相同的处理(图12)。
即,在图12中,变换部62在步骤S190中判断“东京都品川区”是否为地名。当此处的判断为肯定时,变换部62在步骤S192中,根据图13所示的地名DB执行变换处理。具体来说,变换部62通过保密性等级为“高”的变换方法对“东京都品川区”进行变换,由此变换为“关东南部”。此外,在图13的地名DB中,在保密性等级为“高”的情况下,将该地名表现为比较大的区域中的位置,在保密性等级为“中”的情况下,将该地名表现为与保密性等级为“高”的情况相比较窄的区域中的位置。
当步骤S192的处理结束时,之后转移到图10的步骤S182。在该步骤S182的阶段,由于已经选择了所有的信息(电机、东京都品川区),因此步骤S182的判断为肯定,转移到步骤S184。在步骤S184中,变换部62将变换后的信息与变换后的关键词(步骤S165或S166)进行对应。在此,形成“D社(电机、关东南部)”。之后,转移到图9的步骤S144。
在图9的步骤S144中,将变换后的关键词保存到存储在闪速存储器64中的关键词保存DB(参照图14)的区域A中。此外,如图14所示,在关键词保存DB中除了设置有区域A以外,还设置有区域O、B、C的保存区域。在区域O中保存关键词的原始数据(变换前的关键词)。当该保存处理完成时,转移到步骤S154,判断是否已选择了所有由提取部58提取的关键词。当此处的判断为否定时,返回到步骤S138。
接着,针对在步骤S138中变换部选择了“COOLBLUE扬声器2”作为关键词的情况进行说明。在这种情况下,关键词是“COOLBLUE扬声器2”,保密性等级是“中”,因此步骤S140的判断为否定,另一方面,步骤S146的判断为肯定,转移到步骤S148。
在步骤S148中执行与保密性相应地对关键词进行变换的子程序。具体来说,与步骤S142同样地执行图10的处理。在图10的处理中,在步骤S160中变换部62判断“COOLBLUE扬声器2”是否包含有特定变换词,此处的判断为否定,因此转移到步骤S166,执行变换子程序。在该步骤S166的变换子程序中,与上述的步骤S164、S180同样地执行图12的处理。在图12中,由于“COOLBLUE扬声器2”既不是地名也不是人名,因此步骤S190、S194的判断为否定,变换部62在步骤S198中进行大写首字母变换。在这种情况下,在关键词DB中,将同时记为“クールブルースピーカ2(日语表述)”的英语表述“Cool Blue Speaker2”进行大写首字母变换而变换为“CBS2”。
当如上所述那样图12的处理结束时,转移到图10的步骤S168,但是在图7的关键词DB中,“COOLBLUE扬声器2”中没有附带任何信息,因此步骤S168的判断为否定,转移到图9的步骤S150。在步骤S150中,将变换后的关键词保存到图14所示的闪速存储器64的区域B中。即,变换部62在区域O中保存关键词本身,并且与该关键词对应地在区域B中保存“CBS2”。当该保存处理完成时,转移到步骤S154,判断是否已选择了所有由提取部58提取的关键词。当此处的判断为否定时,再次返回到步骤S138。
接着,在步骤S138中,针对变换部选择了关键词“青山一郎先生”的情况进行说明。在这种情况下,由于“青山一郎先生”的保密性等级为“高”,因此步骤S140的判断为肯定,转移到步骤S142。
在步骤S142中,与上述的情形同样地执行图10的处理。在图10的处理中,步骤S160为否定,转移到步骤S166(图12的处理)。在图12的步骤S190中,其判断为否定,转移到步骤S194。在步骤S194中,变换部判断“青山一郎先生”是否为姓名。并且,当此处的判断为肯定时,转移到步骤S196。此外,在步骤S194中,之所以判断为“青山一郎先生”是姓名,是因为在图7的关键词DB中“青山一郎先生”的属性是交易客户的人名。
在步骤S196中,变换部62对“青山一郎先生”进行大写首字母变换。此外,在步骤S196中,在关键词的保密性等级为“高”的情况下,对姓和名这两个都进行大写首字母变换。即,“青山一郎先生(Aoyama Ichiro)”被变换为“AI”。另一方面,例如注册在图7的关键词DB中的“上田三郎(Ueda Saburo)”那样,在关键词的保密性等级为“中”的情况下,仅对名进行大写首字母变换。即,将“上田三郎”大写首字母变换为“上田S”。此外,也可以仅对姓进行大写首字母变换,变换为“U三郎”。
当步骤S196的处理完成时,转移到图10的步骤S168。在此,对关键词“青山一郎先生”如图7所示那样附带“大东京株式会社摄像机AF马达2009年10月15日特许研修会(东京)”作为信息,因此步骤S168的判断为肯定,转移到步骤S170。然后,在步骤S170中例如选择信息“大东京株式会社”。如上所述那样“大东京株式会社”的保密性等级是“高”,因此步骤S172的判断为肯定,转移到步骤S174。并且,“大东京株式会社”包含有特定变换词“株式会社”,因此步骤S174的判断为肯定,执行该特定变换词的变换(步骤S176)以及特定变换词以外的变换(步骤S178)。此外,步骤S176、S178与上述的步骤S162、S164相同。并且,当步骤S182的判断为否定时,返回到步骤S170。
之后,反复进行步骤S170~步骤S182直到已选择所有的信息为止。然后,在已选择了所有的信息轴,在步骤S184中将变换后的信息与变换后的关键词进行对应。在此,例如与“AI(照相机、AFM、2009年10月15日T会(东京))”进行对应。然后,在图9的步骤S144中,当向区域A的保存完成时,转移到步骤S154,判断是否已选择了所有由提取部58提取的关键词。当此处的判断为否定时,再次返回到步骤S138。
此外,在上述处理中,在图9的步骤S146的判断为否定的情况下、即在关键词的保密性等级为“低”的情况下,在步骤S152中将该关键词直接保存到区域C(以及区域O)中。此外,在关键词附带有信息的情况下,该信息也保存到区域C。例如图14所示,如果是关键词“SVS社”,则在区域C中被保存为“SVS社机械德国慕尼黑”。
另外,在上述处理中,例如在步骤S138中选择的关键词是“软件”的情况下,对软件进行大写首字母变换,设为“SW”,并且不对图7所示的信息<海绵>进行变换而与SW对应。在这种情况下,<xx>这样的表记的意思是与关键词同等地进行处理的字。即,是使用“软件”和“海绵”中的某一个的意思。因而,在针对关键词“软件”进行了上述处理的情况下,变成在闪速存储器64的区域B中同等的保存“SW”和“海绵”的情形。此外,稍后记述“SW”和“海绵”的分开使用。
对其它的关键词(在此是“式样”)也进行以上的处理,当图9的步骤S154的判断为肯定时,转移到图8的步骤S124。
在步骤S124中,服务器侧控制部70获取与发言人的属性有关的权重。在这种情况下,根据与图15的(a)所示的属性有关的权重表,从发言人的职务获取权重(Tw)。例如,在发言人是图7的上田三郎的情况下,作为权重(Tw),获取经理人(M)的“2”。
接着,在步骤S126中,服务器侧控制部70获取与声音水平有关的权重。在这种情况下,服务器侧控制部70根据图15的(b)所示的声音水平有关的权重表和存储在存储数据DB(参照图5)中的声音水平来获取权重(Vw)。如图5那样,在声音水平是70db的情况下,权重(Vw)为3。此外,之所以声音水平越大,权重(Vw)越大,是因为声音水平越大,多数情况下要求方越强烈,重要度越高。
接着,在图8的步骤S128中,服务器侧控制部70获取与关键词有关的权重。在这种情况下,服务器侧控制部70根据图15的(c)的与关键词有关的权重表和存储数据DB的文本数据中所包含的关键词来获取权重(Kw)。在图15的(c)中,由于注册有“紧要”、“重要”、“非常紧要”、“非常重要”,因此如果这些关键词包含在文本数据中,则获取2或3作为权重(Kw)。另外,在步骤S128中,服务器侧控制部70判断在文本数据中包含了几个保密性等级为“高”的关键词、保密性等级为“中”的关键词,根据其判断结果和图15的(d)所示的与关键词的保密性有关的权重表,获取与文本数据的保密性有关的权重(Cw)。例如,在文本数据中包含两个保密性等级为“高”的关键词、一个保密性等级为“中”的关键词的情况下,服务器侧控制部70获取Cw=8(=3×2+2×1)。
当图8的步骤S128的处理完成时,转移到图4的步骤S86。在步骤S86中,服务器侧控制部70计算任务优先级(Tp),并注册到存储数据DB(图5)中。具体来说,服务器侧控制部70使用下式(1)计算任务优先级(Tp)。
Tp=Uvw×Vw+Utw×Tw
+Ufw×Fw+Ukw×Kw+Ucw×Cw···(1)
此外,上式(1)的Uvw、Utw、Ufw、Ukw、Ucw是将各权重(Vw、Tw、Fw、Kw、Cw)的重要度相加得到的加权系数,该加权系数能够由用户等通过设定部74进行设定。
接着,转移到图4的步骤S88,服务器侧控制部70进行包含在文本数据中的关键词向图16所示的关键词记录DB的记录。此外,该图16的关键词记录DB例如是以一周、一个月为单位或以一年为单位制作出的。在该图16的关键词记录DB中,逐一地记录与包含在文本数据中的关键词(称为注册关键词)同时使用的关键词、注册关键词的发言人、发出注册关键词的日期、场所等关联信息。另外,将注册关键词与关联信息进行关联的次数作为关联程度进行记录。并且,将发出注册关键词的次数作为出现频率进行记录。此外,稍后记述图16的关键词记录DB的检索频率的项目。
此外,在步骤S88的处理完成之后返回到步骤S70。
(在步骤S78的判断为否定的情况下(在不是任务的情况下))
接着,说明步骤S78的判断为否定的情况。当步骤S78为否定时,转移到步骤S90,服务器侧控制部70将任务标记设为关闭。接着,在步骤S92中,服务器侧控制部70判断发声者是否是用户自己。在此,例如图17的命令DB所示那样,“任务列表”这样的词设为显示任务列表的命令,“声音录音文本”这样的词设为显示声音录音列表的命令,“变换”这样的词设为变换处理的命令。此外,设该命令DB被保存在便携式终端10侧的闪速存储器28或者服务器50侧的硬盘66中。在该命令DB中,例如在用户的声音使“任务列表”的情况下,被定义显示如图18的(a)所示那样的任务列表。此外,稍后记述任务列表的详情。另外,在命令DB中,在用户的声音是“声音录音列表”的情况下,被定义显示如图18的(b)所示那样的声音录音列表。此外,也稍后记述该声音录音列表。
返回图4,在步骤S94的判断为否定的情况下,返回步骤S70,但是在步骤S94的判断为肯定的情况下,转移到步骤S96,服务器侧控制部70执行子程序,该子程序执行与命令相应的处理。具体来说,图19、图20、图21的处理同时并行地执行。
首先,按照图19的流程图,说明服务器50侧的处理。在服务器50侧,在步骤S202中,服务器侧控制部70判断命令是否为显示请求。在这种情况下,如上所述那样,“任务列表”、“声音录音列表”这样的命令符合显示请求。
接着,在步骤S204中,服务器侧控制部70从闪速存储器64中提取进行与命令相应的显示所需的数据。例如,如果命令是“任务列表”,则从闪速存储器64中提取任务列表要显示的文本数据(图5中的任务标记变为开启的文本数据)。此外,此时的任务标记变为开启的文本数据中不仅包含从声音数据变换得到的文本数据,还包含从文本数据输入部44直接输入的文本数据。此外,通过与上述的图6相同的处理执行直接输入的文本数据的任务标记的开启关闭。
接着,在步骤S206中,服务器侧控制部70获取用户的当前位置。在这种情况下,通过终端侧控制部30、通信部32、52等获取便携式终端10所具有的位置检测部22所检测的位置信息。
接着,在步骤S208中,服务器侧控制部70根据获取到的位置信息(当前位置),判断是否为能够确保安全性的场所。在此,作为能够确保安全性的场所,例如列举公司内。此外,通过下面的方法进行公司的位置的注册。
例如,用于将便携式终端10通过USB等与PC(Personal Computer:个人计算机)进行连接,在PC上启动使用了地图信息的专用的应用程序。然后,通过该应用程序指定公司的所在地,来注册公司的位置。此外,通过使用鼠标等进行的制图操作等来进行所在地的指定。该公司的位置被表示为规定面积的区域。因而,作为公司的位置,能够如图22的能够确保安全性的范围DB所示那样用矩形区域的对角的两个地点(纬度、经度)进行表示。该图22的能够确保安全性的范围DB被保存到服务器控制部70的硬盘66中。
即,在步骤S208中,服务器控制部70参照图22的能够确保安全性的范围DB,在用户进入到该范围内的情况下,判定为位于能够确保安全性的场所内。
在步骤S208的判断为肯定的情况下,转移到步骤S210。在该步骤S210中,服务器侧控制部70从区域O、A、B、C获取与所提取出的数据中包含的关键词相对应的变换词,并转移到步骤S214。另一方面,在步骤S208的判断为否定的情况下,转移到步骤S212。在该步骤S212中,服务器侧控制部70从区域A、B获取与所提取出的数据中包含的关键词相对应的变换词,并转移到步骤S214。
在步骤S214中,服务器侧控制部214通过通信部52将提取出的数据和与关键词相对应的变换词发送到便携式终端10。
此外,在步骤S202的判断为否定的情况下、即在命令是显示请求以外的命令的情况下,服务器侧控制部70在步骤S216中实施按照命令的处理。
接着,根据图20说明便携式终端10的处理。在图20的步骤S220中,终端侧控制部30判断是否从服务器侧发送了数据。在本步骤中,在执行了图19的步骤S214之后,判断变为肯定。
接着,在步骤S221中,终端侧控制部30判断是否发送了区域A、B、C的变换词。在此,在经过了图19的步骤S210的情况下判断为肯定,在经过了步骤S212的情况下判断为否定。
在步骤S221的判断为肯定的情况下,在步骤S222中,终端侧控制部30用区域A、B、C的变换词对所提取出的数据中包含的关键词进行变换。即,例如设所提取出的数据是“预定在11月20日13点,与大东京株式会社的青山一郎先生洽谈COOLBLUE扬声器2的软件式样”。在这种情况下,使用区域A、B、C的变换词变换为“预定在11月20日13点,与D社(电机、关东南部)的AI(照相机、AFM、2009年10月15日T会(东京)先生洽谈CBS2的SWSP)”。
另一方面,在步骤S221的判断为否定的情况下,在步骤S223中,终端侧控制部30用区域B的变换词对所提取出的数据进行变换,并且删除区域A的文字。在这种情况下,上述提取出的数据被变换为“预定在11月20日13点,与的先生洽谈CBS2的SWSP”。这样,在本实施方式中,根据是否确保了安全性来变更数据的显示方式。
如上所述,在进行了步骤S222或步骤S223的处理之后,转移到步骤S224,终端侧控制部30执行将变换后的文本数据显示在显示部14的规定位置上的处理。在该显示中,也可以简单地按照任务的时刻(日期)相对于当前时刻(日期)从近到远的顺序进行显示,但是在本实施方式中,设代替从近到远的顺序而按任务优先级从高到低的顺序进行显示。由此,用户能够减少重要任务的漏看,并且即使双重预约了多个预定的情况下,也能够使优先级高的任务优先来组成预定。此外,也可以在进行了双重预约的情况下,由终端侧控制部30通过警告部18发出警告,或者也可以在与优先级低的预定相关的人包含在任务中那样的情况下,由终端侧控制部30通过电子邮件自动地向该人委托任务日程的变更委托通知。其中,并不限于如上所述那样按照任务优先级从高到低的顺序进行显示的情况,当然也可以按照日期顺序进行显示。另外,也可以按照日期顺序进行显示,并变更任务优先级高的任务的字体、颜色、大小等来醒目地进行显示。另外,也可以在按照任务优先级从高到低的顺序排列之后,按照日期顺序显示任务优先级相同的任务。
以上,通过图19、图20的处理进行了如图18的(a)、图18的(b)所示那样的画面显示。此外,在图18的(b)的录音声音列表中设置有任务的项目。用户通过在触摸面板上触摸该任务的项目,能够切换任务标记的开启关闭。在这种情况下,设服务器侧控制部70在识别出由用户进行的任务标记的切换操作时,变更图5的任务标记。由此,即使图6的处理结果为任务标记的开启关闭与用户的识别不同,用户能够手动变更任务标记。此外,也可以在用户将任务标记变为开启的情况下,此后关于与该任务的文本数据相类似的文本数据,服务器侧控制部70都自动地将任务标记设为开启。
此外,在图20的处理中,设终端侧控制部30将由位置检测部22获取的当前位置发送到服务器侧控制部70侧,并使用从服务器侧控制部70发送过来的变换词,对文本数据进行变换并显示。因而,在本实施方式中,终端侧控制部30能够与由位置检测部22获取的当前位置相应地限制向显示部14的显示。
接着,根据图21,说明与图20的处理并行地进行的处理。在图21中,在步骤S232中,终端侧控制部30判断是否由用户按下了文档变换按钮。此外,文档变换按钮是在图18的(a)、图18的(b)中显示在右上端的按钮。用户通过触摸面板操作、键盘操作等来按下文档变换按钮。当该步骤S232中的判断为肯定时,转移到步骤S234,当该步骤S232中的判断为否定时,转移到步骤S238。
在步骤S234中,终端侧控制部30判断是否显示了可变换的关键词。在此,可变换的关键词是指如上所述的图14所示的“SW”与“海绵”那样将多个变换词与一个关键词进行对应那样的关键词。因而,在显示部14上显示的文本数据中包含有这样的关键词的情况下,此处的判断为肯定,转移到步骤S236。另一方面,在步骤S234的判断为否定的情况下,转移到步骤S238。
在转移到步骤S236的情况下,终端侧控制部30对关键词进行变换。具体来说,例如在显示为“预定在11月20日13点,与D社(电机、关东南部)的AI(照相机、AFM、2009年10月15日T会(东京))先生洽谈CBS2的SWSP)”的文章中,能够将“SW”变换为“海绵”,因此终端侧控制部30变换为“预定在11月20日13点,与D社(电机、关东南部)的AI(照相机、AFM、2009年10月15日T会(东京))先生洽谈CBS2的海绵SP”并进行显示。
用户即使对于“SW”这样的显示无法想起软件,也能够通过按下文档变换按钮看到“海绵”这样的表记,由此通过如海绵→柔软(soft)→软件(Software)这样的联想而能够想起软件。此外,或许在最初看到海绵这样的词不会进行这样的联想,但是如果事先在公司内公知该联想的方法,则容易想起软件。
接着,在步骤S238中,终端侧控制部30判断是否按下了变换前显示按钮(参照图18的(a)、图18的(b))。此外,用户按下变换前显示按钮的情况是指想要看关键词没有被变换的文章。在此处的判断为否定的情况下,返回步骤S232,但是在此处的判断为肯定的情况下,转移到步骤S240。在步骤S240中,终端侧控制部30获取用户的当前位置,在步骤S242中判断当前位置是否为能够确保安全性的长多。在此处的判断为否定的情况下、即在用户位于无法确保安全性的长多的情况下,需要对使用户看到变换前的文章进行限制,因此在步骤S252中向用户通知不能显示的意思,并返回到步骤S232。此外,作为步骤S252的通知的方法,能够采用向显示部14进行显示、或者通过警告部18进行警告等。
在步骤S242的判断为肯定的情况下,转移到步骤S244,终端侧控制部30将提问事项(如果是用户能够简单地解答出的提问)显示在显示部14上。此外,关于提问事项,设为被保存在服务器50侧的硬盘66中,终端侧控制部30从硬盘66读出该提问事项并显示在显示部14上。该提问事项以及回答例例如只要用户事先进行注册即可。
接着,在步骤S246中,终端侧控制部30判断用户是否通过声音对输入部12输入了回答。当此处的判断为肯定时,终端侧控制部30在步骤S248中判断是否为用户的声音且回答是否正确。使用在上述的服务器50侧的声谱分析部55中对声音进行分析得到的结果来判断是否为用户的声音。在此处的判断为否定的情况下,在步骤S252中向用户通知不能显示的意思。另一方面,在步骤S248的判断为肯定的情况下,转移到步骤S250,通过区域O的变换词将关键词变换成变换前的状态并进行显示。具体来说,显示为通过声音输入的状态下的文章、即在上述的例子中显示为“预定在11月20日13点,与大东京株式会社的青山一郎先生洽谈COOLBLUE扬声器2的软件式样”。之后,转移到步骤S232,重复进行上述处理。此外,在上述内容中针对用户用声音回答提问的情况进行了说明,但是不限于此,也可以从键盘等输入回答。在这种情况下,终端侧控制部30除了提问的回答以外,也可以根据指纹认证等身体认证的结果来判断是否进行变换前的状态的显示。
通过如上所述那样,当图4的步骤S96的处理结束时,返回步骤S70。
另一方面,在图4的步骤S92的判断为否定的情况下、即在发声者不是用户的情况下,转移到步骤S100,终端侧控制部30显示发声者的信息。此外,在此,终端侧控制部30根据从服务器侧控制部70接收到的信息进行显示。具体来说,如果发声者是青山一郎,则终端侧控制部30从服务器侧控制部70接收该信息,显示为“青山一郎”。此外,在接收到青山一郎所附带的信息的情况下,也可以显示该信息。另外,也可以在从服务器侧控制部70接收到与青山一郎相关联的任务的情况下,将该任务也一并显示。
通过这样,例如在青山一郎向用户打招呼说“早上好”时,能够在显示部14上显示姓名、相关联的信息、任务等。由此,能够帮助用户想起人的姓名、信息、或者与该人相关联地要做的事情等。
接着,在步骤S102中,服务器侧控制部70判断是否发出了被注册在图23所示的模糊词DB中的文字。当此处的判断为否定时,返回步骤S70,但是当此处的判断为肯定时,转移到步骤S104。
在步骤S104中,服务器侧控制部70和终端侧控制部30根据图23的模糊词DB来执行与所发出的文字相对应的处理。具体来说,在发出“那个事件”或“往常的事件”的情况下,服务器侧控制部70参照关键词记录DB,提取发言者包含关联信息中的关键词中的、出现频率高于规定的阈值的关键词并发送到终端侧控制部30。然后,终端侧控制部30将接收到的关键词显示在显示部14上。例如在发言者是山口部长、出现频率的阈值时10的情况下,在显示部14上显示图16的关键词记录DB中的关键词“项目A”。另外,如图23所示,在发出“(地名)的事件”、例如“北海道的事件”的情况下,提取发言者包含在关联信息中且声音数据被输入的位置(纬度、经度)在规定范围(例如北海道内)的关键词、或者发言者包含在关联信息中且“北海道”这样的文字包含在关联信息中那样的关键词,并显示在显示部14上。并且,例如在发出“○月○日(MM/DD)的事件”的情况下,提取发言者包含在关联信息中且声音数据被输入的日期与○月○日(MM/DD)一致的关键词、或者发言者包含在关联信息中且“○月○日(MM/DD)”这样的文字包含在关联信息中的关键词,并显示在显示部14上。并且,有时也能够根据图16的关键词记录DB容易地估计某人在某时刻(日期)说话的情形。在这种情况下,也可以根据发言者和当前时刻来显示相关联的关键词。
在步骤S104中,通过执行如上所述的处理,即使发言者进行了模糊的发问,也能够在该发问中自动地判断问了什么,来向用户进行显示。此外,在步骤S104中,在每次显示关键词时,服务器侧控制部70都更新关键词记录DB的检索频率。例如能够在越是检索频率多的关键词越是优先显示的情况等中利用该检索频率。
接着,根据图24、图25说明由便携式终端10和服务器50获取的数据的删除处理。
(数据的删除处理(之一:变换数据的删除))
图24用流程图示出了删除便携式终端10从服务器50侧获取的信息的处理。如该图24所示,终端侧控制部30在步骤S260中判断从数据获取起是否经过了固定时间(例如2~3小时)。在此处的判断为肯定的情况下,转移到步骤S262,终端侧控制部30删除存储在闪速存储器28中的文本数据(包含变换前的文字以及变换后的文字)。另一方面,即使步骤S260的判断为否定,终端侧控制部30也会在步骤S264中判断用户是否从公司内移动到了公司外。然后,在此处的判断为肯定的情况下,转移到步骤S262,与上述同样地删除数据。此外,在步骤S264的判断为否定的情况下,返回步骤S260。这样,在从获取数据起经过了规定时间的情况下、或者在无法确保安全性的情况下,通过删除数据,能够防止重要的数据外流等。此外,在上述内容中,针对删除所有文本数据的情况进行了说明,但是不限于此,也可以在步骤S262中仅删除最重要的数据。例如也可以仅删除区域A的数据和区域O的数据。
此外,在图24的处理中,也可以在用户从最初就位于公司外时,在将变换数据显示在显示部14上之后立即从闪速存储器28删除。
(数据的删除处理(之二:声音数据的删除))
在服务器侧控制部70中,针对各声音数据执行图25的删除处理。服务器侧控制部70在图25的步骤S270中判断文本数据生成部54是否(是否能够)将声音数据变换成了文本数据。在此处的判断为否定的情况下,转移到步骤S280,在判断为肯定的情况下,转移到步骤S272,服务器侧控制部70获取发出了声音数据的任务名。在此,服务器侧控制部70从声谱分析部55获取进行了发言的任务名,并转移到步骤S274。
在步骤S274中,服务器侧控制部70判断进行了发言的人物是否为用户自身以外的人。在此处的判断为肯定的情况下,服务器侧控制部70在步骤S276中删除被变换成文本数据的声音数据。另一方面,在步骤S274的判断为否定的情况下、即在是用户自身的声音数据的情况下,转移到步骤S278,在经过规定时间之后删除声音数据,并结束图25的处理。
另一方面,在步骤S270的判断为否定并转移到了步骤S280的情况下,服务器侧控制部70能够再现声音数据。具体来说,服务器侧控制部70向便携式终端10的闪速存储器28发送声音数据。此外,在该步骤S280中,通过警告部18向用户警告不能将声音数据变换成文本数据。根据该警告,在用户从便携式终端10的输入部12输入了再现声音数据的指示的情况下,用户通过再现部16再现保存在闪速存储器28中的声音数据。
接着,在步骤S282中,服务器侧控制部70删除发送到了闪速存储器28的声音数据(即,在再现部16中进行了再现的声音数据),并结束图25的所有处理。
通过如上所述那样执行声音数据的删除处理,能够减少服务器50中的声音数据的保存量,因此能够减少服务器50的闪速存储器64的存储容量。另外,通过将用户以外的声音数据形成文本数据之后立即删除,还能够考虑隐私方面。
(数据的删除处理(之三:任务的删除))
在服务器侧控制部70中,按照下面所示的规则删除任务。
(1)任务是与公司外的会议有关的任务的情况
在这种情况下,在位置检测部22所检测的当前位置与任务中所确定的会议召开场所一致且时刻检测部24所检测的当前时刻经过了任务中规定的会议开始时刻时,删除任务。此外,虽然当前时刻经过了会议开始时刻但当前位置与会议召开场所一致的情况下,服务器侧控制部70通过终端侧控制部30从警告部18向用户发出警告。由此,能够抑制忘记执行任务。另外,不限于此,例如也可以在任务前的规定时间(之前的30分钟等)发出警告。由此,能够预先防止忘记执行任务的情形。
(2)任务是与公司内的会议有关的任务的情况
在这种情况下,作为位置检测部22,能够采用如RFID那样能够检测进入到了会议室的情形那样的位置检测部,在位置检测部22所检测的当前位置与任务中确定的会议室一致且时刻检测部24所检测的当前时刻经过了任务中规定的会议开始时刻的情况下,删除任务。在这种情况下,也能够如上述(1)那样同时使用警告。
(3)任务是与购物有关的任务、并确定了进行购物的场所的情况
在这种情况下,在位置检测部22所检测的当前位置与任务中确定的场所一致且从声音输入部42输入了“谢谢”等声音、或者从POS出纳记录终端由输入部12通过无线等输入了购买信息的情况下,删除任务。此外,除了从POS出纳记录终端输入以外,例如也可以在便携式终端具有电子货币功能的情况下,在通过该功能完成支付的阶段,删除任务。
(4)除此之外,在任务中确定了时间的情况
在这种情况下,在时刻检测部24所检测的当前时刻经过了任务中规定的实施时刻的情况下,删除任务。
如以上所说明的那样,根据本实施方式,具备:通信部52,其被输入信息;提取部58,其从被输入到通信部52的数据中提取规定的关键词;分类部60,其将由提取部58提取的关键词分类为保密性等级为“高”的关键词和保密性等级为“中”的关键词;以及变换部62,其用规定的变换方法对保密性等级为“高”的关键词进行变换,并且用不同于保密性等级为“高”的关键词的变换方法对保密性等级为“中”的关键词进行变换。
另外,在本实施方式中,由于与便携式终端10进行通信的通信部52将由变换部62变换后的结果发送到便携式终端10,因此在便携式终端10中,即使不进行数据的处理,也能够显示考虑了保密性等级的数据。
另外,在本实施方式中,设为具备基于声音数据生成文本数据的文本数据生成部54,提取部58从由文本数据生成部54生成的文本数据中提取关键词,因此能够简单地进行关键词的提取。
另外,在本实施方式中,设为对关键词进行大写首字母变换,因此即使不对关键词制作特殊的变换表,也能够简单地对各关键词进行变换。另外,设为在关键词是姓名的情况下,如果保密性等级为“高”,则将姓和名都变换为大写首字母,如果保密性等级为“中”,则将姓和名中的某一个变换为大写首字母,因此能够进行与保密性等级相应的显示。并且,设为在关键词是地名的情况下,如果保密性等级为“高”,则变换为规定区域的信息(大范围内的位置信息),如果保密性等级为“中”,则变换为比规定区域小的区域的信息(小范围内的位置信息),因此从该点来看,也能够进行与保密性等级相应的显示。
另外,在本实施方式中,具备检测位置信息的位置检测部22、进行输入的输入部12、显示与输入相关联的信息的显示部14以及与位置检测部22检测出的位置相应地限制向显示部14的显示的终端侧控制部30。这样,通过进行与位置相应的显示限制,能够进行考虑了安全性的显示,进而能够提高可用性。
另外,在本实施方式中,终端侧控制部30在根据位置检测部22的输出判断为不能确保安全性时,限制向显示部14的显示,因此能够进行适当地考虑了安全性的显示限制。另外,在本实施方式中,在根据位置检测部22的输出判断为能够确保安全性时,解除向显示部14的显示限制的至少一部分,因此从该点来看,也能够进行适当地考虑了安全性的显示限制。
另外,本实施方式的个人辅助系统100具备如上所述那样进行考虑了安全性的显示限制的便携式终端10和对从便携式终端10输入的数据的至少一部分实施显示限制的服务器50,因此即使在便携式终端10中不对数据的至少一部分实施显示限制,也能够在便携式终端10的显示部14上显示实施了显示限制的数据。由此,能够减轻便携式终端10的处理负担,结果能够实现便携式终端10的简单化、以及小型、轻量化等。
另外,在本实施方式中,由于具有显示文本数据的显示部14、输入声音的声音输入部42以及与声音的分析结果相应地使上述显示部显示与上述声音相关联的信息的终端侧控制部30,因此如图4的步骤S100那样,在某人发出例如“早上好”等的声音时,能够将该人的信息(名称、其它注册的信息、或者要对该人进行的任务等)显示在显示部14上。由此,用户即使忘了发出声音的人,也能够通过观看显示部14来想出该人。这样,根据本实施方式,能够提供可用性好的个人辅助系统100以及便携式终端10。在这种情况下,通过利用对声音的声谱进行分析的声谱分析部55的分析结果,能够进行合适的显示。
另外,在本实施方式中,终端侧控制部30和服务器侧控制部70与声谱分析部55的分析结果相应地将与包含在声音数据中的规定的文字(例如“那个事件”、“北海道的事件”等)相关联的信息显示在显示部14上,因此即使进行了“那个事件”、“北海道的事件”等的模糊的提问,也能够通过确认显示部14,来想出该事件。在本实施方式中,从该点来看,也可以说能够提供可用性好的个人辅助系统100以及便携式终端10。另外,在本实施方式中,根据将与规定的文字(“北海道的事件”等)相关联的信息与规定的文字(例如“北海道”等的文字)一起输入到输入部的频率来选择信息并显示在显示部14上(图4的步骤S104),因此能够进行合适的信息显示。
另外,在图4的步骤S104中,也可以使显示部14显示与声音数据被输入的时刻相应的信息(从声音数据被输入的时刻起在规定时间被输入的信息等),因此从该点来看,也能够进行合适的信息显示。
另外,在本实施方式中,具备:输入部42,其输入声音;文本数据生成部54,其根据输入到输入部42的声音数据来生成文本数据;声谱分析部55,其对输入到输入部42的声音数据的声谱数据进行分析;以及删除部76,其根据声谱分析部55的分析结果,删除由文本数据生成部54生成文本数据之后的声音数据。由此,通过删除生成文本数据之后的声音数据,能够减少快闪存储部64中所需的存储容量。另外,在本实施方式中,由于根据声谱分析部55的分析结果来删除声音数据,因此通过删除某特定人物的声音数据,能够实现考虑到隐私的良好的可用性。
另外,在本实施方式中,具备:通信部52,其被输入信息;提取部58,其从输入到通信部52的数据中提取规定的关键词;分类部60,其将由提取部58提取的关键词分类为保密性等级为“高”的关键词和保密性等级为“中”的关键词;以及变换部62,其用规定的变换方法对保密性等级为“高”的关键词进行变换,并且用不同于保密性等级为“高”的关键词的变换方法对保密性等级为“中”的关键词进行变换。这样,通过根据保密性等级对关键词进行分类,并与各个等级相应地进行不同的变换,能够进行考虑了保密性等级的数据的显示等。
另外,在本实施方式中,声谱分析部55分析声音数据的声谱数据是否为已注册的用户的声谱数据,删除部76删除用户以外的声音,因此能够有效地减少闪速存储器64可存储的存储容量,并且能够进一步提高对隐私的考虑。
另外,在本实施方式中,删除部76对于用户的声音与用户以外的声音使分析之后直到删除为止的时间不同(步骤S276、S278)。由此,由于用户的声音在规定时间之后也删除,因此能够进一步实现存储容量的减少。
另外,在本实施方式中,在文本数据生成部54无法基于声音数据生成文本数据的情况下,警告部18发出警告,因此用户能够识别出无法基于声音数据生成文本数据的情形。另外,在文本数据生成部54无法基于声音数据生成文本数据的情况下(在步骤S270为否定的情况下),与用户的指示相应地,再现部16再现声音数据,因此用户能够通过声音数据的再现来确认无法形成文本数据的内容。
另外,根据本实施方式,具备:显示部14,其进行显示;声音输入部42,其输入声音;加权部56,其根据所输入的声音的大小、频率以及意思中的至少一个进行加权;以及控制部70、30,其根据由声音输入部42输入的声音和加权部56的加权,来变更显示部中的任务的显示方式。由此,根据声音数据被输入的方式、声音数据的内容等由加权部56进行的加权,变更显示部14中的任务的显示方式,因此能够实现与声音数据的权重(重要度)相应的显示方式。由此,能够实现可用性的提高。
另外,根据本实施方式,设加权部56至少使用声音数据的频率来确定发出声音的人,进行与该人(本实施方式中是职务)相应的加权,因此能够进行与声音数据的重要度有关的合适的加权。
另外,根据本实施方式,设加权部56进行与基于声音的意思的保密性相应的加权,因此从该点来看,也能够进行与声音数据的重要度有关的合适的加权。
另外,在本实施方式中,在从声音输入部42输入的声音中包含有日期信息的情况下,也能够根据该日期信息进行任务的显示,因此也能够满足作为普通的预定表的功能。另外,在本实施方式中,考虑到与时刻检测部24所检测出的时刻有关的信息、或者考虑到日历部26的日期信息,进行任务的显示,因此能够以相对于当前的时刻从近到远顺序、或者相对于当前的时刻从远到近的顺序等顺序显示要进行的任务。
另外,在本实施方式中,由于具备将从声音输入部42输入的声音变换为文本数据的文本数据生成部54,因此加权部56能够对文本数据进行加权。由此,能够与处理声音数据的情况相比简单地进行加权。
另外,在本实施方式中,由于根据加权结果来变更显示顺序、颜色、显示尺寸、显示字体等,因此能够以各种方法表现加权结果。
另外,在本实施方式中,设在与检测位置的位置检测部22的输出相应地变更向显示部的显示方式、即根据当前位置判断为执行过任务的情况下,不显示(删除)该任务,因此能够实现存储容量的减少。
并且,在本实施方式中,根据声音数据中是否包含有固定用语,来判断是否为任务,使用该判断结果,决定是否向显示部14显示,因此能够自动地辨别是否为任务,并且也能够自动地决定是否向显示部显示。
另外,在本实施方式中,为了能够由用户设定加权,而在服务器50中设置有设定部74,因此用户能够进行与自己的喜好相应的加权所相关的设定。
另外,根据本实施方式,具备:声音输入部42,其输入声音;文本数据生成部54,其能够将所输入的声音变换为文本数据;服务器侧控制部70,其在声音输入部42输入特定的频率时,开始文本数据生成部54的变换、即开始录音,并开始向文本数据进行变换。因而,在某人物发出声音而输入了特定频率的声音的情况下,根据该声音的输入,开始录音、向文本数据变换(参照图2的(a)),因此能够自动地开始录音、向文本数据变换。由此,能够简化用户的操作,实现可用性的提高。
另外,在本实施方式中,由于也能够在声音输入部42输入了与电话相关联的频率时开始向文本数据的变换,因此例如能够从没有电话的来电声的时刻开始记录电话的声音,并进行向文本数据的变换。由此,能够不遗漏电话中的对话地进行录音、向文本数据的变换。
另外,在本实施方式中,由于能够根据任务,在例如到了会议的日期时等的合适的定时开始录音、向文本数据的变换,因此从该点来看,也能够简化用户的操作,提高可用性。另外,例如也能够根据会议的结束时刻来进行录音、向文本数据的变换(参照图2的(c)),因此能够自动地开始会议中有可能说出最重要的事情的时间段的声音数据的录音以及向文本数据的变换。
另外,在本实施方式中,能够根据用户的身体信息,在合适的定时开始录音、向文本数据的变换(参照图2的(d)),因此从该点来看,也能够简化用户的操作,提高可用性。
并且,在本实施方式中,能够在当前时刻为预先决定的时刻时,开始录音、向文本数据的变换(参照图2的(b)),因此从该点来看,也能够简化用户的操作,提高可用性。
另外,在本实施方式中,能够根据位置检测部22的检测结果,禁止文本数据生成部54的变换,因此例如在公司外的会议等进行录音存在问题的情况下,能够自动地禁止录音。由此,能够进一步提高可用性。
此外,在上述实施方式中,说明了对每个文字决定保密性的高低的情况,但是并不限于此,例如,在分类部60中,也可以将商务使用的文字分类为保密性等级高的文字、将私人使用的文字分类为保密性等级低的文字。
此外,在上述实施方式中,针对在由便携式终端10的位置检测部22检测出的当前位置是不能确保安全性的位置时对关键词进行变换并显示的情况、显示部14中的显示被限制的情况进行了说明,但是并不限于此。例如,也可以在时刻检测部24所检测出的时刻是规定时刻(例如工作时间内)的情况下,对显示部14中的显示进行限制。这样,能够与上述实施方式同样地进行考虑了安全性的显示。此外,在进行这样的控制的情况下,只要在图19的步骤S206中,代替获取用户的当前位置,而获取当前时刻,在步骤S208中代替判断是否为能够确保安全性的场所,而判断是否为能够确保安全性的时刻即可。
此外,在上述实施方式中,设根据日期信息的有无以及声音数据的单词的种类进行声音数据是否为任务的判断,但是不限于此,例如也可以根据声音数据的音调进行任务判断。
此外,在上述实施方式中,针对将保密性等级“高”的文字和“中”的文字变换为其上位概念、即大写首字母的情况进行了说明,但是不限于此。例如也可以在关键词DB中定义针对各文字的变换后的文字。在这种情况下,例如作为针对关键词“照相机”的变换后的文字,能够事先定义作为照相机的上位概念的“精密设备”、作为其下位概念的“摄影装置”。在这种情况下,如果“照相机”的保密性等级为“中”,则能够例如变换为“摄影装置”。这样,通过与保密性等级相应地变换为上位概念的文字和中位概念的文字,能够进行考虑了安全性等级的显示。另外,也可以在关键词DB中注册预算等金额信息的情况下,事先定义用作为该金额信息的上位概念的位数表现的信息。
此外,在上述实施方式中,针对声音是日语的情况进行了说明,但是例如也可以是英语等外语。在外语(例如英语)时,也可以根据规定的单词的有无、规定的句子结构的有无来判断是否为任务。
此外,在上述实施方式中,针对为了实现便携式终端10的小型、轻量化而装载闪速存储器28的情况进行了说明,但是与此同时或者代替该情况,也可以将硬盘等存储装置装载到便携式终端10中。
此外,在上述实施方式中,在进行公司的位置等的设定时将便携式终端10与外部的PC进行连接并在外部的PC上进行设定的情况下进行了说明。然而,并不限于此,例如也可以在服务器50的硬盘66中预先注册公司的位置,从该硬盘66中下载公司的位置。另外,例如也可以通过在便携式终端10中安装用于设定公司的位置等的应用程序,来在便携式终端10上进行公司的位置等的设定。
此外,在上述实施方式中,设为根据上式(1)计算任务优先级,但是不限于此,也可以使用其它的式来计算任务优先级。例如,也可以仅将各权重相加、或者相乘。另外,不限于使用上式(1)等求任务优先级的情况,也可以选择权重中的任一个,按所选择的该权重的从大到小的顺序决定任务优先级。在这种情况下,也可以由用户设定用哪个权重决定任务优先级。
此外,在上述实施方式中,针对最初显示将关键词变为大写首字母得到的信息(例如软件中的“SW”)和基于图像的信息(例如软件中的“海绵”)中的变为大写首文字母得到的信息的情况进行了说明,但是不限于此,也可以最初显示基于图像的信息。另外,也可以同时显示变为大写首文字母得到的信息和基于图像的信息。
此外,在上述实施方式中,针对在用户以外的人的声音输入到输入部12时显示该发声者的姓名、信息的情况进行了说明,但是不限于此,例如也可以显示发声者的面部照片等与发声者相关的图像。在这种情况下,例如需要事先在服务器50的硬盘66中保存这些图像,并且需要将该图像事先注册到关键词DB的信息的项目中。
此外,在上述实施方式中,作为权重,也可以使用与用户的亲密度。在这种情况下,例如能够将声音输入比较多的人物、持有便携式终端的人中的接近的机会较多的人物等设为亲密度高的人物。
此外,在上述实施方式中说明的结构是一个例子。即,也可以将上述实施方式中说明的服务器50的结构的至少一部分设置在便携式终端10侧,还可以将上述实施方式中说明的便携式终端10的结构的至少一部分设置在服务器50侧。具体来说,例如也可以设使便携式终端10具有服务器50的声谱分析部55、文本数据生成部54等。
此外,在上述实施方式中,以将本发明用于商务的情况为中心进行了说明,但是也可以私人使用,或者当然也可以用于私人和商务两方。
上述的实施方式是本发明的优选的实施例。但是并不限定于此,能够在不脱离本发明的宗旨的范围内进行各种变形实施。

Claims (28)

1.一种信息处理装置,其特征在于,具备:
声音输入部,其对声音进行输入;
文本数据生成部,其能够将输入的声音变换为文本数据;以及
控制部,其根据与声音相关的信息和与使用者相关的信息中的至少一个信息,开始由上述文本数据生成部进行的变换。
2.根据权利要求1所述的信息处理装置,其特征在于,
上述控制部在上述声音输入部输入了特定的频率时,开始由上述文本数据生成部进行的变换。
3.根据权利要求2所述的信息处理装置,其特征在于,
上述控制部在上述声音输入部输入了与电话相关联的频率时,开始由上述文本数据生成部进行的变换。
4.根据权利要求2所述的信息处理装置,其特征在于,
上述控制部在输入了特定人的声音的频率时,开始由上述文本数据生成部进行的变换。
5.根据权利要求1所述的信息处理装置,其特征在于,
具备取得部,该取得部取得预定,
上述控制部根据上述取得部取得的预定,开始由上述文本数据生成部进行的变换。
6.根据权利要求5所述的信息处理装置,其特征在于,
上述控制部检测上述预定的结束时刻,与该结束时刻相应地开始由上述文本数据生成部进行的变换。
7.根据权利要求1所述的信息处理装置,其特征在于,
上述控制部根据使用者的身体信息,开始由上述文本数据生成部进行的变换。
8.根据权利要求7所述的信息处理装置,其特征在于,
具备身体信息输入部,该身体信息输入部输入上述使用者的身体信息。
9.根据权利要求1所述的信息处理装置,其特征在于,
具备时刻检测部,该时刻检测部检测与时刻有关的时刻信息,
上述控制部在上述时刻检测部检测到的时刻信息与特定的时刻一致时,开始由上述文本数据生成部进行的变换。
10.根据权利要求1所述的信息处理装置,其特征在于,
具备位置检测部,该位置检测部检测位置信息,
上述控制部根据上述位置检测部的检测结果,禁止由上述文本数据生成部进行的变换。
11.一种便携式装置,其特征在于,具备:
输入部,其进行输入;
显示部,其显示与上述输入相关联的信息;
检测部,其检测位置信息和时刻信息中的至少一方;以及
控制部,其根据上述检测部检测到的信息,限制向上述显示部的显示。
12.根据权利要求11所述的便携式装置,其特征在于,
上述检测部是检测上述显示部的位置信息的位置检测部,
上述控制部在根据上述位置检测部的输出判定为不能确保安全时,限制向上述显示部的显示。
13.根据权利要求12所述的便携式装置,其特征在于,
上述控制部在根据上述位置检测部的输出判定为能够确保安全时,解除向上述显示部的显示限制的至少一部分。
14.根据权利要求11所述的便携式装置,其特征在于,
上述检测部是检测与时刻有关的信息的时刻检测部,
上述控制部在根据上述时刻检测部的输出判定为不能确保安全时,限制向上述显示部的显示。
15.根据权利要求14所述的便携式装置,其特征在于,
上述控制部在根据上述时刻检测部的输出判定为能够确保安全时,解除向上述显示部的显示限制的至少一部分。
16.根据权利要求11所述的便携式装置,其特征在于,
上述输入部是输入声音的声音输入部。
17.根据权利要求16所述的便携式装置,其特征在于,
上述控制部将对上述输入的声音施加限制后的信息显示在上述显示部上。
18.根据权利要求11所述的便携式装置,其特征在于,
上述输入部是通过键盘进行输入的键盘装置。
19.根据权利要求18所述的便携式装置,其特征在于,
上述控制部将对通过上述键盘输入的信息施加了限制后的信息显示在上述显示部上。
20.一种信息处理系统,其特征在于,具备:
权利要求11所述的便携式装置;以及
变换装置,其对从上述便携式装置输入的信息的至少一部分施加显示限制。
21.一种信息处理系统,其特征在于,具备:
输入部,其输入声音;
文本数据生成部,其根据输入到上述输入部的声音,生成文本数据;
分析部,其对输入到上述输入部的声音的声谱数据进行分析;以及
消除部,其根据上述分析部的分析结果消除由上述文本数据生成部生成了文本数据后的声音。
22.根据权利要求21所述的信息处理系统,其特征在于,还具备:
提取部,其从输入到上述输入部的上述声音中提取规定的文字;
分类部,其将由上述提取部提取的上述文字分类为第一文字和第二文字;以及
变换部,其通过第一变换方法对上述第一文字进行变换,并且通过不同于上述第一变换方法的第二变换方法对上述第二文字进行变换。
23.根据权利要求21所述的信息处理系统,其特征在于,
上述分析部分析上述声音的声谱数据是否为已注册用户的声谱数据,
上述消除部根据上述分析部的分析结果,消除注册用户以外的声音。
24.根据权利要求21所述的信息处理系统,其特征在于,
上述消除部使上述注册用户的声音与上述注册用户以外的声音的、经上述分析部分析之后直到消除为止的时间不同。
25.根据权利要求21所述的信息处理系统,其特征在于,
还具备警告部,该警告部在上述文本数据生成部无法基于上述声音生成文本数据的情况下,发出警告。
26.根据权利要求21所述的信息处理系统,其特征在于,
还具备再现部,该再现部在上述文本数据生成部无法基于上述声音生成文本数据的情况下,对上述声音进行再现,
上述消除部根据上述分析部的分析结果消除由上述再现部再现的上述声音。
27.根据权利要求26所述的信息处理系统,其特征在于,
上述消除部将由上述再现部再现的声音在从该再现起经过了规定时间之后,根据上述分析部的分析结果进行消除。
28.根据权利要求21所述的信息处理系统,其特征在于,
还具备可携带的便携式终端壳体,该便携式终端壳体具备上述再现部。
CN201910615325.3A 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统 Pending CN110347834A (zh)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
JP2010034013A JP5869209B2 (ja) 2010-02-18 2010-02-18 情報処理装置
JP2010033982A JP5348010B2 (ja) 2010-02-18 2010-02-18 情報処理装置
JP2010-034013 2010-02-18
JP2010-034003 2010-02-18
JP2010033988A JP2011170634A (ja) 2010-02-18 2010-02-18 情報処理装置
JP2010033985A JP2011170633A (ja) 2010-02-18 2010-02-18 携帯型装置及び情報処理システム
JP2010-033997 2010-02-18
JP2010-033988 2010-02-18
JP2010-033985 2010-02-18
JP2010-033982 2010-02-18
JP2010034003A JP5353750B2 (ja) 2010-02-18 2010-02-18 情報処理装置
JP2010033997A JP5577737B2 (ja) 2010-02-18 2010-02-18 情報処理システム
CN201180010169.XA CN102934107B (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201180010169.XA Division CN102934107B (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统

Publications (1)

Publication Number Publication Date
CN110347834A true CN110347834A (zh) 2019-10-18

Family

ID=44482835

Family Applications (4)

Application Number Title Priority Date Filing Date
CN202310240578.3A Pending CN116312567A (zh) 2010-02-18 2011-02-04 便携式装置以及信息处理系统
CN201180010169.XA Expired - Fee Related CN102934107B (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统
CN201610670174.8A Expired - Fee Related CN106294796B (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统
CN201910615325.3A Pending CN110347834A (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统

Family Applications Before (3)

Application Number Title Priority Date Filing Date
CN202310240578.3A Pending CN116312567A (zh) 2010-02-18 2011-02-04 便携式装置以及信息处理系统
CN201180010169.XA Expired - Fee Related CN102934107B (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统
CN201610670174.8A Expired - Fee Related CN106294796B (zh) 2010-02-18 2011-02-04 信息处理装置、便携式装置以及信息处理系统

Country Status (3)

Country Link
US (6) US9013399B2 (zh)
CN (4) CN116312567A (zh)
WO (1) WO2011102246A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116312567A (zh) * 2010-02-18 2023-06-23 株式会社尼康 便携式装置以及信息处理系统
US9087213B2 (en) * 2011-02-22 2015-07-21 Fedex Corporate Services, Inc. Systems and methods for rule-driven management of sensor data across geographic areas and derived actions
US20120259924A1 (en) * 2011-04-05 2012-10-11 Cisco Technology, Inc. Method and apparatus for providing summary information in a live media session
US20150056952A1 (en) * 2013-08-22 2015-02-26 Vonage Network Llc Method and apparatus for determining intent of an end-user in a communication session
US10290139B2 (en) * 2015-04-15 2019-05-14 Sangmyung University Industry-Academy Cooperation Foundation Method for expressing social presence of virtual avatar, using change in pupil size according to heartbeats, and system employing same
US9865281B2 (en) * 2015-09-02 2018-01-09 International Business Machines Corporation Conversational analytics
KR20170044386A (ko) * 2015-10-15 2017-04-25 삼성전자주식회사 전자기기 및 전자기기의 제어방법
JP6374854B2 (ja) * 2015-11-10 2018-08-15 株式会社オプティム 画面共有システム及び画面共有方法
US10621992B2 (en) * 2016-07-22 2020-04-14 Lenovo (Singapore) Pte. Ltd. Activating voice assistant based on at least one of user proximity and context
KR20190091265A (ko) * 2016-12-05 2019-08-05 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 정보 처리 시스템
US11599857B2 (en) * 2017-01-31 2023-03-07 Microsoft Technology Licensing, Llc Categorized time designation on calendars
KR102068182B1 (ko) * 2017-04-21 2020-01-20 엘지전자 주식회사 음성 인식 장치, 및 음성 인식 시스템
US10664533B2 (en) 2017-05-24 2020-05-26 Lenovo (Singapore) Pte. Ltd. Systems and methods to determine response cue for digital assistant based on context
US10403288B2 (en) * 2017-10-17 2019-09-03 Google Llc Speaker diarization
JPWO2020255600A1 (zh) * 2019-06-20 2020-12-24
CN110765502B (zh) * 2019-10-30 2022-02-18 Oppo广东移动通信有限公司 信息处理方法及相关产品
CN112287691B (zh) * 2020-11-10 2024-02-13 深圳市天彦通信股份有限公司 会议录音方法及相关设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1334532A (zh) * 2000-07-13 2002-02-06 白涛 全球通多语种自动语音同声翻译系统
JP2002259363A (ja) * 2001-03-01 2002-09-13 Nippon Telegr & Teleph Corp <Ntt> 文書伏字加工方法、文書伏字加工装置、文書伏字加工処理プログラム及びその記録媒体
CN1422098A (zh) * 2001-10-30 2003-06-04 日本电气株式会社 终端装置和通信控制方法
CN1545804A (zh) * 2001-08-28 2004-11-10 ���µ�����ҵ��ʽ���� 广播接收方法
JP2005110869A (ja) * 2003-10-06 2005-04-28 Sony Corp 記録装置、及び記録方法
CN1697543A (zh) * 2004-05-11 2005-11-16 三星电子株式会社 用于将声音消息转换为文本消息的移动通信终端和方法
KR100828166B1 (ko) * 2007-06-12 2008-05-08 고려대학교 산학협력단 동영상의 음성 인식과 자막 인식을 통한 메타데이터 추출방법, 메타데이터를 이용한 동영상 탐색 방법 및 이를기록한 기록매체
JP2009093420A (ja) * 2007-10-09 2009-04-30 Yamaha Corp 情報処理装置及びプログラム
CN101634987A (zh) * 2008-07-21 2010-01-27 上海天统电子科技有限公司 多媒体播放器

Family Cites Families (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2596260B2 (ja) 1990-07-18 1997-04-02 三菱電機株式会社 対応表使用データベース検索装置
US5442780A (en) 1991-07-11 1995-08-15 Mitsubishi Denki Kabushiki Kaisha Natural language database retrieval system using virtual tables to convert parsed input phrases into retrieval keys
JPH05234338A (ja) 1992-02-19 1993-09-10 Sony Corp 音声認識装置
JPH07222248A (ja) 1994-02-08 1995-08-18 Hitachi Ltd 携帯型情報端末における音声情報の利用方式
DE19645716A1 (de) * 1995-11-06 1997-05-07 Ricoh Kk Digitale Einzelbild-Videokamera
JPH10134047A (ja) * 1996-10-28 1998-05-22 Casio Comput Co Ltd 移動端末音声認識/議事録作成通信システム
JPH1131000A (ja) 1997-07-11 1999-02-02 Kenwood Corp ボイスレコーダ
JP3045713B1 (ja) * 1998-12-09 2000-05-29 富士通株式会社 車載型車両誘導装置及び通信サーバシステム並びに代替車両誘導システム
US6526335B1 (en) * 2000-01-24 2003-02-25 G. Victor Treyz Automobile personal computer systems
JP2001318915A (ja) 2000-05-11 2001-11-16 Matsushita Electric Ind Co Ltd フォント変換装置
JP4812928B2 (ja) 2000-08-09 2011-11-09 株式会社ジャコス 声紋電話システム
CN100512030C (zh) * 2001-03-29 2009-07-08 哈茉尼彩色音技术开发公司 将声音转换为图像并在屏幕上显示的电话和方法
JP2003256287A (ja) 2002-03-06 2003-09-10 Hitachi Ltd モバイル端末管理装置
US7113169B2 (en) * 2002-03-18 2006-09-26 The United States Of America As Represented By The Secretary Of The Air Force Apparatus and method for a multiple-user interface to interactive information displays
JP2003345379A (ja) * 2002-03-20 2003-12-03 Japan Science & Technology Corp 音声映像変換装置及び方法、音声映像変換プログラム
JP3777337B2 (ja) 2002-03-27 2006-05-24 ドコモ・モバイルメディア関西株式会社 データサーバのアクセス制御方法、そのシステム、管理装置、及びコンピュータプログラム並びに記録媒体
JP2003316803A (ja) 2002-04-19 2003-11-07 Nec Corp 携帯端末装置およびサービス提供システム
US7190950B1 (en) * 2002-06-27 2007-03-13 Bellsouth Intellectual Property Corporation Storage of voicemail messages at an alternate storage location
US8509736B2 (en) * 2002-08-08 2013-08-13 Global Tel*Link Corp. Telecommunication call management and monitoring system with voiceprint verification
JP2004086441A (ja) 2002-08-26 2004-03-18 Ntt Data Corp コンテンツ管理システム
JP2004129168A (ja) 2002-10-07 2004-04-22 Yoshitaka Yamamoto 携帯電話を用いたデータ処理装置
JP2004287201A (ja) 2003-03-24 2004-10-14 Seiko Epson Corp 議事録作成装置及び方法、ならびに、コンピュータプログラム
JP2004330891A (ja) 2003-05-08 2004-11-25 Fujitsu Ten Ltd 利便性向上装置
JP2005202014A (ja) * 2004-01-14 2005-07-28 Sony Corp 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
JP4485234B2 (ja) 2004-03-26 2010-06-16 セイコーインスツル株式会社 生体情報計測装置
JP4581452B2 (ja) 2004-03-29 2010-11-17 日本電気株式会社 電子機器、そのロック機能解除方法及びそのプログラム
US7783308B2 (en) * 2004-07-06 2010-08-24 Sony Ericsson Mobile Communications Ab Method of and apparatus for zone dependent content in a mobile device
JP2006039681A (ja) 2004-07-22 2006-02-09 Nec Corp 情報照会システム、情報管理サーバ、情報照会方法及び情報照会プログラム
JP2006039294A (ja) 2004-07-28 2006-02-09 Fuji Photo Film Co Ltd 視聴者監視システム
WO2006025461A1 (ja) * 2004-08-31 2006-03-09 Kunihiro Shiina 通話を伴うプッシュ型情報通信システム
JP4686160B2 (ja) 2004-10-04 2011-05-18 沖コンサルティングソリューションズ株式会社 会話記録装置および会話記録方法
JP2006155283A (ja) 2004-11-30 2006-06-15 Fuji Xerox Co Ltd 文書処理装置及び方法
JP4622514B2 (ja) 2004-12-28 2011-02-02 日本電気株式会社 文書匿名化装置、文書管理装置、文書匿名化方法及び文書匿名化プログラム
JP4457904B2 (ja) 2005-01-31 2010-04-28 株式会社カシオ日立モバイルコミュニケーションズ 携帯通信端末装置及びプログラム
JP2006309356A (ja) 2005-04-26 2006-11-09 Mark-I Inc スケジュール等管理システムおよびスケジュール等管理方法
JP2006308848A (ja) 2005-04-28 2006-11-09 Honda Motor Co Ltd 車両機器制御装置
JP2006330577A (ja) 2005-05-30 2006-12-07 Alpine Electronics Inc 音声認識装置及び音声認識方法
US7672931B2 (en) 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP4626460B2 (ja) 2005-09-15 2011-02-09 富士ゼロックス株式会社 電子文書処理システム、文書配送サーバ
CN1859086B (zh) * 2005-12-31 2010-06-09 华为技术有限公司 一种内容分级访问控制系统和方法
JP2007233075A (ja) 2006-03-01 2007-09-13 Murata Mach Ltd 議事録作成装置
JP5115944B2 (ja) 2006-04-20 2013-01-09 アルパイン株式会社 音声認識装置
US7787697B2 (en) * 2006-06-09 2010-08-31 Sony Ericsson Mobile Communications Ab Identification of an object in media and of related media objects
US8595007B2 (en) * 2006-06-15 2013-11-26 NITV Federal Services, LLC Voice print recognition software system for voice identification and matching
US8059790B1 (en) * 2006-06-27 2011-11-15 Sprint Spectrum L.P. Natural-language surveillance of packet-based communications
US8553854B1 (en) * 2006-06-27 2013-10-08 Sprint Spectrum L.P. Using voiceprint technology in CALEA surveillance
JP4912060B2 (ja) 2006-07-03 2012-04-04 シャープ株式会社 文字パターン生成装置、文字パターン生成プログラム、および文字パターン生成プログラムを記録した記録媒体
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9514746B2 (en) * 2006-09-26 2016-12-06 Storz Endoskop Produktions Gmbh System and method for hazard mitigation in voice-driven control applications
JP4690999B2 (ja) 2006-11-15 2011-06-01 三菱電機インフォメーションシステムズ株式会社 オペレータ業務支援システム
JP2008154125A (ja) 2006-12-20 2008-07-03 Casio Hitachi Mobile Communications Co Ltd 映像出力装置及びプログラム
AU2008209307B2 (en) * 2007-01-22 2010-12-02 Auraya Pty Ltd Voice recognition system and methods
JP4918896B2 (ja) 2007-08-23 2012-04-18 富士通東芝モバイルコミュニケーションズ株式会社 携帯端末
JP2009104237A (ja) 2007-10-19 2009-05-14 Seiko Epson Corp 情報処理装置、情報処理方法、情報処理プログラム、および、icカード
JP2009145973A (ja) 2007-12-11 2009-07-02 Canon Inc 情報処理装置および情報処理方法
CN101464773A (zh) * 2007-12-19 2009-06-24 神基科技股份有限公司 随使用者位置而显示程序执行视窗的方法与电脑系统
JP5082822B2 (ja) 2007-12-19 2012-11-28 富士ゼロックス株式会社 画像表示システム、電子ペーパー用画像情報制御装置及び電子ペーパー用画像情報制御プログラム
US9177551B2 (en) * 2008-01-22 2015-11-03 At&T Intellectual Property I, L.P. System and method of providing speech processing in user interface
JP2009237625A (ja) 2008-03-25 2009-10-15 Science Park Corp メモリ装置、及び電子データ管理方法
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9081590B2 (en) * 2008-06-24 2015-07-14 Microsoft Technology Licensing, Llc Multimodal input using scratchpad graphical user interface to edit speech text input with keyboard input
JP5197188B2 (ja) 2008-06-30 2013-05-15 株式会社東芝 イベント識別システム
CN201307938Y (zh) * 2008-09-02 2009-09-09 宇龙计算机通信科技(深圳)有限公司 一种移动终端
US20100125791A1 (en) * 2008-11-14 2010-05-20 Rebelvox, Llc User interface for a telecommunication and multimedia management system and method
EP2196989B1 (en) * 2008-12-10 2012-06-27 Nuance Communications, Inc. Grammar and template-based speech recognition of spoken utterances
JP4735731B2 (ja) * 2009-03-23 2011-07-27 富士ゼロックス株式会社 画像処理システム
US9547642B2 (en) * 2009-06-17 2017-01-17 Empire Technology Development Llc Voice to text to voice processing
CN101673544B (zh) * 2009-10-10 2012-07-04 上海电虹软件有限公司 一种基于声纹识别和定位跟踪的交叉监控方法和系统
EP2325838A1 (en) * 2009-10-27 2011-05-25 verbavoice GmbH A method and system for transcription of spoken language
US8737975B2 (en) * 2009-12-11 2014-05-27 At&T Mobility Ii Llc Audio-based text messaging
US8543143B2 (en) * 2009-12-23 2013-09-24 Nokia Corporation Method and apparatus for grouping points-of-interest according to area names
EP4318463A3 (en) * 2009-12-23 2024-02-28 Google LLC Multi-modal input on an electronic device
US9413869B2 (en) * 2010-02-10 2016-08-09 Qualcomm Incorporated Mobile device having plurality of input modes
CN116312567A (zh) * 2010-02-18 2023-06-23 株式会社尼康 便携式装置以及信息处理系统
JP5577737B2 (ja) 2010-02-18 2014-08-27 株式会社ニコン 情報処理システム
US9015046B2 (en) * 2010-06-10 2015-04-21 Nice-Systems Ltd. Methods and apparatus for real-time interaction analysis in call centers
US9349368B1 (en) * 2010-08-05 2016-05-24 Google Inc. Generating an audio notification based on detection of a triggering event
US8965759B2 (en) * 2012-09-01 2015-02-24 Sarah Hershenhorn Digital voice memo transfer and processing
KR102158315B1 (ko) * 2013-10-14 2020-09-21 삼성전자주식회사 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
KR102277749B1 (ko) * 2014-11-13 2021-07-16 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1334532A (zh) * 2000-07-13 2002-02-06 白涛 全球通多语种自动语音同声翻译系统
JP2002259363A (ja) * 2001-03-01 2002-09-13 Nippon Telegr & Teleph Corp <Ntt> 文書伏字加工方法、文書伏字加工装置、文書伏字加工処理プログラム及びその記録媒体
CN1545804A (zh) * 2001-08-28 2004-11-10 ���µ�����ҵ��ʽ���� 广播接收方法
CN1422098A (zh) * 2001-10-30 2003-06-04 日本电气株式会社 终端装置和通信控制方法
JP2005110869A (ja) * 2003-10-06 2005-04-28 Sony Corp 記録装置、及び記録方法
CN1697543A (zh) * 2004-05-11 2005-11-16 三星电子株式会社 用于将声音消息转换为文本消息的移动通信终端和方法
KR100828166B1 (ko) * 2007-06-12 2008-05-08 고려대학교 산학협력단 동영상의 음성 인식과 자막 인식을 통한 메타데이터 추출방법, 메타데이터를 이용한 동영상 탐색 방법 및 이를기록한 기록매체
JP2009093420A (ja) * 2007-10-09 2009-04-30 Yamaha Corp 情報処理装置及びプログラム
CN101634987A (zh) * 2008-07-21 2010-01-27 上海天统电子科技有限公司 多媒体播放器

Also Published As

Publication number Publication date
US20190392835A1 (en) 2019-12-26
US20170193994A1 (en) 2017-07-06
US20250069598A1 (en) 2025-02-27
CN102934107B (zh) 2016-09-14
US20120299824A1 (en) 2012-11-29
CN102934107A (zh) 2013-02-13
CN106294796B (zh) 2020-02-28
US20240087571A1 (en) 2024-03-14
CN116312567A (zh) 2023-06-23
WO2011102246A1 (ja) 2011-08-25
US20150145770A1 (en) 2015-05-28
US9626151B2 (en) 2017-04-18
US9013399B2 (en) 2015-04-21
CN106294796A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
CN110347834A (zh) 信息处理装置、便携式装置以及信息处理系统
Brown et al. A snapshot of the life as lived: Wearable cameras in social and personality psychological science
Thomson The women, peace, and security agenda and feminist institutionalism: A research agenda
Grace Transnational institutional ethnography: Tracing text and talk beyond state boundaries
Ali et al. Personal information management through ubiquitous devices: Students’ mobile self-efficacy and PIM practices
JP2012170024A (ja) 情報処理装置
Zhao et al. Employees’ perception of generative artificial intelligence and the dark side of work outcomes
Turesky Aging back into the closet: Community planning for older LGBTQ+ adults
JP5577737B2 (ja) 情報処理システム
KR100836901B1 (ko) 전문직 종사자에 대한 전문성지수 관리서버 및 상기전문성지수 관리서버에서 실행가능한 전문성지수 처리/제공방법 및 그 방법을 실현시키기 위한 프로그램데이터를기록한 컴퓨터로 읽을 수있는 기록매체
Long Exploring generational differences in text messaging usage and habits
JP2011170637A (ja) 情報処理装置
JP2017182075A (ja) 情報処理装置
JP6332369B2 (ja) 情報処理装置及びプログラム
JP2015167035A (ja) 情報処理装置
JP2025061928A (ja) 情報処理装置
JP2018156670A (ja) 情報処理装置及びプログラム
JP2022168256A (ja) 情報処理装置
Dey et al. Appropriation of mobile telephony at the Bottom of the Pyramid
JP2015149780A (ja) 情報処理装置
KT et al. “Marriage should not mean losing myself”: Changing expectations and relationship concerns among unmarried young adults in Kerala
Smith There's Hope in the System: Towards a Strength-Driven Design Approach to Support the Information Work of Sheltered Emerging Adults
Awadalla From Revolution to Authoritarianism: Gender, Aesthetics, and Power in Contemporary Nicaragua
Rothenberg Thoughts on a Possible Political Transition in Burma
Kodama et al. Lifelog sharing system for memory recollection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191018