CN111278516B - 信息处理装置、信息处理方法和程序 - Google Patents
信息处理装置、信息处理方法和程序 Download PDFInfo
- Publication number
- CN111278516B CN111278516B CN201880070084.2A CN201880070084A CN111278516B CN 111278516 B CN111278516 B CN 111278516B CN 201880070084 A CN201880070084 A CN 201880070084A CN 111278516 B CN111278516 B CN 111278516B
- Authority
- CN
- China
- Prior art keywords
- autonomous
- information processing
- user
- operation body
- autonomous operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/18—Figure toys which perform a realistic walking motion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F11/00—Game accessories of general use, e.g. score counters, boxes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/69—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F9/00—Games not otherwise provided for
- A63F9/24—Electric games; Games using electronic circuits not otherwise provided for
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/365—Details; Accessories allowing a choice of facial features, e.g. to change the facial expression
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Toys (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
[问题]用于增强自主操作体与用户之间的通信。[解决方案]本公开提供了一种信息处理装置,其具有应用控制单元和反映单元,应用控制单元控制与自主操作体和用户之间的通信相关的应用的操作;反映单元使自主操作体反映由用户在应用中执行的操作。应用控制单元控制模拟自主操作体的化身的操作。反映单元将化身基于由用户执行的操作获取的奖励反映在自主操作体上。
Description
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
近年来已经开发了各种具有学习功能的装置。这样的装置包括自主操作体,诸如基于所估计的状态执行自主操作的机器人。例如,专利文献1公开了一种机器人装置,其将信息获取行为作为自主操作中的一个行为来执行。
引用列表
专利文献
专利文献1:日本专利申请公开号2002-219677
发明内容
本发明要解决的问题
同时,即使当用户缺席时,如专利文献1中描述的自主操作体也可以执行各种自主行为。然而,如果自主操作体和用户能够相互通信的情况限于两者共享相同物理空间的情况,则通信变得间歇,并且用户可能不能充分享受拥有自主操作体的优点。
因此,本公开提出了一种新的和改进的信息处理装置、信息处理方法和程序,其可以进一步激活自主操作体与用户之间的通信。
问题的解决方案
本公开提供了一种信息处理装置,其包括:应用控制单元,其控制与自主操作体和用户之间的通信相关的应用的操作;以及反映单元,其使自主操作体反映在应用中由用户执行的操作。在信息处理装置中,应用控制单元控制模仿自主操作体的化身的操作,反映单元使自主操作体反映化身基于由用户执行的操作而获取的奖励。
本公开还提供了一种由处理器实现的信息处理方法,该信息处理方法包括:控制与自主操作体和用户之间的通信相关的应用的操作;使自主操作体反映用户在应用中执行的操作。在信息处理方法中,该控制还包括控制模仿自主操作体的化身的操作,并且该使还包括使自主操作体反映由化身基于用户执行的操作而获取的奖励。
本公开还提供了一种用于使计算机用作信息处理装置的程序,其包括:应用控制单元,其控制与自主操作体和用户之间的通信相关的应用的操作;以及反映单元,其使自主操作体反映在应用中由用户执行的操作。应用控制单元控制模仿自主操作体的化身的操作,反映单元使自主操作体反映由化身基于用户进行的操作而获取的奖励。
本发明的效果
如上所述,根据本公开,可以使自主操作体与用户之间的通信更加活跃。
注意,上述效果不一定是限制性的,并且可以与上述效果一起实现本说明书中描述的效果中的任一个,或者代替上述效果,或者可以实现从本说明书显而易见的其他效果。
附图说明
[图1]是示出根据本公开的实施例的自主操作体的示例性硬件配置的示图。
[图2]是根据本公开的实施例的包括在自主操作体中的致动器的示例性配置。
[图3]是用于说明包括在根据本公开的实施例的自主操作体中的致动器的操作的示图。
[图4]是用于说明包括在根据本公开的实施例的自主操作体中的致动器的操作的示图。
[图5]是用于说明包括在根据本公开的实施例的自主操作体中的显示器的功能的示图。
[图6]是示出根据本公开的实施例的自主操作体的示例性操作的示图。
[图7]是示出根据本公开的实施例的示例性系统配置的示图。
[图8]是示出根据本公开的实施例的自主操作体的示例性功能配置的示图。
[图9]是示出根据本公开的实施例的信息处理服务器的示例性功能配置的示图。
[图10]是示出根据本公开的实施例的信息处理终端的示例性功能配置的示图。
[图11]是示出根据本公开的实施例的应用的主屏幕的示例的示图。
[图12]是示出根据本实施例的应用的主屏幕的示例的示图。
[图13]是示出根据本实施例的自主操作体的情绪的颜色的示例。
[图14]是根据本实施例的应用菜单屏幕的示例。
[图15]是根据本实施例的通知屏幕的示例。
[图16]是根据本实施例的内容列表屏幕的示例。
[图17]是根据本实施例的设置内容屏幕的示例。
[图18]是根据本实施例的外观变化内容屏幕的示例。
[图19]是根据本实施例的用于眼球的颜色表示的外观变化屏幕的示例。
[图20]是用于说明由根据本实施例的反映单元引起的设置的反映的示图。
[图21]是根据本实施例的照片内容屏幕的示例。
[图22]是根据本实施例的身体状态检查内容屏幕的示例。
[图23]是根据本实施例的游戏内容屏幕的示例。
[图24]是根据本实施例的游戏内容说明屏幕的示例。
[图25]是用于说明自主操作体与用户之间经由根据本实施例的球形玩具的交互的示图。
[图26]是用于说明经由根据本实施例的骨形玩具在自主操作体和用户之间的交互的示图。
[图27]是根据本实施例的奖励获取弹出窗口的示例。
[图28]是示出将由根据本实施例的信息处理服务器执行的外观变化设置控制的流程的流程图。
[图29]是示出将由根据本实施例的信息处理服务器执行的游戏内容控制的流程的流程图。
[图30]是示出根据本公开的实施例的示例性硬件配置的示图。
具体实施方式
下面参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,具有基本相同功能配置的部件由相同的附图标记表示,并且将不再重复对它们的说明。
注意,将按以下顺序进行说明。
1.配置
1.1.自主操作体10的概述
1.2.自主操作体10的示例性硬件配置
1.3.示例性系统配置
1.4.自主操作体10的示例性功能配置
1.5.信息处理服务器20的示例性功能配置
1.6.信息处理终端30的示例性功能配置
2.第一实施例
2.1.概述
2.2.应用的细节
2.3.控制流程
3.示例性硬件配置
4.总结
<1.配置>
<<1.1.自主操作体10的概述>>
首先,对根据本公开的实施例的自主操作体10的概述进行了描述。根据本公开的实施例的自主操作体10是信息处理装置,其基于所收集的传感器信息来估计情况,并且根据状态自主地选择和执行各种操作。与仅根据来自用户的指令命令执行操作的机器人不同,自主操作体10自主地执行在各自情况下被估计为最佳的操作。
因此,根据本公开的实施例的自主操作体10根据情况不执行对应于用户的指令的操作,或者在一些情况下执行与操作不同的行为。上述情况对应于例如执行对应于用户指令的操作的情况;用户或自主操作体10或周围环境的安全受损的情况;自主操作体10优先于诸如充电过程等的其他期望(本能)的情况等。
此外,存在自主操作体10没有有意地遵循用户的指令以吸引用户的注意力或向用户通知其自己的情绪或硬件的状态的情况。
另一方面,自主操作体10具有受用户喜爱的强烈的期望(本能)。因此,自主操作体10即使在没有指令的情况下也反复执行与用户指令相对应的操作来取悦用户,或者学习用户喜欢的操作并且自发地执行该操作。
如上所述,根据本公开的实施例的自主操作体10综合地判断其期望和情绪,或周围环境等,并且确定和执行自主操作,如动物,包括人类。在上述方面中,自主操作体10明显不同于根据指令执行相应操作的无源装置。
根据本公开的实施例的自主操作体10可以是在空间中自主移动并且执行各种操作的自主移动机器人。自主操作体10诸如可以是人类或狗等动物的形状并具有例如操作能力的自主移动机器人。可替代地,自主操作体10可以是例如具有与用户通信的能力的车辆或其他装置。根据本公开的实施例的自主操作体10的形状、能力、期望等水平可以根据目的和角色适当地设计。
<<1.2.自主操作体10的示例性硬件配置>>
接下来,对根据本公开的实施例的自主操作体10的示例性硬件配置进行了描述。注意,在下面描述的示例情况中,自主操作体10是狗形状的四足步行机器人。
图1是示出根据本公开的实施例的自主操作体10的示例性硬件配置的示图。如图1所示,自主操作体10是具有头部、躯干、四条腿和尾部的狗状的四足步行机器人。自主操作体10还包括头部上的两个显示器510。
自主操作体10还包括各种传感器。例如,自主操作体10包括麦克风515、照相机520、飞行时间(ToF)传感器525、人感传感器530、距离测量传感器535、触摸传感器540、照度传感器545、单独按钮550和惯性传感器555。
(麦克风515)
麦克风515具有收集周围声音的功能。例如,上述声音包括用户的话语和周围环境声音。例如,自主操作体10可以包括头部上的四个麦克风。由于包括多个麦克风515,因此可以以高灵敏度收集在周围环境中产生的声音,并实现声源的定位。
(照相机520)
照相机520具有对用户和周围环境成像的功能。例如,自主操作体10可以在鼻尖和腰部包括两个广角照相机。在这种情况下,设置在鼻尖的广角照相机拍摄与自主操作体的前方视野(即,狗的视野)相对应的图像,并且腰部的广角照相机拍摄以上述空间为中心的周围区域的图像。自主操作体10例如能够基于由设置在腰部的广角照相机拍摄到的图像,通过提取天花板等的特征点来进行同步定位与映射(SLAM)。
(ToF传感器525)
ToF传感器525具有检测到存在于头部前方的对象的距离的功能。该ToF传感器525设置在头部的鼻尖处。利用ToF传感器525,可以高精度地检测到与各种对象的距离,并且根据相对于包括用户、障碍物等的对象的相对位置来执行操作。
(人感传感器530)
人感传感器530具有检测是否存在用户、用户所养的宠物等的功能。例如,人感传感器530设置在胸部上。利用人感传感器530,可以检测前方存在的移动对象,并且对移动对象执行各种操作,诸如对应于包括兴趣、恐惧和惊喜的情绪的操作。
(距离测量传感器535)
距离测量传感器535具有获取自主操作体10前方的地板的状态的功能。距离测量传感器535例如设置在胸部上。通过距离测量传感器535,可以高精度地检测到与存在于自主操作体10前方的地板上的对象的距离,并且可以根据相对于对象的位置来执行操作。
(触摸传感器540)
触摸传感器540具有检测用户接触的功能。触摸传感器540诸如配置在头部的顶部、下巴、背部等用户容易触摸自主操作体10的位置。例如,触摸传感器540可以是电容或压敏触摸传感器。利用触摸传感器540,可以检测用户的诸如触摸、点击、拍打和按压的接触动作,并且执行与接触动作相对应的操作。
(照度传感器545)
照度传感器545检测存在自主操作体10的空间的照度。照度传感器545可以设置在例如头部背面的尾部基部等处。利用照度传感器545,可以检测周围亮度,并且执行与亮度相对应的操作。
(单独按钮550)
单独按钮550具有检测自主操作体10的腿部的底部表面是否与地板接触的功能。因此,单独按钮550设置在与四条腿部的爪相对应的部分处。通过单独按钮550,可以检测自主操作体10与地板表面之间的接触或非接触,例如,识别出自主操作体10被用户抬起等。
(惯性传感器555)
惯性传感器555是检测诸如头部和躯干的速度、加速度和旋转的物理量的六轴传感器。即,惯性传感器555检测X轴、Y轴和Z轴的加速度和角速度。惯性传感器555设置在头部和躯干上。利用惯性传感器555,可以高精度地检测自主操作体10的头部和躯干的运动,并且可以执行取决于情况的移动控制。
上文已经描述了根据本公开的实施例的自主操作体10中所包括的传感器的示例。注意,以上参见图1描述的配置仅是一个示例,包括在自主操作体10中的传感器的配置并不限定于该示例。例如,除了上述配置之外,自主操作体10还可以包括温度传感器、地磁传感器、包括全球导航卫星系统(GNSS)信号接收器的各种通信装置等。自主操作体10所包括的传感器的配置可以根据规格和操作而灵活地改变。
接下来,对根据本公开的实施例的自主操作体10的关节的示例性配置进行描述。图2是包括在根据本公开的实施例的自主操作体10中的致动器570的示例性配置。根据本公开的实施例的自主操作体10除了具有图2所示的各自旋转部分之外,还具有总共22个旋转自由度:在耳部和尾部各两个;在嘴部各一个。
例如,自主操作体10在头部具有三个自由度,使自主操作体10可以点头和倾斜其头部。自主操作体10还通过腰部内的致动器570来再现腰部摆动动作,使自主操作体10能够执行类似真实狗的自然、灵活的行为。
注意,根据本公开的实施例的自主操作体10可以通过例如组合单轴致动器和双轴致动器来实现上述22个旋转自由度。例如,可以在腿部的肘和膝盖中采用单轴致动器;可以在大腿的肩部和基部中采用双轴致动器。
图3和图4是用于说明包括在根据本公开的实施例的自主操作体10中的致动器570的操作的示图。如图3所示,通过用马达575旋转输出齿轮,致动器570可以在期望的旋转位置和期望的旋转速度下驱动可移动臂590。
如图4所示,根据本公开的实施例的致动器570包括后盖571、齿轮箱盖572、控制板573、齿轮箱基座574、马达575、第一齿轮576、第二齿轮577、输出齿轮578、检测磁体579和两个轴承580。
根据本公开的实施例的致动器570可以是例如磁性自旋阀巨磁阻(svGMR)。在主处理器的控制下,控制板573使马达575旋转,使动力经由第一齿轮576和第二齿轮577传递给输出齿轮578,并且驱动移动臂590。
另外,在控制板573中包括的位置传感器检测与输出齿轮578同步旋转的检测磁体579的旋转角度,从而能够高精度地检测作为旋转位置的移动臂590的旋转角度。
注意,磁性svGMR为非接触型,其耐久性优异。此外,在GMR饱和区域中使用磁性svGMR,以有利地减小由检测磁体579和位置传感器的距离变化引起的信号变化的影响。
以上是对包括在根据本公开的实施例的自主操作体10中的致动器570的示例性配置的描述。通过上述配置,能够高精度地控制自主操作体10所包括的关节的弯曲/伸展动作,并且能够正确地检测关节的旋转位置。
接下来,参见图5对根据本公开的实施例的自主操作体10中所包括的显示器510的功能进行描述。图5是用于说明包括在根据本公开的实施例的自主操作体10中的显示器510的功能的示图。
(显示器510)
显示器510具有在可视地呈现眼睛的运动和自主操作体10的情绪的功能。如图5所示,显示器510可以根据情绪和动作来表示眼球、瞳孔和眼睑的运动。显示器510不显示与眼睛运动无关的字符、符号、图像等,以产生类似于诸如狗的实际动物的自然运动。
如图5所示,自主操作体10还包括分别对应于右眼和左眼的两个显示器510r和510l。例如,利用两个独立的有机发光二极管(OLED)来形成显示器510r和510l。OLED使能够再现眼球的弯曲表面,并且与在一对眼球由单个平板显示器形成的情况或者在两只眼睛由两个独立的平板显示器形成的情况相比,实现更加自然的外观。
如上所述,通过显示器510r和510l,能够高精度且灵活地表示如图5所示的自主操作体10的视线和情绪。此外,用户可以根据显示在显示器510上的眼睛运动直观地理解自主操作体10的状态。
以上是对根据本公开的实施例的自主操作体10的示例性硬件配置的描述。通过上述配置,能够以高精度、灵活地控制自主操作体10的关节和眼球的运动,如图6所示,从而能够获得与实际动物的运动和情绪表现类似的运动和情绪表现。图6是示出根据本公开的实施例的自主操作体10的示例性操作的示图,图6示出自主操作体10的外部结构的简化视图,以主要说明自主操作体10的关节和眼球的运动。同样,在下面的描述中,将在一些情况下简化自主操作体10的外部结构,但是根据本公开的实施例的自主操作体10的硬件配置和外观可以被适当地设计,而不限于附图中所示的示例。
<<1.3.示例性系统配置>>
接下来,对根据本公开的实施例的示例性系统配置进行描述。图7是示出根据本公开的实施例的示例性系统配置的示图。如图7所示,根据本公开的实施例的信息处理系统包括多个自主操作体10、信息处理服务器20和信息处理终端30。注意,信息处理系统中包括的各个部件经由网络40连接,使它们能够彼此通信。
(自主操作体10)
根据本公开的实施例的自主操作体10是信息处理装置,其基于所收集的传感器信息来估计状态,并且根据状态自主地选择和执行各种操作。如上所述,根据本公开的实施例的自主操作体10可以是例如具有诸如人类或狗的动物的形状并且具有操作能力的自主移动机器人。
(信息处理服务器20)
根据本公开的实施例的信息处理服务器20是连接到多个自主操作体10并且具有从自主操作体10收集各种信息的功能的信息处理装置。信息处理服务器20可以例如基于由自主操作体10收集的传感器信息来分析自主操作体10的硬件的状态,用户对自主操作体10的热情程度等。
信息处理服务器20还具有在由自主操作体10估计的情况下呈现要由自主操作体10执行的推荐动作的功能。在这种情况下,信息处理服务器20可以向自主操作体10发送用于使自主操作体10执行推荐动作的控制序列数据。
根据本公开的实施例的信息处理服务器20还控制与自主操作体10和用户之间的通信相关的应用的操作。在该应用中,信息处理服务器20例如可以动态控制反映自主操作体的状态的化身的输出表示。信息处理服务器20还具有使自主操作体10反映在上述化身上执行的用户操作的功能。利用信息处理服务器20的上述功能,可以实现自主操作体10与用户之间的通信,而不依赖于自主操作体10和用户的位置。
(信息处理终端30)
根据本公开的实施例的信息处理终端30是向用户提供与上述应用相关的用户界面的信息处理装置。根据本公开的实施例的信息处理终端30可以是例如用户所拥有的移动电话、智能电话、平板、各种可穿戴装置中的任一种、通用计算机等。
(网络40)
网络40具有连接信息处理系统中包括的各个部件的功能。网络40可以包括诸如因特网的公共线路网络;电话线路网络;和卫星通信网络;包括以太网(注册商标)的各种局域网(LAN)、广域网(WAN)等。网络40还可以包括专用线路网络,诸如互联网协议-虚拟专用网络(IP-VPN)。网络40还可以包括无线通信网络,诸如Wi-Fi(注册商标)和蓝牙(注册商标)。
以上是对根据本公开的实施例的示例性系统配置的描述。注意,上面参考图7描述的配置仅仅是示例,并且根据本公开的实施例的信息处理系统的配置不限于该示例。例如,自主操作体10还可以与信息处理服务器20以外的各种外部装置进行信息通信。上述外部装置例如可以包括发送天气、新闻和其他服务信息的服务器;用户所拥有的各种信息处理终端以及家用电器。可以根据规格和操作灵活地修改根据本公开的实施例的系统配置。
<<1.4.自主操作体10的示例性功能配置>>
接下来,对根据本公开的实施例的自主操作体10的示例性功能配置进行描述。图8是示出根据本公开的实施例的自主操作体10的示例性功能配置的示图。如图8所示,根据本公开的实施例的自主操作体10包括输入单元110、识别单元120、学习单元130、动作规划单元140、操作控制单元150、驱动单元160、输出单元170和通信单元180。
(输入单元110)
输入单元110具有收集与用户和周围环境相关的各种信息的功能。输入单元110收集例如用户的话语和用户周围产生的环境声音、与用户和周围环境相关的图像信息,以及各种传感器信息。为此,输入单元110包括图1所示的各种传感器。
(识别单元120)
识别单元120具有基于由输入单元110收集的各种信息执行与用户、周围环境和自主操作体10的状态相关的各种识别的功能。在一个示例中,识别单元120可以执行人类识别、面部表示和视线识别、对象识别、颜色识别、形状识别、标记识别、障碍物识别、步骤(step,步距)识别、亮度识别等。
识别单元120还执行与用户的语音、单词识别、声源定位等相关的情绪识别。识别单元120还可以识别用户等的接触、周围温度、运动对象的存在、自主操作体10的姿势等。
识别单元120还具有基于如上所识别的信息来估计和理解周围环境和自主操作体10当前所处的状态的功能。这样,识别单元120可以使用预先存储在其中的环境知识来全面估计状态。
(学习单元130)
学习单元130具有学习环境(状态)和动作的功能,以及动作对环境的影响。学习单元130例如使用诸如深度学习的机器学习算法来执行上述学习。注意,学习单元130采用的学习算法不限于上述示例,并且可以经适当地设计。
(动作规划单元140)
动作规划单元140具有基于由识别单元120估计出的状态和由学习单元130学习到的知识来规划由自主操作体10执行的动作的功能。稍后将详细描述根据本公开的实施例的动作规划单元140的功能。
(操作控制单元150)
操作控制单元150具有基于由动作规划单元140规划的动作控制驱动单元160和输出单元170的操作的功能。操作控制单元150基于例如上述动作规划对致动器570执行旋转控制;对显示器510执行显示控制;对扬声器执行声音输出控制等。稍后将对根据本公开的实施例的操作控制单元150的功能进行详细描述。
(驱动单元160)
驱动单元160具有在操作控制单元150的控制下使自主操作体10的多个关节弯曲和伸展的功能。更具体地,驱动单元160在操作控制单元150的控制下驱动设置在各个关节处的致动器570。
(输出单元170)
输出单元170具有在操作控制单元150的控制下输出视觉信息和音频信息的功能。因此,输出单元170包括显示器510和扬声器。
(通信单元180)
通信单元180具有与信息处理服务器20、信息处理终端30和另一自主操作体10执行信息通信的功能。例如,通信单元180将与由识别单元120等识别的状态相关的信息发送到信息处理服务器20。通信单元180还从信息处理服务器20接收例如推荐动作、与推荐动作相关的控制序列数据,以及与稍后描述的奖励相对应的数据。
以上是根据本公开的实施例的自主操作体10的示例性功能配置。注意,上面参照图8描述的配置仅仅是示例,并且根据本公开的实施例的自主操作体10的功能配置不限于该示例。根据本公开的实施例的自主操作体10的功能配置可以根据规格和操作而灵活地修改。
<<1.5.信息处理服务器20的示例性功能配置>>
接下来,对根据本公开的实施例的信息处理服务器20的示例性功能配置进行描述。图9是示出根据本公开的实施例的信息处理服务器20的示例性功能配置的示图。如图9所示,根据本公开的实施例的信息处理服务器20包括学习单元210、动作推荐单元220、分析单元230、存储单元240、应用控制单元250、反映单元260和终端通信单元270。
(学习单元210)
学习单元130具有学习环境(状态)和动作的功能,以及动作对环境的影响。在这种情况下,学习单元210一般基于从多个自主操作体10收集的动作历史来执行学习。换言之,学习单元210可以被视为由多个自主操作体10共享的集体智能。
(动作推荐单元220)
动作推荐单元220具有以下功能:基于从自主操作体10接收到的与估计出的状态相关的信息,以及学习单元210作为集体智能而保持的知识,确定向自主操作体10推荐的动作。此外,动作推荐单元220的特征之一是经由终端通信单元270向自主操作体发送用于使自主操作体10执行推荐动作的推荐动作和控制序列数据。
这里,上述控制序列数据是包括与自主操作体10的关节的旋转位置的随时间的变化、眼球表示和声音输出相关的控制信号的信息。即,控制序列数据可以被视为用于使自主操作体10执行期望操作(动作)的设置数据。
利用根据本公开的实施例的动作推荐单元220的上述功能,可以随时增加可以由自主操作体10执行的新动作,可以持续维持用户对自主操作体10的兴趣等。
(分析单元230)
分析单元230具有基于从自主操作体10接收的信息执行各种分析的功能。例如,分析单元230可以基于从自主操作体10接收的动作历史和操作状态来分析致动器570等的状态。分析单元230还可以基于从自主操作体10接收的关于用户的接触和反应的信息等来分析用户对自主操作体10等的兴趣(热情)。
(存储单元240)
存储单元240具有累积将由信息处理服务器20的各个部件使用的信息的功能。存储单元240存储从自主操作体10接收的与例如状态和用户反应相关联的控制序列数据。存储单元240还存储分析单元230在执行分析时要使用的信息和分析结果。存储单元240还存储与稍后描述的应用和奖励相关的各种数据。
(应用控制单元250)
应用控制单元250控制与自主操作体10和用户之间的通信相关的应用的操作。例如,应用控制单元250在应用中控制模仿自主操作体10的化身的操作和输出表示。这样,应用控制单元250可以执行反映自主操作体10的操作条件和情绪的输出控制。下面将详细描述应用控制单元250的功能。
(反映单元260)
反映单元260具有使自主操作体10在应用中反映用户操作的功能。例如,反映单元260可以使自主操作体1 0反映由化身基于由用户执行的操作而获取的奖励。下面将对反映单元260的功能进行详细描述。
(终端通信单元270)
终端通信单元270具有经由网络40与多个自主操作体10执行信息通信的功能。终端通信单元270例如从自主操作体10接收与估计的状态相关的信息。终端通信单元270例如还将与由动作推荐单元220确定的推荐动作相关的信息和控制序列数据发送到自主操作体10。
在反映单元260的控制下,终端通信单元270还向自主操作体10发送用于使自主操作体10反映用户在应用中作出的设置和由化身获取的奖励的各种控制信号。
以上是对根据本公开的实施例的信息处理服务器20的示例性功能配置的描述。注意,上面参考图9描述的配置仅仅是示例,并且根据本公开的实施例的信息处理服务器20的功能配置不限于该示例。例如,信息处理服务器20的各种功能可以分散在多个装置上。根据本公开的实施例的信息处理服务器20的功能配置可以根据规格和操作而被灵活地修改。
<<1.6.信息处理终端30的示例性功能配置>>
接下来,对根据本公开的实施例的信息处理终端30的示例性功能配置进行描述。图10是示出根据本公开的实施例的信息处理终端30的示例性功能配置的示图。如图10所示,根据本公开的实施例的信息处理终端30包括输入单元310、显示单元320、声音输出单元330、控制单元340和通信单元350。
(输入单元310)
输入单元310具有检测用户执行的输入操作的功能。因此,输入单元310包括键盘、触摸面板、各种按钮等。输入单元310还可以包括检测用户的语音输入的麦克风等。输入单元310还可以包括捕获用户等的图像的成像装置。
(显示单元320)
显示单元320具有向用户呈现各种视觉信息的功能。例如,显示单元320在信息处理服务器20的控制下显示与上述应用相关的用户界面。为此,显示单元320包括各种显示装置。
(声音输出单元330)
声音输出单元330具有输出各种声音的功能。例如,声音输出单元330在信息处理服务器20的控制下输出与上述应用相关的各种声音。为此,声音输出单元330包括扬声器、放大器等。
(控制单元340)
控制单元340综合控制包括在信息处理终端30中的各个部件。例如,控制单元340可以控制每个部件的激活和暂停。控制单元340还具有将信息处理服务器20产生的各种控制信号传送至显示单元320和声音输出单元330的功能。控制单元340还可以具有与信息处理服务器20的应用控制单元250和反映单元260等效的功能。
(通信单元350)
通信单元350经由网络40与信息处理服务器20和自主操作体10执行信息通信。例如,通信单元350从信息处理服务器20接收与应用相关的控制信号和与下面描述的奖励相关的数据。例如,通信单元350还将与由输入单元310检测到的用户操作相关的信息发送到信息处理服务器20。
以上是对根据本公开的实施例的信息处理终端30的示例性功能配置的描述。注意,上面参考图10描述的功能配置仅仅是示例,并且根据本公开的实施例的信息处理终端30的功能配置不限于该示例。例如,如上所述,信息处理终端30可以具有与信息处理服务器20的应用控制单元250和反映单元260等效的功能。可以根据规格和操作而灵活地修改根据本公开的实施例的信息处理终端30的功能配置。
<2.第一实施例>
<<2.1.概述>>
接下来,对本公开的第一实施例进行描述。如上所述,根据本公开的实施例的自主操作体10包括表示多个关节和眼球的运动的显示器510,因此能够执行各种操作。即使当用户缺席时,也可以执行如上所述的这种自主操作。
然而,通常,仅在两者共享相同的物理空间的情况下,用户才能感测自主操作体10的操作并且与自主操作体10通信。为此,例如在用户倾向于离家上班或上学的情况下,用户既不能知晓日常多个小时的自主操作体10的动作,也不能与自主操作体10进行通信。
在这种情况下,假设用户不能充分享受拥有自主操作体10的优点,并且作为由于用户缺席而导致的间歇通信的结果,用户可能逐渐失去对自主操作体10的兴趣。
为了克服上述问题,用户例如可以从离家以外的地方等远程监视自主操作体10的状态。然而,在这种情况下,用户几乎不享受与自主操作体10的交互通信,同时能够知道自主操作体10的状态。
因此,根据本公开的第一实施例的信息处理服务器20向用户提供能够在自主操作体10与用户之间进行交互通信的应用,以解决上述问题。
例如,根据本实施例的信息处理服务器20可以控制模仿用户在上述应用中拥有的自主操作体10的化身的操作。这样,根据本实施例的信息处理服务器20可以使化身的输出表示反映自主操作体10的当前状态。上述状态例如包括由自主操作体10执行的自主操作、自主操作体10的情绪等。
利用根据本实施例的信息处理服务器20的上述功能,用户即使从家外也能够知道自主操作体10的当前状态,并且能够获得与自主操作体10等在一起的感觉。因此,能够期待维持用户对自主操作体10的兴趣的效果。
此外,根据本实施例的信息处理服务器20的特征之一是使自主操作体10反映用户对化身执行的操作的功能。信息处理服务器20可以提供用于实现例如化身和用户之间的通信的游戏内容。这样,信息处理服务器20可以基于用户在游戏内容中对化身执行的操作给予奖励,并且使自主操作体10反映该奖励。
例如,在上述游戏内容中,用户能够在化身上执行各种与通信相关的操作,诸如触摸、点击以及与诸如球的玩具一起游戏。在这种情况下,根据本实施例的信息处理服务器20基于通信强度已经超过预定值的事实给予奖励,并且使化身和自主操作体10反映该奖励。这里,上述奖励例如可以是与自主操作体10的外观或声音,自主操作体10可以执行的新操作等相关的变化。
即,通过加深与应用中的化身的通信,用户可以享受作为自主操作体10的功能增强的通信结果。利用根据本实施例的信息处理服务器20的上述功能,即使从家外等,用户也可以继续与自主操作体10进行交互通信。因此,可以维持用户对自主操作体10的兴趣,并且始终满足用户对自主操作体10的期望。
<<2.2.应用的细节>>
在下面的描述中,参照具体示例详细描述根据本实施例的应用的功能。如上所述,根据本实施例的应用包括使能够在模仿自主操作体10的化身与用户之间进行通信的游戏内容。
另一方面,根据本实施例的应用的功能不限于示例。根据本实施例的应用广泛地涵盖用于允许用户知道自主操作体10的状态的功能和用于使自主操作体10反映由用户做出的设置的功能。
根据本实施例的应用还可以具有用于将来自自主操作体10的分配器的通知呈现给用户的功能,以及激活用户之间的通信的功能。根据本实施例的应用可以是包括用于增强拥有自主操作体10的用户的便利性的各种功能的综合应用。
首先,对根据本实施例的应用的主屏幕进行描述。图11和图12是示出根据本实施例的应用的主屏幕的示例的示图。如图11和图12所示,根据本实施例,在主屏幕上显示模仿用户所拥有的自主操作体10的化身AV。
应用控制单元250可以使屏幕显示例如是模仿用户所拥有的自主操作体10的外观、语音(吠叫)等的3D模型的化身AV。这里,上述外观诸如包括眼球(瞳孔、虹膜等)等颜色和自主操作体10的身体颜色。
根据本实施例的应用控制单元250还可以基于自主操作体10的状态来控制与化身AV相关的输出表示。上述输出表示可以包括操作显示、颜色表示、音频输出等。例如,应用控制单元250可以使化身AV的操作显示反映由自主操作体10执行的动作。
例如,在图11所示的示例性情况下,应用控制单元250可以基于自主操作体10正在躺下的事实使屏幕显示躺下的化身AV。另外,在图12所示的示例性情况下,应用控制单元250可以例如基于进行充电的自主操作体10的事实,使屏幕在充电站CS上显示正在充电的化身AV。
除了上述示例之外,应用控制单元250可以使应用中的化身AV反映由自主操作体10执行的各种操作,诸如坐、走和平躺。
根据本实施例的应用控制单元250还可以使化身的输出表示反映自主操作体10的情绪。在图11和图12所示的示例性情况下,应用控制单元250基于自主操作体10的当前情绪来设置主屏幕上的背景BG的颜色。
图13是表示根据本实施例的自主操作体10的情绪的颜色的示例。如图13所示,根据本实施例的自主操作体10的情绪可以用各种预定颜色来表示,诸如,粉色表示喜爱;黄色表示快乐。此外,例如,可以通过颜色的色调来表示每种情绪的强度。在两种或更多种情绪共存的情况下,通过两种或更多种对应颜色的渐变等来表示情绪。
如上所述,利用根据本实施例的应用控制单元250,不仅可以控制自主操作体10的操作,还可以控制反映包括情绪在内的各种状态的化身AV的输出表示。利用根据本实施例的应用控制单元250的上述功能,用户即使从家外也能够知道自主操作体10的状态,并且能够始终具有与自主操作体10在一起的感觉。
返回参考图11和图12,继续说明应用的屏幕配置。如图11和图12所示,根据本实施例,可以在应用的主屏幕上显示按钮b11到b13。
例如,按钮b11可以是到应用菜单的链接。图14是根据本实施例的应用菜单屏幕的示例。如图14所示,根据本实施例的应用菜单包括宠物(自主操作体10)注册、教程、帮助指南、支持、拥有者(用户)信息、商店、粉丝页面、登出和应用概述信息等。
上述的宠物注册可以是用于将用户所拥有的自主操作体10链接到应用的功能。通过宠物注册设置用户自主操作体10的信息,用户可以将应用链接到自主操作体10。注意,用户可以将多个自主操作体10链接到应用。在这种情况下,例如在主屏幕上显示多个化身AV。用户选择期望的化身AV,以使用链接到相应的自主操作体10的功能。
同时,上述商店可以包括在线商店,从该在线商店可以购买与自主操作体10的功能增强相关的选项。用户可以通过例如从商店购买自主操作体10的外观、语音(吠叫)、新操作等选项来增强自主操作体10的功能。
此外,上述粉丝页可以包括用于拥有自主操作体10的用户相互通信的站点。通过粉丝页,用户可以交换与自主操作体10相关的信息,或者交换他们已经教导自主操作体10的动作。
同时,主屏幕上的按钮b12可以是到显示来自自主操作体10的分配器通知的通知屏幕的链接。图15是根据本实施例的通知屏幕的示例。如图15所示,通知屏幕例如显示关于自主操作体10的系统更新的信息、各种活动信息等。用户可以通过点击各个显示信息等来获得详细信息。
此外,主屏幕上的按钮b13可以是到由应用提供的内容列表屏幕的链接。图16是根据本实施例的内容列表屏幕的示例。如图16所示,根据本实施例的内容列表屏幕的顶部显示自主操作体10的诸如图标、名称、性别、出生日期、个性等基本信息。
如图所示,也可以在内容列表屏幕上显示指示网络连接状态和自主操作体10的剩余电池电平的示图标I1和I2。通过可视地检查图标I1和I2,用户可以直观地知道网络连接状态和自主操作体10的剩余电池电量。
此外,根据本实施例,在内容列表屏幕上显示链接到由应用提供的内容的多个按钮。例如,按钮b21是到设置内容的链接,而按钮b22是到外观变化内容的链接。此外,按钮b23是到照片内容的链接,而按钮b24是到身体状态检查内容的链接。同时,根据本实施例,按钮b25是到游戏内容的链接。此外,按钮b26是到主屏幕的链接。
图17是根据本实施例的设置内容屏幕的示例。如图17所示,例如,可以在根据本实施例的设置内容中设置自主操作体10的语音(吠叫)的音量。用户可以根据偏好和情况改变自主操作体10的语音音量或将自主操作体10静音。
还可以在根据本实施例的设置内容中做出用于自主操作体10的网络设置。在屏幕上,用户设置自主操作体10待连接到的Wi-Fi等的信息。
此外,可以在根据本实施例的设置内容中设置是否允许自主操作体10拍摄照片。根据本实施例的自主操作体10能够自动地拍摄自主操作体10感兴趣的人、对象等的照片,或根据来自用户的指令拍摄照片。在屏幕上,用户可以如上所述地设置是否允许自主操作体10执行拍摄。
还可以在根据本实施例的设置内容中进行与系统更新相关的设置。例如,用户可以设置是自动地还是手动地执行系统更新。
也可以在根据本实施例的设置内容中设置自主操作体10的名称和性别。自主操作体10可以通过执行设置名称的语音识别来感测用户对自身的呼叫等。同时,性别影响自主操作体10可以执行的标记行为等。
根据本实施例,还可以在设置内容中设置自主操作体10在语音识别中使用的语言等。自主操作体10可以根据所设置的语言来选择要用于语音识别的词典。
自主操作体10等的初始化也可以在根据本实施例的设置内容中执行。
接下来,对根据本实施例的外观变化内容进行描述。图18是根据本实施例的外观变化内容屏幕的示例。如图18所示,根据本实施例,可以在外观变化内容中改变与自主操作体10的外观或语音(吠叫)相关的设置。这里,上述外观可以包括与眼球相关的颜色表示,诸如瞳孔或虹膜。用户可以从可以设置的变化中选择自主操作体10的颜色表示或吠叫语音,并且使自主操作体10反映所选择的颜色表示或吠叫语音。
可以由自主操作体10执行的自主操作的模式也可以被新增加到根据本实施例等的外观变化内容中。例如,可以设置的变化和可以增加到外观变化内容中的新操作随着在商店购买、当前分配、稍后描述的奖励获取等而增加。
图19是根据本实施例的用于眼球的颜色表示的外观变化屏幕的示例。在屏幕上,可以将自主操作体10的当前眼球(瞳孔、虹膜等)的颜色表示的设置以及可以改变的颜色表示的变化显示为列表,如图所示。
用户可以检查显示的变化列表,并且选择期望的颜色,以改变自主操作体10的眼球的颜色表示。在此阶段,反映单元260使自主操作体10基于用户的操作来反映所选择的颜色表示。
图20是用于说明由根据本实施例的反映单元260引起的设置的反映的示图。图20的左侧示出用户进行外观变化设置前的自主操作体10的头部,图20的右侧示出用户进行外观变化设置后的自主操作体10的头部。
这里,如从右图像和左图像之间的比较可以看出的,通过用户进行外观变化设置,改变了在显示器510上显示的眼球的颜色表示和吠叫语音。在外观变化设置之后,还增加了倾斜头部和抬起一只耳朵的新操作。以这种方式,根据本实施例的反映单元260可以使自主操作体10基于用户做出的外观变化设置来反映相应的外观、语音和新操作。应用控制单元250还可以使化身AV的输出表示反映如上所述的外观变化设置。
以这种方式,利用根据本实施例的应用,用户可以根据偏好、情绪等容易地改变自主操作体10的外观和语音,并且增加新操作。因此,获得了保持改变的自主操作体10,并且可以预期维持用户对自主操作体10的兴趣而不使用户厌烦的效果。
接下来,对根据本实施例的照片内容进行描述。图21是根据本实施例的照片内容屏幕的示例。如上所述,根据本实施例的自主操作体10可以根据其自身兴趣自主地拍照,或者根据来自用户的指令拍照。在根据本实施例的照片内容中,可以检查由如上所述的自主操作体10捕获的图像。
如图21左侧所示,根据本实施例的照片内容屏幕可以按时间顺序等显示由自主操作体10捕获的图像的列表。此外,用户可以选择期望的照片,使屏幕切换到照片的细节屏幕,如图21的右侧所示。
除了照片的放大图像之外,照片的细节屏幕还显示诸如拍摄日期的基本信息。注意,由自主操作体10自主捕获的图像可以与在图像捕获等时自主操作体10的情绪相关联,然后被显示。用户还可以点击细节屏幕等上示出的每个按钮,删除照片,在粉丝页面或其他应用中共享照片、下载照片等。
注意,在图21中,示出由自主操作体10捕获的图像,其与利用具有大视角的镜头捕获的图像相同。然而,根据本实施例的自主操作体10中包括的照相机是广角照相机,因此,由自主操作体10捕获的图像实际上是具有宽视角和畸变的图像。
用户还可以下载具有如上所述的畸变的图像而没有任何变化,或者可以在下载照片之前校正图像的畸变并且将图像处理为全景图像(对应于图21中的可移动照片)。
如上所述,利用根据本实施例的应用,用户可以容易地参考由自主操作体10捕获的图像,并且用户可以知道内部信息,诸如在拍摄时自主操作体10感兴趣的。
接下来,对根据本实施例的身体状态检查内容进行描述。图22是根据本实施例的身体状态检查内容屏幕的示例。根据本实施例的身体状态检查内容是用于检查自主操作体10的操作状态的内容。
如图22所示,例如,可以在根据本实施例的身体状态检查内容中检查电池状态、网络状态、错误信息、操作时间等。上述电池状态可以包括例如剩余电池电平的细节、充满电所需的时间、关于电池劣化和更换的细节的信息等。
同时,上述网络状态可以包括关于自主操作体10所连接的Wi-Fi的详细信息和通信历史等。
此外,上述错误信息可以包括与包括在自主操作体10中的部件(诸如致动器570)相关的各种错误信息和日志信息。
此外,上述操作时间可以包括自主操作体10的总操作时间和各个日操作时间的历史等。
此外,虽然图中未示出,但是可以在根据本实施例的身体状态检查内容中检查自主操作体10的情绪转变、对用户的情感变化等。
如上所述,利用根据本实施例的身体状态检查内容,用户可以容易地检查关于自主操作体10的内部信息。对于不具有任何使用语言的通信装置的装置,如根据本实施例的自主操作体10,该功能非常有效。
接下来,对根据本实施例的游戏内容进行描述。如上所述,在根据本实施例的游戏内容中,用户可以与模仿自主操作体10的化身AV执行各种通信,并获得与该通信相对应的奖励。图23是根据本实施例的游戏内容屏幕的示例。
如图23所示,在根据本实施例的游戏内容中,模拟自主操作体10的化身AV被显示在主屏幕上。应用控制单元250例如在显示诸如家具等虚拟对象VO的虚拟客厅VH中,使画面显示反映自主操作体10的外观、语音等的化身AV。注意,在用户不执行任何操作的情况下,应用控制单元250可以控制与自主操作体10的实际运动相链接的化身AV的输出表示,或者可以使化身AV执行从诸如四脚站立、坐下、躺下和行走的模式中选择的动作。
此外,在根据本实施例的游戏内容屏幕上显示用于返回主屏幕的按钮b31,作为与用于说明如何玩游戏内容的说明屏幕的链接的按钮b32等。图24是根据本实施例的游戏内容说明屏幕的示例。如图24所示,用户可以通过对所显示的化身AV执行诸如触摸、点击或投掷球或骨形玩具等操作来加深与化身AV的通信。
如图23所示,游戏内容屏幕的下部显示对应于球形玩具T1和骨形玩具T2的虚拟对象,屏幕的上部显示对应于各种通信的仪表M,诸如使用球形玩具T1或骨形玩具T2的触摸、点击和游戏。仪表M表示与通信类型对应的强度,例如随着用户进行的轻敲(触摸)操作的次数等增加而变高。这里,在仪表M达到上限值的情况下,应用控制单元250给予与通信类型对应的奖励,反映单元260使自主操作体10反映奖励的内容。
根据本实施例的应用控制单元250还可以使化身AV执行与用户操作相对应的各种反应。例如,在执行触摸(轻敲)操作的情况下,应用控制单元250可以使化身AV执行诸如吠叫、摇尾、卷背、抓头、击掌或乞讨的动作。
此外,在执行点击(轻弹)操作的情况下,应用控制单元250可以使化身AV执行诸如抬头和摇动身体、亲吻和翻身(露出腹部)等动作。
这同样适用于使用虚拟对象诸如球形玩具T1或骨形玩具T2进行游戏。图25是用于说明自主操作体10和用户之间经由根据本实施例的球形玩具T1的交互的示图。
如图25所示,在根据本实施例的游戏内容中,用户可以通过轻弹显示在屏幕下部的球形玩具T1来将球形玩具T1投向化身AV。
在此阶段,应用控制单元250根据例如物理定律控制球形玩具T1的操作显示,并且使化身AV对球形玩具T1做出反应。应用控制单元250可以使化身AV执行动作,诸如闻;用鼻尖向右或向左或向前推动球形玩具T1;将一个前脚放在球形玩具T1上;用两只前脚按住球形玩具T1并且咬住它;或者例如向右或向左或向前踢球形玩具T1。根据本实施例的应用控制单元250还可以使屏幕显示与情绪表示相关的效果E1作为一个反应,如图25所示。
此外,图26是用于说明自主操作体10和用户之间经由根据本实施例的骨形玩具T2的交互的示图。与球形玩具T1一样,用户可以通过轻弹显示在屏幕下部的骨形玩具T2来将骨形玩具T2投掷向化身AV。
在此阶段,应用控制单元250根据例如物理定律控制骨形玩具T2的操作显示,并且使化身AV对骨形玩具T2作出反应。
应用控制单元250可以使化身AV执行动作,诸如嗅闻骨形玩具T2;用鼻尖向右或向左或向前推动骨形玩具T2;站立骨形玩具T2;敲落骨形玩具T2;将骨形玩具T2保持在嘴里,例如,在将骨形玩具T2保持在嘴里的同时摇动骨形玩具T2;或者上下抬起骨形玩具T2。
如上所述,在根据本实施例的游戏内容中,用户可以与模仿自主操作体10的化身AV执行各种通信。此外,如上所述,在各种通信中的一种的强度(例如,用户已经执行操作的次数,或者化身AV已经执行反应的次数)已经达到预定值的情况下,应用控制单元250可以给出与通信类型相对应的奖励。
图27是根据本实施例的奖励获取弹出窗口的示例。在各种通信中的一种通信的强度由于用户执行的操作而已经达到预定值的情况下,即仪表M已经达到其最大值的情况下,应用控制单元250使游戏内容在其中显示弹出屏幕,如图27所示。在图27所示的示例性情况下,应用控制单元250给出新行为作为奖励,该新行为是自主操作体10可以执行的新操作,并且使屏幕显示已经获得奖励的效果的通知。
如上所述,根据本实施例的奖励例如可以是与自主操作体10的功能增强相关的奖励。上述功能增强可以是增加自主操作体10能够执行的如图27所示的新操作,但也可以是增加诸如眼球的颜色表示的外观变化、增加自主操作体10的语音(吠叫)的变化等。
此外,根据本实施例的应用控制单元250可以使屏幕显示如图27所示的弹出屏幕,并且使化身AV的输出表示反映给定奖励。应用控制单元250可以使化身AV执行作为奖励给出的新操作,或者可以使化身AV的输出表示反映作为奖励给出的外观或语音的新变化。利用根据本实施例的应用控制单元250的上述功能,用户可以在可视地识别每次新获取的奖励,并且根据用户的偏好进行外观变化设置。
同时,根据本实施例的反映单元260使自主操作体10反映新获取的奖励,该奖励是新操作的增加或外观或语音变化的增加。在奖励是新操作的情况下,根据本实施例的反映单元260还经由终端通信单元270将用于使自主操作体10执行新操作的控制序列数据发送到自主操作体10。
如上所述,利用根据本实施例的游戏内容,用户甚至可以从家外与模仿自主操作体10的化身AV进行通信,以获得与功能增强相关的奖励,并且使自主操作体10反映该奖励。
以上是对根据本实施例的游戏内容的示例的描述。注意,以上描述仅仅是示例,并且根据本实施例的游戏内容不限于该示例。
例如,用户操作不一定是用户在输入单元310上执行的输入操作。根据本实施例的用户操作例如可以是语音输入。换言之,用户能够通过语音与化身AV通信。
此外,在以上描述中,应用控制单元250使化身AV执行与用户执行的操作相对应的各种操作。然而,这样的操作可以是自主操作体10仍然不能执行的未获取的操作。在这种情况下,根据本实施例的应用控制单元250对化身AV已经执行每个获取的操作的次数等进行计数。在次数超过阈值的情况下,应用控制单元250可以给予未获取的操作作为奖励。
此外,根据本实施例的应用控制单元250可以根据来自用户的反馈来选择奖励。例如,应用控制单元250可以使化身AV随机地执行多个未获取的操作,并且选择用户对其示出良好反应的未获取的操作作为奖励。注意,可以基于例如由输入单元310检测到的用户的话语、用户的面部图像等来分析用户的反应。
用户还能够经由输入单元310使化身AV和自主操作体10执行与新对象的识别相关的学习。例如,用户在经由输入单元310中包括的成像装置向化身AV示出对象的同时说出与该对象相对应的名称等。在此阶段,信息处理服务器20可以将对象的图像与语音识别结果相关联,并且将该图像附加地注册在自主操作体10中包括的对象识别词典中。利用根据本实施例的信息处理服务器20,可以执行连续通信,使在用户回家之后,自主操作体10记住例如用户从家外教导化身AV的内容。
此外,在上述示例性情况下,应用控制单元250使包括在信息处理终端30中的显示装置等显示用户界面。然而,根据本实施例的显示控制不限于该示例。根据本实施例的应用控制单元250还可以通过例如增强现实(AR)技术、虚拟现实(VR)技术、混合现实(MR)技术等对化身AV执行显示控制。
<<2.3.控制流程>>
接下来,对将由根据本实施例的信息处理服务器执行的控制流程进行详细描述。首先,对将由根据本实施例的信息处理服务器20执行的外观变化设置控制流程进行描述。图28是示出将由根据本实施例的信息处理服务器20执行的外观变化设置控制流程的流程图。
如图28所示,首先,终端通信单元270获取关于自主操作体10的状态的信息(S1101)。
然后,应用控制单元250根据在步骤S1101中获取的状态连续地执行对应用的操作控制,包括对化身的输出表示的控制(S1102)。
这里,如果用户进行了外观变化设置(S1103:是),则反映单元260执行使自主操作体10反映所选择的设置的过程。
这里,如果外观变化设置是增加行为,其为新操作(S1104:是)的情况下,反映单元260经由终端通信单元270将用于使自主操作体10执行新操作的控制序列数据发送到自主操作体10(S1105)。
另一方面,如果外观变化设置是与外观或语音变化相关的设置(S1104:否)的情况下,反映单元260使自主操作体10反映所选择的设置(S1106)。
信息处理服务器20反复执行从步骤S1101开始的过程,直到执行应用结束操作(S1107:是)。
接下来,对根据本实施例的游戏内容控制流程进行详细描述。图29是示出将由根据本实施例的信息处理服务器20执行的游戏内容控制流程的流程图。
如图20所示,首先,终端通信单元270获取关于自主操作体10的状态的信息(S1201)。
然后,应用控制单元250基于在步骤S1201中获取的信息连续地对游戏内容执行操作控制(S1202)。
这里,如果用户对化身执行了操作(S1203:是)的形况下,应用控制单元250将一个点增加到对应于该操作的通信类型(S1204)。
这里,如果上述点超过预定值(S1205:是)的情况下,应用控制单元250根据通信类型使屏幕显示与奖励获取相关的通知(S1206),并且还使化身反映奖励的内容(S1207)。
反映单元260还使自主操作体10反映与获取的奖励相对应的功能增强设置(S1208)。
信息处理服务器20反复执行从步骤S1201开始的过程,直到执行游戏内容结束操作(S1209:是)。
<3.示例性硬件配置>
接下来,对根据本公开的实施例的信息处理服务器20和信息处理终端30共同的示例性硬件配置进行描述。
图30是示出根据本公开的实施例的信息处理服务器20和信息处理终端30的示例性硬件配置的示例的框图。如图30所示,信息处理服务器20和信息处理终端30包括CPU871、ROM 872、RAM 873、主机总线874、桥接器875、外部总线876、接口877、输入装置878、输出装置879、存储器880、驱动器881、连接端口882和通信装置883。例如。注意,这里示出的硬件配置是示例,并且可以省略一些部件。此外,还可以包括除了本文所示的部件之外的部件。
(CPU 871)
CPU 871例如用作运算处理单元或控制装置,并且基于记录在ROM872、RAM 873、存储器880或可移动记录介质901中的各种程序来控制每个部件或其部分的整体操作。
(ROM 872和RAM 873)
ROM 872是存储CPU 871待读取的程序、计算待使用的数据等的装置。RAM 873例如临时地或永久地存储CPU 871待读取的程序,在执行程序时适当地改变的各种参数等。
(主机总线874、桥接器875、外部总线876和接口877)
CPU 871、ROM 872和RAM 873例如经由能够高速数据传送的主机总线874彼此连接。同时,主机总线874例如经由桥接器875连接到具有相对低的数据传送速率的外部总线876。外部总线876还经由接口877与各种部件连接。
(输入装置878)
输入装置878例如由鼠标、键盘、触摸面板、按钮、开关、杆等形成。此外,输入装置878可以形成有能够使用红外线或其他无线电波传送控制信号的遥控器。输入装置878还包括声音输入装置,诸如麦克风。
(输出装置879)
输出装置879例如是诸如阴极射线管(CRT)、LCD或有机EL的显示装置;诸如扬声器或耳机的音频输出装置;或者能够可视地或可听地通知用户获取的信息的装置,诸如打印机、移动电话或传真机。根据本公开的输出装置879还包括能够输出触觉刺激的各种振动装置中的任何一种。
(存储器880)
存储器880是存储各种数据的装置。存储器880例如可以是诸如硬盘驱动器(HDD)、半导体存储装置、光存储装置、磁光存储装置等的磁存储装置。
(驱动器881)
驱动器881是读取记录在诸如磁盘、光盘、磁光盘或半导体存储器等可移动记录介质901上的信息,或在可移动记录介质901上写入信息的装置。
(可移动记录介质901)
例如,可移动记录介质901是DVD介质、蓝光(注册商标)介质、HD DVD介质、各种半导体存储介质中的任何一种等。可移动记录介质901当然可以是例如其上安装有非接触IC芯片的IC卡、电子装置等。
(连接端口882)
例如,连接端口882是用于连接外部连接装置902的端口,诸如通用串行总线(USB)端口、IEEE1394端口、小型计算机系统接口(SCSI)、RS-232C端口或光音频终端。
(外部连接装置902)
例如,外部连接装置902是打印机、便携式音乐游戏器、数码照相机、数码摄像机、IC记录器等。
(通信装置883)
例如,通信装置883是用于连接到网络的通信装置,诸如有线或无线LAN、蓝牙(注册商标)、用于无线USB(WUSB)的通信卡、用于光通信的路由器、用于非对称数字用户线(ADSL)的路由器、用于各种通信的调制解调器等。
<4.总结>
如上所述,根据本公开的实施例的信息处理服务器20包括:应用控制单元250,其控制与自主操作体10和用户之间的通信相关的应用的操作;以及反映单元260,其使自主操作体反映用户在应用中执行的操作。此外,根据本公开的实施例的应用控制单元250的特征之一是控制模仿自主操作体10的化身的操作,并且反映单元260使自主操作体反映由化身根据用户的操作获取的奖励。通过这样的配置,能够使自主操作体与用户之间的通信更加活跃。
虽然上面已经参照附图描述了本公开的优选实施例,但是本公开的技术范围不限于这些示例。显然,本公开的技术领域的普通技术人员可以在本文要求保护的技术精神的范围内做出各种改变或修改,并且应当理解,那些改变或修改在本公开的技术范围内。
此外,本说明书中公开的效果仅仅是说明性的或示例性的,而不是限制性的。即,除了上述效果之外或代替上述效果,根据本公开的技术可以实现对本领域技术人员从本说明书的描述显而易见的其他效果。
还可以创建用于使计算机中的诸如CPU、ROM和RAM等硬件具有与自主操作体10和信息处理服务器20的部件的功能等同的功能的程序,并且提供存储该程序的计算机可读非暂时性记录介质。
此外,与本公开中的自主操作体10和信息处理服务器20待执行的过程相关的各个步骤不必按照流程图中所示的顺序按时间顺序执行。例如,关于由自主操作体10和信息处理服务器20执行的过程的各个步骤可以以与流程图中所示的顺序不同的顺序执行,或者可以并行执行。
注意,下面描述的配置也在本公开的技术范围内。
(1)一种信息处理装置,包括:
应用控制单元,其控制与自主操作体和用户之间的通信相关的应用的操作;以及
反映单元,其使自主操作体反映由用户在应用中执行的操作,其中
应用控制单元控制模仿自主操作体的化身的操作,以及
反映单元,其使自主操作体基于由用户执行的操作来反映化身获取的奖励。
(2)根据(1)所述的信息处理装置,其中
奖励包括自主操作体的功能增强。
(3)根据(2)所述的信息处理装置,其中
功能增强包括增加自主操作体能够执行的新操作。
(4)根据(3)所述的信息处理装置,其中
反映单元使控制序列数据传送至自主操作体,控制序列数据用于使自主操作体执行新操作。
(5)根据(2)至(4)中任一项所述的信息处理装置,其中
功能增强包括增加与自主操作体的外观相关的变化。
(6)根据(5)所述的信息处理装置,其中
与外观相关的变化至少包括颜色表示。
(7)根据(2)至(6)中任一项所述的信息处理装置,其中
功能增强包括增加与自主操作体的语音相关的变化。
(8)根据(1)至(7)中任一项所述的信息处理装置,其中
应用控制单元基于自主操作体的状态来控制与化身相关的输出表示。
(9)根据(1)至(8)中任一项所述的信息处理装置,其中
应用控制单元使化身的输出表示反映自主操作体正在执行的操作。
(10)根据(1)至(9)中任一项所述的信息处理装置,其中
应用控制单元使化身的输出表示反映自主操作体的情绪。
(11)根据(9)或(10)所述的信息处理装置,其中
输出表示包括操作显示、颜色表示,或语音输出中的至少一个。
(12)根据(1)至(11)中任一项所述的信息处理装置,其中
应用控制单元使化身的输出表示反映由化身获取的奖励。
(13)根据(1)至(12)中任一项所述的信息处理装置,其中
应用控制单元控制与化身和用户之间的通信相关的游戏内容的操作,以及
应用控制单元基于与游戏中的用户的通信强度给予奖励。
(14)根据(13)所述的信息处理装置,其中
游戏中的通信包括与化身的接触,或经由虚拟对象与化身的交互。
(15)一种由处理器实现的信息处理方法,
该信息处理方法包括:
控制与自主操作体和用户之间的通信相关的应用的操作;以及
使自主操作体反映由用户在应用中执行的操作,其中
该控制还包括控制模仿自主操作体的化身的操作,以及
该使还包括使自主操作体基于由用户执行的操作来反映由化身获取的奖励。
(16)一种用于使计算机用作信息处理装置的程序,包括:
应用控制单元,其控制与自主操作体和用户之间的通信相关的应用的操作;以及
反映单元,其使自主操作体反映由用户在应用中执行的操作,其中
应用控制单元控制模仿自主操作体的化身的操作,以及
反映单元,其使自主操作体基于由用户执行的操作来反映化身获取的奖励。
参考符号列表
10自主操作体
110输入单元
120识别单元
130学习单元
140动作规划单元
150操作控制单元
160驱动单元
170输出单元
510显示器
570致动器
20信息处理服务器
210学习单元
220动作推荐单元
230分析单元
240存储单元
250应用控制单元
260反映单元
270终端通信单元
30信息处理终端。
Claims (16)
1. 一种信息处理装置,包括:
应用控制单元,所述应用控制单元控制与自主操作体和用户之间的通信相关的应用的操作;以及
反映单元,所述反映单元使所述自主操作体反映在所述应用中由所述用户执行的操作,其中
所述应用控制单元控制模仿所述自主操作体的化身的操作,并且
所述反映单元使所述自主操作体反映由所述化身基于由所述用户执行的所述操作而获取的奖励;
其中,基于所述自主操作体的两种或更多种情绪的共存,所述应用控制单元将所述应用的屏幕的背景的颜色设置为多种颜色中的两种或更多种颜色的渐变;其中,所述多种颜色的每种颜色与不同情绪相关联,以及
所述两种或更多种颜色对应于所述自主操作体的所述两种或更多种情绪。
2.根据权利要求1所述的信息处理装置,其中
所述奖励包括所述自主操作体的功能增强。
3.根据权利要求2所述的信息处理装置,其中
所述功能增强包括增加所述自主操作体能够执行的新操作。
4.根据权利要求3所述的信息处理装置,其中
所述反映单元使控制序列数据传送至所述自主操作体,所述控制序列数据被用于使所述自主操作体执行所述新操作。
5.根据权利要求2所述的信息处理装置,其中
所述功能增强包括与所述自主操作体的外观相关的变化的增加。
6.根据权利要求5所述的信息处理装置,其中
与所述外观相关的变化至少包括颜色表示。
7.根据权利要求2所述的信息处理装置,其中
所述功能增强包括与所述自主操作体的语音相关的变化的增加。
8.根据权利要求1所述的信息处理装置,其中
所述应用控制单元基于所述自主操作体的状态来控制与所述化身相关的输出表示。
9.根据权利要求1所述的信息处理装置,其中
所述应用控制单元使所述化身的输出表示反映由所述自主操作体正在执行的所述操作。
10.根据权利要求1所述的信息处理装置,其中
所述应用控制单元使所述化身的输出表示反映所述自主操作体的情绪。
11.根据权利要求9所述的信息处理装置,其中
所述输出表示包括以下中的至少一个:操作显示、颜色表示和语音输出。
12.根据权利要求1所述的信息处理装置,其中
所述应用控制单元使所述化身的输出表示反映由所述化身获取的所述奖励。
13. 根据权利要求1所述的信息处理装置,其中
所述应用控制单元控制与所述化身和所述用户之间的通信相关的游戏内容的操作,并且
所述应用控制单元基于与所述游戏中的所述用户的通信强度而给予所述奖励。
14.根据权利要求13所述的信息处理装置,其中
在所述游戏中的所述通信包括经由虚拟对象而与所述化身的接触或与所述化身的交互。
15.一种由处理器实现的信息处理方法,
所述信息处理方法包括:
控制与自主操作体和用户之间的通信相关的应用的操作;并且
使所述自主操作体反映在所述应用中由所述用户执行的操作,其中
所述控制还包括控制模仿所述自主操作体的化身的操作,以及
所述控制还包括使所述自主操作体反映由所述化身基于由所述用户执行的所述操作而获取的奖励;
其中,基于所述自主操作体的两种或更多种情绪的共存,将所述应用的屏幕的背景的颜色设置为多种颜色中的两种或更多种颜色的渐变;其中,所述多种颜色的每种颜色与不同情绪相关联,以及
所述两种或更多种颜色对应于所述自主操作体的所述两种或更多种情绪。
16.一种在其上存储有指令的计算机可读存储介质,当被计算机执行时,所述指令使所述计算机执行根据权利要求15所述的信息处理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017246738 | 2017-12-22 | ||
JP2017-246738 | 2017-12-22 | ||
PCT/JP2018/034482 WO2019123744A1 (ja) | 2017-12-22 | 2018-09-18 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111278516A CN111278516A (zh) | 2020-06-12 |
CN111278516B true CN111278516B (zh) | 2025-01-14 |
Family
ID=66992603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880070084.2A Active CN111278516B (zh) | 2017-12-22 | 2018-09-18 | 信息处理装置、信息处理方法和程序 |
Country Status (3)
Country | Link |
---|---|
US (2) | US12122039B2 (zh) |
CN (1) | CN111278516B (zh) |
WO (1) | WO2019123744A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7326707B2 (ja) | 2018-06-21 | 2023-08-16 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
US11321927B1 (en) * | 2019-09-23 | 2022-05-03 | Apple Inc. | Temporal segmentation |
US11957991B2 (en) * | 2020-03-06 | 2024-04-16 | Moose Creative Management Pty Limited | Balloon toy |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000066239A1 (fr) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees |
JP2001310283A (ja) * | 2000-02-14 | 2001-11-06 | Sony Corp | ロボットシステム、ロボット装置及びその制御方法、並びに情報処理装置及び方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6249780B1 (en) * | 1998-08-06 | 2001-06-19 | Yamaha Hatsudoki Kabushiki Kaisha | Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object |
US7162409B2 (en) * | 1999-12-30 | 2007-01-09 | Sony Corporation | Diagnostic system, diagnostic device and diagnostic method |
WO2001058649A1 (fr) | 2000-02-14 | 2001-08-16 | Sony Corporation | Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees |
JP4296736B2 (ja) | 2000-10-13 | 2009-07-15 | ソニー株式会社 | ロボット装置 |
JP2003072488A (ja) * | 2001-08-31 | 2003-03-12 | Sony Corp | 車載装置、車両及び車両情報の処理方法 |
CA2495240A1 (en) * | 2002-08-20 | 2004-03-04 | Vivendi Universal Games, Inc. | Computer game with emotion-based character interaction |
WO2004075135A1 (ja) * | 2003-02-19 | 2004-09-02 | Matsushita Electric Industrial Co., Ltd. | 監視電子機器システム、監視方法、プログラムおよび、記録媒体 |
JP2008527846A (ja) * | 2005-01-04 | 2008-07-24 | エンパワー・テクノロジーズ・インコーポレイテッド | 電子デバイスのためのユーザインターフェイス |
US8007339B2 (en) * | 2005-11-04 | 2011-08-30 | Mattel, Inc. | Virtual character video toy with movable display |
KR100785067B1 (ko) * | 2005-12-06 | 2007-12-12 | 삼성전자주식회사 | 휴대단말기의 화면 표시장치 및 방법 |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
US8926395B2 (en) * | 2007-11-28 | 2015-01-06 | Patent Category Corp. | System, method, and apparatus for interactive play |
JP5040865B2 (ja) * | 2008-09-08 | 2012-10-03 | 日本電気株式会社 | ロボット制御システム、遠隔管理装置、遠隔管理方法及びプログラム |
JP5574865B2 (ja) | 2010-01-29 | 2014-08-20 | 株式会社セガ トイズ | 玩具セット、ゲーム制御プログラム |
US20130260346A1 (en) * | 2010-08-20 | 2013-10-03 | Smarty Ants Inc. | Interactive learning method, apparatus, and system |
US20120190453A1 (en) * | 2011-01-25 | 2012-07-26 | Bossa Nova Robotics Ip, Inc. | System and method for online-offline interactive experience |
WO2013111246A1 (ja) | 2012-01-24 | 2013-08-01 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理システム |
CN104737209A (zh) | 2012-11-22 | 2015-06-24 | 索尼公司 | 信息处理装置、系统、信息处理方法和程序 |
TW201429521A (zh) * | 2013-01-22 | 2014-08-01 | Farstone Technology Inc | 電子寵物系統與電子寵物軟體產品 |
CN105144248B (zh) * | 2013-04-16 | 2019-08-06 | 索尼公司 | 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统 |
SG10201809399VA (en) * | 2014-06-12 | 2018-11-29 | Play I Inc | System and method for reinforcing programming education through robotic feedback |
US10852838B2 (en) * | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10561950B2 (en) * | 2014-07-30 | 2020-02-18 | Hasbro, Inc. | Mutually attachable physical pieces of multiple states transforming digital characters and vehicles |
US9592603B2 (en) * | 2014-12-01 | 2017-03-14 | Spin Master Ltd. | Reconfigurable robotic system |
US9478064B2 (en) * | 2015-01-29 | 2016-10-25 | Harris Corporation | Automatic control of avatar perspective view in a graphical user interface |
US10593349B2 (en) * | 2016-06-16 | 2020-03-17 | The George Washington University | Emotional interaction apparatus |
US10430657B2 (en) * | 2016-12-12 | 2019-10-01 | X Development Llc | Object recognition tool |
US20190111563A1 (en) * | 2017-10-16 | 2019-04-18 | Anki, Inc. | Custom Motion Trajectories for Robot Animation |
US10890921B2 (en) * | 2018-05-31 | 2021-01-12 | Carla R. Gillett | Robot and drone array |
CN110237532A (zh) * | 2018-08-30 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 虚拟宠物的展示方法、设备及存储介质 |
-
2018
- 2018-09-18 WO PCT/JP2018/034482 patent/WO2019123744A1/ja active Application Filing
- 2018-09-18 US US16/769,989 patent/US12122039B2/en active Active
- 2018-09-18 CN CN201880070084.2A patent/CN111278516B/zh active Active
-
2024
- 2024-10-04 US US18/906,519 patent/US20250026020A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000066239A1 (fr) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees |
JP2001310283A (ja) * | 2000-02-14 | 2001-11-06 | Sony Corp | ロボットシステム、ロボット装置及びその制御方法、並びに情報処理装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US12122039B2 (en) | 2024-10-22 |
CN111278516A (zh) | 2020-06-12 |
US20250026020A1 (en) | 2025-01-23 |
US20210197393A1 (en) | 2021-07-01 |
WO2019123744A1 (ja) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230305530A1 (en) | Information processing apparatus, information processing method and program | |
US20250026020A1 (en) | Information processing device and information processing method | |
US12204338B2 (en) | Information processing apparatus, information processing method, and program | |
JP7351383B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP7375770B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN112106004B (zh) | 信息处理装置、信息处理方法和程序 | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
US12236152B2 (en) | Information processing apparatus and information processing method for displaying a feeling parameter associated with an autonomous moving body | |
JP7363823B2 (ja) | 情報処理装置、および情報処理方法 | |
US20230367312A1 (en) | Information processing apparatus, information processing method, and program | |
US20250123622A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |