CN116061210A - 信息处理装置、信息处理方法和计算机存储介质 - Google Patents
信息处理装置、信息处理方法和计算机存储介质 Download PDFInfo
- Publication number
- CN116061210A CN116061210A CN202310098168.XA CN202310098168A CN116061210A CN 116061210 A CN116061210 A CN 116061210A CN 202310098168 A CN202310098168 A CN 202310098168A CN 116061210 A CN116061210 A CN 116061210A
- Authority
- CN
- China
- Prior art keywords
- feedback
- action
- recognition
- contact
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/003—Manipulators for entertainment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/18—Figure toys which perform a realistic walking motion
- A63H11/20—Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H13/00—Toy figures with self-moving parts, with or without movement of the toy as a whole
- A63H13/02—Toy figures with self-moving parts, with or without movement of the toy as a whole imitating natural actions, e.g. catching a mouse by a cat, the kicking of an animal
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/50—Machine tool, machine tool null till machine tool work handling
- G05B2219/50391—Robot
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
提供一种信息处理装置、信息处理方法和计算机存储介质,其包括识别单元,该识别单元基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理。识别单元包括反馈识别器,该反馈识别器响应于由自主操作体所示的行为来识别来自用户的反馈。基于识别用户对自主操作体执行的接触动作和非接触动作的结果,反馈识别器识别这种反馈的程度。
Description
本申请是申请日为2019年10月11日、国际申请号为PCT/JP2019/040162、发明名称为“信息处理装置、信息处理方法和程序”的PCT申请的中国国家阶段申请的分案申请,该中国国家阶段申请进入中国国家阶段的进入日为2021年05月14日、申请号为201980075385.9,其全部内容结合于此作为参考。
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
近年来,已经开发了基于各种类型的识别处理自主操作的装置。例如,在专利文献1中,公开了一种机器人装置,该机器人装置识别环境和用户的状态,并且根据状态执行动作。
引用列表
专利文献
专利文献1:JP 2003-340760 A。
发明内容
技术问题
在此处,在自主操作体(诸如专利文献1中所述的机器人装置)中,重要的是高精度地识别来自用户对所执行的动作的反馈,并且将识别的结果正确地反映到后续动作中。
问题的解决方案
根据本公开,提供了一种信息处理装置,包括:识别单元,基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,该识别单元包括反馈识别器,该反馈识别器识别来自用户对由自主操作体执行的行为的反馈,并且该反馈识别器基于用户对自主操作体的接触动作和非接触动作的识别结果来识别正反馈和负反馈中的至少一个;以及动作计划单元,基于识别单元的识别处理的结果来确定要由自主操作体执行的行为。
其中,识别单元基于用户的话语信息或用户被成像的图像信息来识别非接触动作。
其中,识别单元基于接触动作和非接触动作的识别结果来确定正反馈和负反馈中的至少一个的程度。
其中,在基于接触动作的识别结果的反馈的类型和基于非接触动作的识别结果的反馈的类型彼此不同的情况下,反馈识别器通过向接触动作的识别结果赋予权重来识别反馈的最终类型和程度。
其中,在预定时间内未获得接触动作的识别结果和非接触动作的识别结果两者的情况下,反馈识别器基于所获得的接触动作和非接触动作中的任一个的识别结果来识别正反馈和负反馈中的至少一个以及所识别的反馈的程度。
其中,识别单元进一步包括识别接触动作的物理接触识别器。
其中,物理接触识别器基于由包括在自主操作体中的接触传感器或惯性传感器收集的传感器信息来识别接触动作。
其中,动作计划单元基于由反馈识别器识别的正反馈和负反馈中的至少一个以及所识别的反馈的程度来校正与行为相关的分数,并且基于该分数来确定要由自主操作体执行的行为。
其中,动作计划单元将正反馈和负反馈中的至少一个以及所识别的反馈的程度反映到自主操作体的情感中。
其中,动作计划单元使自主操作体优先执行未计算分数的行为。
根据本公开,提供了一种信息处理方法,包括:由处理器基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,执行识别处理进一步包括:使用识别来自用户对由自主操作体执行的行为的反馈的反馈识别器,并且基于用户对自主操作体的接触动作和非接触动作的识别结果来识别正反馈和负反馈中的至少一个;以及由动作计划单元基于处理器的识别处理的结果来确定要由自主操作体执行的行为。
根据本公开,提供了一种存储有程序的计算机存储介质,当被执行时,该程序使计算机用作信息处理装置,该信息处理装置包括:识别单元,基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,该识别单元包括反馈识别器,该反馈识别器识别来自用户对由自主操作体执行的行为的反馈,并且该反馈识别器基于用户对自主操作体的接触动作和非接触动作的识别结果来识别正反馈和负反馈中的至少一个;以及动作计划单元,基于识别单元的识别处理的结果来确定要由自主操作体执行的行为。
根据本公开,提供了一种信息处理装置,包括:识别单元,其基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,识别单元包括反馈识别器,该反馈识别器识别来自用户对由自主操作体执行的行为的反馈,并且反馈识别器基于用户对自主操作体的接触动作和非接触动作的识别结果来识别反馈的程度。
此外,根据本公开,提供了一种信息处理方法,包括:由处理器基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,执行识别处理进一步包括:使用识别来自用户对由自主操作体执行的行为的反馈的反馈识别器,并且基于用户对自主操作体的接触动作和非接触动作的识别结果来识别反馈的程度。
此外,根据本公开,提供了一种程序,用于使计算机用作信息处理装置,包括:识别单元,其基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,识别单元包括反馈识别器,该反馈识别器识别来自用户对由自主操作体执行的行为的反馈,并且反馈识别器基于用户对自主操作体的接触动作和非接触动作的识别结果来识别反馈的程度。
附图说明
图1是示出根据本公开的第一实施例的自主移动体的硬件配置示例的示图。
图2是包括在根据实施例的自主移动体中的致动器的配置示例。
图3是用于说明包括在根据实施例的自主移动体中的致动器的操作的示图。
图4是用于说明包括在根据实施例的自主移动体中的致动器的操作的示图。
图5是用于说明包括在根据实施例的自主移动体中的显示器的功能的示图。
图6是示出根据实施例的自主移动体的操作示例的示图。
图7是用于说明根据实施例的作为比较对象的自主操作体错误地识别来自用户的反馈的情况的示例的示图。
图8是用于说明根据实施例的作为比较对象的自主操作体错误地识别来自用户的反馈的情况的示例的示图。
图9是用于说明根据实施例的自主操作体的反馈识别的概述的示图。
图10是示出根据实施例的基于微小振动的接触部分确定的示例的示图。
图11是示出根据实施例的信息处理系统的配置示例的示图。
图12是示出根据实施例的自主操作体的功能配置示例的框图。
图13是示出根据实施例的自主操作体的详细功能配置示例的框图。
图14是用于说明根据实施例的使用惯性传感器识别接触动作的示图。
图15是示出根据实施例的通过物理接触识别器对接触动作进行分类的示例的示图。
图16是示出根据实施例的通过语音识别器对非接触动作进行分类的示例的示图。
图17是示出根据实施例的反馈识别的流程的流程图。
图18是示出根据实施例的基于接触动作和非接触动作的识别的反馈识别的示例的示图。
图19是示出根据实施例的行为选择器的处理流程的流程图。
图20是用于说明根据实施例的反馈方面的学习的示图。
具体实施方式
在下文中,将参考附图详细描述本公开的优选实施例。注意,在本说明书和附图中,具有基本上相同功能配置的组件由相同的参考数字表示,以省略重复的描述。
注意,将按以下顺序给出描述。
1.实施例
1.1.自主操作体10的概述
1.2.自主操作体10的硬件配置示例
1.3.功能概述
1.4.系统配置示例
1.5.自主操作体10的功能配置示例
1.6.功能细节
2.结论
<1.实施例>
<<1.1.自主操作体10的概述>>
首先,将给出根据本公开实施例的自主操作体10的概述的描述。根据本公开的实施例的自主操作体10是信息处理装置,其基于所收集的传感器信息执行状况估计,并且根据状况自主选择和执行各种操作。自主操作体10的特征之一在于,与仅根据用户的指令命令执行操作的机器人不同,自主操作体10自主地执行被假定为针对每种情况最佳的操作。
根据本公开的实施例的自主操作体10可以例如基于成像的图像执行用户识别或对象识别,并且根据所识别的用户或对象执行各种自主动作。此外,根据本实施例的自主操作体10还可以基于用户的话语执行例如语音识别,并且基于用户的指令等执行动作。
如上所述,类似于包括人的动物,根据本公开的实施例的自主操作体10通过全面确定欲望、情感、周围环境等来确定并执行自主操作。在以上方面,自主操作体10明显不同于基于指令执行相应操作或处理的无源装置。
根据本公开的实施例的自主操作体10可以是在空间中自主移动并执行各种操作的自主移动机器人。自主操作体10可以是例如具有模仿动物(诸如,人或狗)的形状和操作能力的自主移动机器人。此外,自主操作体10可以是例如具有与用户通信的能力的车辆或另一装置。可以根据对象和角色适当地设计根据本公开的实施例的自主操作体10的形状、能力和欲望等级等。
<<1.2.自主操作体10的硬件配置示例>>
接下来,将给出根据本公开的实施例的自主操作体10的硬件配置示例的描述。注意,在下文中,作为示例,将描述自主操作体10是狗形四足步行机器人的情况。
图1是示出根据本公开的实施例的自主操作体10的硬件配置示例的示图。如图1所示,自主操作体10是具有头部、躯干、四条腿和尾巴的狗形四足步行机器人。此外,自主操作体10在头部包括两个显示器510。
此外,自主操作体10包括各种传感器。自主操作体10包括例如麦克风515、相机520、飞行时间(ToF)传感器525、人体传感器530、距离测量传感器535、触摸传感器540、照度传感器545、鞋底按钮550和惯性传感器555。
(麦克风515)
麦克风515具有收集周围声音的功能。以上声音包括例如用户的话语和周围环境声音。自主操作体10可以包括例如头部上的四个麦克风。通过包括多个麦克风515,可以以高灵敏度收集在周围生成的声音,并且实现声源的定位。
(相机520)
相机520具有捕获用户和周围环境的图像的功能。自主操作体10可以包括例如位于鼻尖和腰部的两个广角相机。在这种情况下,布置在鼻尖处的广角相机捕获对应于自主操作体的前视野(即,狗的视野)的图像,并且腰部处的广角相机捕获以上侧为中心的周围区域的图像。自主操作体10可以基于例如由布置在腰部的广角相机捕获的图像来提取天花板的特征点,并且实现同时定位和映射(SLAM)。
(ToF传感器525)
ToF传感器525具有检测到存在于头部前方的对象的距离的功能。ToF传感器525包括在头部的鼻尖处。利用ToF传感器525,可以高精度地检测到各种对象的距离,并且可以根据与障碍物、包括用户的对象等的相对位置来执行操作。
(人体传感器530)
人体传感器530具有检测用户或由用户饲养的宠物的位置的功能。人体传感器530例如布置在胸部。利用人体传感器530,通过检测存在于前方的运动对象,可以对运动对象实施各种操作,例如,取决于诸如兴趣、恐惧和惊讶的情感的操作。
(距离测量传感器535)
距离测量传感器535具有获取自主操作体10的前地板表面的状况的功能。距离测量传感器535例如布置在胸部。利用距离测量传感器535,可以高精度地检测到存在于自主操作体10的前地板表面上的对象的距离,并且可以根据与对象的相对位置来执行操作。
(触摸传感器540)
触摸传感器540具有检测用户的接触的功能。触摸传感器540例如布置在用户很可能触摸自主操作体10的部分,诸如头顶、下巴下方和背部。触摸传感器540可以例如是电容型或压敏型触摸传感器。利用触摸传感器540,可以检测用户的接触动作,诸如触摸、抚摸、敲击或按压,并且可以根据接触动作来执行操作。
(照度传感器545)
照度传感器545检测自主操作体10所处的空间中的照度。例如,照度传感器545可以布置在头部的背面中的尾部的根部。利用照度传感器545,可以检测周围亮度,并且根据亮度执行操作。
(鞋底按钮550)
鞋底按钮550具有检测自主操作体10的腿的底面是否与地板接触的功能。为此,鞋底按钮550布置在对应于四条腿的垫的每个部分处。利用鞋底按钮550,可以检测自主操作体10与地板表面之间的接触或非接触,并且例如可以掌握自主操作体10被用户提起。
(惯性传感器555)
惯性传感器555是检测诸如头部和躯干的速度、加速度和旋转的物理量的6轴传感器。即,惯性传感器555检测X轴、Y轴和Z轴上的加速度和角速度。惯性传感器555布置在头部和躯干中的每一个上。利用惯性传感器555,可以高精度地检测自主操作体10的头部和躯干的运动,并且根据情况实施操作控制。
在上文中,已经描述了包括在根据本公开的实施例的自主操作体10中的传感器的示例。注意,参考图1描述的以上配置仅是示例,并且可以包括在自主操作体10中的传感器的配置不限于这样的示例。除了以上配置之外,自主操作体10还可以包括例如温度传感器、地磁传感器、包括全球导航卫星系统(GNSS)信号接收器的各种通信装置等。可以根据规格和操作灵活地修改包括在自主操作体10中的传感器的配置。
随后,将给出根据本公开的实施例的自主操作体10的关节的配置示例的描述。图2是包括在根据本公开的实施例的自主操作体10中的致动器570的配置示例。除了图2所示的旋转点之外,根据本公开的实施例的自主操作体10总共具有22个旋转自由度,耳朵和尾巴处各有两个,嘴巴处有一个。
例如,自主操作体10在头部具有三个自由度,从而能够实现点头和倾斜颈部两者的运动。此外,自主操作体10可以通过由包括在腰部中的致动器570再现腰部的摆动运动来实现更接近真实狗的自然且灵活的运动。
注意,根据本公开的实施例的自主操作体10可以通过例如组合1轴致动器和2轴致动器来实现以上22个旋转自由度。例如,1轴致动器可以用于腿部的肘部或膝部,而2轴致动器可以用于肩部和大腿根部。
图3和图4是用于说明包括在根据本公开的实施例的自主操作体10中的致动器570的操作的示图。参考图3,致动器570可以通过由马达575旋转输出齿轮以任意旋转位置和旋转速度驱动可移动臂590。
参考图4,根据本公开的实施例的致动器570包括后盖571、齿轮箱盖572、控制板573、齿轮箱基座574、马达575、第一齿轮576、第二齿轮577、输出齿轮578、检测磁体579和两个轴承580。
根据本公开的实施例的致动器570可以例如是磁性自旋阀巨磁阻(svGMR)。控制板573基于主处理器的控制旋转马达575,由此动力经由第一齿轮576和第二齿轮577传递到输出齿轮578,并且可以驱动可移动臂590。
此外,包括在控制板573中的位置传感器检测与输出齿轮578同步旋转的检测磁体579的旋转角度,由此可以高精度地检测可移动臂590的旋转角度,即旋转位置。
注意,由于磁性svGMR是非接触型的,因此磁性svGMR具有优异的耐久性,并且通过在GMR饱和区域中使用,具有由于检测磁体579和位置传感器的距离波动而引起的信号波动的影响较小的优点。
在上文中,已经给出了包括在根据本公开的实施例的自主操作体10中的致动器570的配置示例的描述。利用以上配置,可以高精度地控制包括在自主操作体10中的关节的弯曲和拉伸运动,并且精确地检测关节的旋转位置。
随后,参考图5,将给出包括在根据本公开的实施例的自主操作体10中的显示器510的功能的描述。图5是用于说明包括在根据本公开的实施例的自主操作体10中的显示器510的功能的示图。
(显示器510)
显示器510具有视觉表达自主操作体10的眼睛运动和情感的功能。如图5所示,显示器510可以根据情感和运动来表达眼球、瞳孔和眼睑的运动。显示器510旨在不显示与眼球运动无关的字符、符号或图像,从而产生更接近真实动物(诸如狗)的自然运动。
此外,如图5所示,自主操作体10包括分别对应于右眼和左眼的两个显示器510r和510l。显示器510r和510l例如由两个独立的有机发光二极管(OLED)实现。利用OLED,可以再现眼球的曲面,并且与用一个平板显示器表达一对眼球的情况或者分别用两个独立的平板显示器表达两个眼球的情况相比,可以实现更自然的外观。
如上所述,利用显示器510r和510l,可以高精度且灵活地表达如图5所示的自主操作体10的视线和情感。此外,用户可以根据显示在显示器510上的眼球的运动直观地掌握自主操作体10的状态。
在上文中,已经给出了根据本公开的实施例的自主操作体10的硬件配置示例的描述。利用以上配置,如图6所示,通过高精度且灵活地控制自主操作体10的关节和眼球的运动,可以实现更接近真实生物的运动和情感表达。注意,图6是示出根据本公开的实施例的自主操作体10的操作示例的示图,并且在图6中,给出了集中于自主操作体10的关节和眼球的运动的描述,并且因此以简化的方式示出了自主操作体10的外部结构。类似地,在以下描述中,可以以简化的方式示出自主操作体10的外部结构,但是根据本公开的实施例的自主操作体10的硬件配置和外部不限于附图所示的示例,并且可以适当地设计。
<<1.3.功能概述>>
接下来,将给出根据本公开的实施例的自主操作体10的功能的概述的描述。如上所述,在执行自主操作的装置中,重要的是高精度地识别来自用户对所执行动作的反馈,并且将识别的结果正确地反映到后续动作中。
在此处,以上反馈意味着,例如,用户对由自主操作体10执行的动作(行为)表现出诸如表扬或责骂的反应。通过如上所述识别反馈,根据本实施例的自主操作体10将更经常地执行要被用户表扬的行为,并且将逐渐停止执行要被用户责骂的行为。
然而,在错误地识别以上反馈的情况下,存在无法正确地执行适合用户口味的行为的可能性。图7和图8是用于说明根据本实施例的作为比较对象的自主操作体90错误地识别来自用户的反馈的情况的示例的示图。
例如,在图7所示的示例的情况下,自主操作体90通过识别用户U1说“好孩子”的话语UO1来识别用户U1表扬自主操作体90。然而,在现实中,用户U1的话语UO1指向同一空间中的用户U2,并且可以说自主操作体90的以上反馈识别是不正确的。
在这种情况下,自主操作体90有可能错误地识别出用户U1更喜欢在识别出话语UO1时或紧接在识别出话语UO1之前执行的行为,并且此后更多地执行该行为。然而,在此处,例如,在用户U1对行为的原始评价低的情况下,可能获得损害用户体验的结果。
此外,在图8所示的示例的情况下,自主操作体90识别出用户U1抚摸自主操作体90的头部,从而识别出用户U1表扬自主操作体90。然而,在图8所示的示例中,如话语UO2所示,用户U1仅在外出时抚摸自主操作体90的头部作为问候的替代。
同样在这种情况下,类似于图7所示的示例的情况,自主操作体90有可能错误地识别出用户U1更喜欢在识别出抚摸头部的动作时或紧接在识别出抚摸头部的动作之前执行的行为,并且此后更多地执行该行为。
如上所述,在使用语音和接触中的一个的反馈识别中,可能错误地识别来自用户的反馈,并且可靠性不足,并且这也可能是频繁发生不符合用户意图的动作的情况的原因。
通过关注以上要点而构思根据本公开的技术概念,并且使得可以高精度地识别来自用户对自主操作体的行为的反馈。为此,根据本公开的实施例的自主操作体10的特征之一在于,自主操作体10例如基于所收集的多条传感器信息来全面地识别来自用户的反馈。此外,此时,根据本公开的实施例的自主操作体10可以识别来自用户的反馈的类型和程度,并且将其反映在稍后的动作计划中。
图9是用于说明根据本实施例的自主操作体10的反馈识别的概述的示图。在图9所示的示例的情况下,用户U1抚摸头部,并且响应于由自主操作体10执行的行为,发出“好孩子,约翰”的话语UO3。
此时,根据本实施例的自主操作体10通过布置在头部上的触摸传感器540来识别抚摸头部,并且还通过对由麦克风515收集的话语UO3执行语音识别来识别用户U1发出表扬词。
在这种情况下,根据本实施例的自主操作体10可以确定用户U1表扬自主操作体10,因为抚摸头部的接触动作和通过话语UO3的非接触动作的识别结果两者都指示正反馈。
此外,根据本实施例的自主操作体10可以通过使用所收集和识别的各种类型的信息来全面地识别来自用户的反馈,但是不限于此。在图9所示的示例的情况下,自主操作体10可以通过例如识别用户U1的笑脸来加强用户U1的反馈为正的信念。
此外,例如,自主操作体10可以通过识别自主操作体10的姓名包括在具有表扬词的话语UO3中来确定话语UO3(即,正反馈)指向自主操作体10的可能性极高。
如上所述,根据本实施例的自主操作体10可以通过基于所收集的传感器信息执行各种类型的识别处理来高精度地识别来自用户的反馈的类型和程度,并且将该反馈用于后续的动作计划。
此外,在一般装置中,静电型或压敏型触摸传感器用于识别诸如用户的抚摸或敲击的接触动作。在此处,例如,为了识别接触而不管如在实际生物中在皮肤上的何处接触,必须将触摸传感器布置在装置的整个外部。然而,触摸传感器的这种布置是不现实的,因为这增加了开发成本。为此,常规装置难以识别用户对未布置触摸传感器的部分的接触动作。
另一方面,在根据本实施例的自主操作体10中,即使在站立状态下,每个关节也设置有分散力的间隙。为此,在根据本实施例的自主操作体10中,无论哪个部分经受接触动作,都会生成微小振动。
因此,根据本实施例的自主操作体10可以通过由惯性传感器555检测以上微小振动来识别在与每个部分接触时生成的特征振动,并且确定执行接触动作的部分。
图10是示出根据本实施例的基于微小振动的接触部分确定的示例的示图。在图10所示的示例的情况下,用户U1抚摸自主操作体10的腹部,并且发出“好孩子!”的话语UO4。然而,由于根据本实施例的触摸传感器540仅布置在自主操作体10的头部、下巴和背部上,因此通常难以仅通过触摸传感器540的检测信息来识别抚摸腹部。
然而,根据本实施例的自主操作体10可以通过检测由惯性传感器555的接触动作生成的微小振动,并且识别微小振动是当抚摸腹部时的特征的振动来识别用户U1抚摸腹部。
如上所述,利用根据本实施例的自主操作体10的以上功能,即使对于未布置触摸传感器540的部分,也可以识别用户的接触动作,并且可以更有效地提高反馈的识别精度。
<<1.4.系统配置示例>>
接下来,将给出根据本实施例的信息处理系统的配置示例的描述。图11是示出根据本实施例的信息处理系统的配置示例的示图。如图11所示,包括根据本实施例的自主操作体10和信息处理服务器20。此外,自主操作体10和信息处理服务器20经由网络30连接以能够彼此通信。
(自主操作体10)
根据本实施例的自主操作体10是基于所收集的传感器信息执行各种类型的识别处理的信息处理装置,并且基于各种类型的识别处理的结果自主操作。如上所述,根据本实施例的自主操作体10可以通过组合各种类型的识别处理来高精度地识别来自用户对所执行的行为的反馈。
(信息处理服务器20)
根据本实施例的信息处理服务器20是收集由自主操作体10收集的各种类型的传感器信息和自主操作体10的学习结果并且将其存储为集体智慧的信息处理装置。此外,根据本实施例的信息处理服务器20可以具有基于以上传感器信息执行识别处理和学习的功能。
(网络30)
网络30具有将自主操作体10和信息处理服务器20彼此连接的功能。网络30可以包括公共线路网络(诸如因特网、电话线网络和卫星通信网络)、包括以太网(注册商标)的各种局域网(LAN)或广域网(WAN)。此外,网络30可以包括专用线路网络,诸如因特网协议虚拟专用网络(IP-VPN)。此外,网络30可以包括无线通信网络,诸如Wi-Fi(注册商标)或蓝牙(注册商标)。
在上文中,已经描述了根据本实施例的信息处理系统的配置示例。注意,参考图11描述的以上配置仅是示例,并且根据本实施例的信息处理系统的配置不限于这样的示例。可以根据规范和操作灵活地修改根据本实施例的信息处理系统的配置。
<<1.5.自主操作体10的功能配置示例>>
接下来,将描述根据本实施例的自主操作体10的功能配置示例。图12是示出根据本实施例的自主操作体10的功能配置示例的框图。如图12所示,根据本实施例的自主操作体10包括输入单元110、识别单元120、学习单元130、动作计划单元140、操作控制单元150、驱动单元160、输出单元170和服务器通信单元180。
(输入单元110)
输入单元110具有收集与用户和周围环境相关的各种类型的信息的功能。输入单元110收集例如用户的话语、在周围生成的环境声音、与用户和周围环境相关的图像信息以及各种类型的传感器信息。为此,输入单元110包括图1所示的各种传感器。
(识别单元120)
识别单元120具有基于由输入单元110收集的各种类型的信息来执行与用户、周围环境和自主操作体10的状态相关的各种类型的识别的功能。作为示例,识别单元120可以执行语音识别、接触动作识别、人物识别、面部表情和视线识别、对象识别、运动识别、空间区域识别、颜色识别、形状识别、标记识别、障碍物识别、台阶识别、亮度识别等。
此外,根据本实施例的识别单元120的特征之一在于,识别单元120基于如上所述的识别处理来识别来自用户对行为的反馈。稍后将单独描述根据本实施例的识别单元120的功能的细节。
(学习单元130)
学习单元130具有基于由输入单元110收集的传感器信息等执行各种类型的学习的功能。例如,学习单元130通过使用机器学习算法(诸如深度学习)来学习自主操作体10的每个部分处的接触动作与由接触动作生成的微小振动之间的关系。
(动作计划单元140)
动作计划单元140具有基于由识别单元120输出的各种识别结果和由学习单元130学习的知识来计划自主操作体10的动作的功能。稍后将单独描述根据本实施例的动作计划单元140的功能的细节。
(操作控制单元150)
操作控制单元150具有基于动作计划单元140的动作计划来控制驱动单元160和输出单元170的操作的功能。操作控制单元150例如基于以上动作计划来执行致动器570的旋转控制、显示器510的显示控制、扬声器的语音输出控制等。
(驱动单元160)
驱动单元160具有基于操作控制单元150的控制来弯曲和拉伸包括在自主操作体10中的多个关节的功能。更具体地,驱动单元160基于操作控制单元150的控制来驱动包括在每个关节中的致动器570。
(输出单元170)
输出单元170具有基于操作控制单元150的控制输出视觉信息和声音信息的功能。为此,输出单元170包括显示器510和扬声器。
(服务器通信单元180)
根据本实施例的服务器通信单元180经由网络30与信息处理服务器20执行信息通信。
在上文中,已经描述了根据本实施例的自主操作体10的功能配置示例的概述。随后,参考图13,将更详细地描述根据本实施例的自主操作体10的功能配置。图13是示出根据本实施例的自主操作体10的详细功能配置示例的框图。注意,在图13中,主要示出了与根据本实施例的反馈识别相关的配置。
如图所示,根据本实施例的输入单元110包括触摸传感器540、惯性传感器555、鞋底按钮550、麦克风515等。由触摸传感器540检测的关于头部、下巴和背部的接触的信息、由惯性传感器555检测的姿势信息和振动信息以及由鞋底按钮550检测的地面接触状态被输入到包括在识别单元120中的物理接触识别器122。此外,由麦克风515收集的声音信息被输入到包括在识别单元120中的语音识别器124。
如上所述,根据本实施例的识别单元120基于由输入单元110收集的各种类型的传感器信息执行用于确定自主操作体10的动作的各种类型的识别处理。根据本实施例的识别单元120包括例如物理接触识别器122、语音识别器124和反馈识别器126。
根据本实施例的物理接触识别器122具有识别用户对自主操作体10的接触动作的功能。在此处,以上接触动作包括例如抚摸动作和敲击动作。此时,根据本实施例的物理接触识别器122可以基于由触摸传感器540和惯性传感器555收集的传感器信息来识别如上所述的接触动作。稍后将单独描述根据本实施例的物理接触识别器122的功能的细节。
此外,根据本实施例的语音识别器124识别作为根据本实施例的一个非接触动作的用户的话语。稍后将单独描述根据本实施例的语音识别器124的功能的细节。
此外,根据本实施例的反馈识别器126具有识别用户对由自主操作体10执行的行为的反馈的功能。此外,根据本实施例的反馈识别器126具有基于用户对自主操作体10的接触动作和非接触动作的识别结果来识别反馈的类型和程度的功能。
在此处,以上接触动作是指诸如抚摸或敲击的动作。此外,以上非接触动作可以是作为对自主操作体10执行的行为的反应的话语、手势、面部表情等。这种非接触动作被包括在识别单元120中的诸如语音识别器124、手势识别器(未示出)和面部表情识别器(未示出)的组件识别。例如,语音识别器124可以基于由麦克风515收集的话语信息来识别话语,并且手势识别器和面部表情识别器可以基于对用户成像的图像信息来分别识别手势和面部表情。稍后将单独描述根据本实施例的反馈识别器126的功能的细节。
此外,根据本实施例的动作计划单元140包括行为选择器142和脊髓反射装置144。根据本实施例的行为选择器142基于由识别单元120进行的各种类型的识别处理的结果(诸如由反馈识别器126识别的来自用户的反馈)来确定要由自主操作体10执行的行为。稍后将单独描述根据本实施例的行为选择器142的功能的细节。
此外,根据本实施例的脊髓反射装置144基于由识别单元120识别的接触动作或非接触动作来确定要由自主操作体10执行的反射动作。该动作可以与由行为选择器142选择的行为同时执行。例如,在识别用户的话语的情况下,脊髓反射装置144可以确定以抽动方式移动耳朵的动作。此外,在识别接触动作的情况下,可以确定移动眼睛或尾巴的动作。此外,在识别接触动作和非接触动作两者的情况下,脊髓反射装置144可以确定同时移动耳朵、眼睛和尾巴的动作。
此外,根据本实施例的操作控制单元150基于由行为选择器142选择的行为和由脊髓反射装置144确定的动作来控制致动器570、显示器510和扬声器512。
在上文中,已经描述了根据本实施例的自主操作体10的功能配置示例。注意,参考图13描述的以上配置仅是示例,并且根据本实施例的自主操作体10的功能配置不限于这样的示例。可以根据规格和操作灵活地修改根据本实施例的自主操作体10的功能配置。
<<1.6.功能细节>>
接下来,将详细描述根据本实施例的自主操作体10的每个功能。首先,将描述根据本实施例的物理接触识别器122的功能。
例如,根据本实施例的物理接触识别器122基于由触摸传感器540检测到的触摸信息来识别用户对头部、下巴和背部的接触动作。
此外,如上所述,根据本实施例的物理接触识别器122还可以识别用户对未布置触摸传感器540的部分的接触动作。
图14是用于说明根据本实施例的使用惯性传感器555识别接触动作的示图。如图14所示,根据本实施例的自主操作体10包括分别位于头部和躯干上的惯性传感器555a和555b。
如上所述,根据本实施例的自主操作体10的每个关节具有间隙,并且由于装置内部的结构体的差异,当执行接触动作时生成的微小振动根据每个部分而变化。
例如,如图14所示,假设抚摸腹部的情况。在此处,在根据本实施例的自主操作体10的腹部安装有可拆卸的盖,并且电池布置在盖的内部。此外,能够使颈部关节运动的致动器570布置在腹部与头部之间。
此外,由于执行接触动作的腹部与惯性传感器555a之间的距离以及腹部与惯性传感器555b之间的距离彼此不同,因此在由惯性传感器555a和555b检测到的微小振动中可能分别出现如图所示的不同的特征。
为此,根据本实施例的物理接触识别器122可以基于由于对自主操作体10的每个部分的接触动作而由惯性传感器555收集的传感器信息的学习结果以及当前收集的传感器信息来识别执行接触动作的部分。例如,通过使用神经网络的监督学习来执行以上学习。
利用根据本实施例的物理接触识别器122的以上功能,即使对未布置触摸传感器540的部分执行接触动作的情况下,也可以识别接触动作。
注意,在自主操作体10处于特定姿势的情况下,物理接触识别器122还可以通过将候选限制在预测要执行接触动作的地方来更有效地检测接触动作。例如,在自主操作体10处于向用户示出腹部的姿势的情况下,预测用户对腹部执行接触动作的可能性极高。在这种情况下,物理接触识别器122可以基于在采取以上姿势的同时检测到微小振动的事实来识别对腹部执行接触动作。
此外,根据本实施例的物理接触识别器122能够基于使用由触摸传感器540和惯性传感器555收集的传感器信息的学习结果来分类每个接触动作是正反馈还是负反馈及其程度。
图15是示出根据本实施例的通过物理接触识别器122对接触动作进行分类的示例的示图。例如,如图所示,在腹部、背部或头部受到强烈撞击的情况下,物理接触识别器122可以将接触动作分类为负反馈(非常坏)。
此外,例如,在示出腹部的同时执行抚摸的情况下,物理接触识别器122可以将接触动作分类为轻度正反馈(好)。
在上文中,已经详细描述了根据本实施例的物理接触识别器122的功能。接下来,将给出根据本实施例的语音识别器124的功能的描述。
根据本实施例的语音识别器124对用户的话语执行语音识别和语义分析。此外,根据本实施例的语音识别器124可以具有估计用户的话语方向的声源定位估计功能。例如,在作为以上处理的结果识别出自主操作体10的姓名包括在话语中的情况下,语音识别器124还可以确定话语是针对自主操作体10进行的。如上所述,根据本实施例的识别单元120可以基于由输入单元110收集的传感器信息来确定用户的非接触动作是否针对自主操作体10。
此外,根据本实施例的语音识别器124能够基于语音识别和语义分析的结果来分类用户的话语是正反馈还是负反馈及其程度。
图16是示出根据本实施例的语音识别器124对非接触动作进行分类的示例的示图。例如,如图所示,语音识别器124根据语音识别和语义分析的结果对每个话语执行分类。例如,在所识别的话语是“你是最好的”的情况下,语音识别器124可以将该话语分类为强正反馈(非常好)。此外,例如,在所识别的话语是“坏孩子”的情况下,语音识别器124可以将该话语分类为强负反馈(非常坏)。
此外,除了包括在话语中的词语的含义之外,语音识别器124还可以考虑例如当发出话语时用户的情感来执行分类。例如,在以大于或等于预定值的声压输入带有愤怒情感的词语“笨蛋”的情况下,通常被分类为“坏”的词语“笨蛋”可以被分类为“非常坏”。
此外,语音识别器124可以使用声源定位信息进行分类。例如,在从自主操作体10的前方识别出说“好孩子”的话语的情况下,该等级可以从正常时间提高一个等级。这是因为,类似于责骂人类孩子的情况,在尝试清楚地传达意图的情况下,来自前面的话语是有效的。
在上文中,已经详细描述了根据本实施例的语音识别器124的功能。接下来,将给出根据本实施例的反馈识别器126的功能的描述。如上所述,根据本实施例的反馈识别器126具有基于由物理接触识别器122识别的接触动作和由语音识别器124等识别的非接触动作来识别来自用户对行为的反馈的功能。
图17是示出根据本实施例的反馈识别的流程的流程图。在图17所示的示例中,示出了根据本实施例将用户的话语视为非接触动作的示例的情况。
参考图17,首先,输入单元110收集各种类型的传感器信息(S1101)。根据本实施例的传感器信息包括各种类型的信息,诸如声音、图像、加速度和角速度。
接下来,执行语音识别器124的语音识别(S1102)和物理接触识别器122的接触动作的识别(S1103)。
接下来,根据本实施例的反馈识别器126确定是否在预定时间内获取语音识别结果和接触动作识别结果(S1104)。
在此处,在仅获取一个识别结果的情况下(S1104:否),反馈识别器126仅使用所获取的语音识别结果或接触动作识别结果来执行反馈识别(S1106)。即,在预定时间内未获取接触动作识别结果和非接触动作识别结果两者的情况下,反馈识别器126可以基于所获取的接触动作或非接触动作的识别结果来识别反馈的类型和程度。
另一方面,在获取语音识别结果和接触动作识别结果两者的识别结果的情况下(S1104:是),反馈识别器126通过组合语音识别结果和接触动作识别结果来执行反馈识别(S1105)。
图18是示出根据本实施例的基于接触动作和非接触动作的识别的反馈识别的示例的示图。例如,在接触动作和非接触动作两者都被识别为正反馈(好)的情况下,反馈识别器126可以将反馈的最终分类识别为“非常好”。
此外,例如,在接触动作和非接触动作两者都被识别为负反馈(坏)的情况下,反馈识别器126可以将反馈的最终分类识别为“非常坏”。
另一方面,在基于接触动作的识别结果的反馈的类型和基于非接触动作的识别结果的反馈的类型彼此不同的情况下,反馈识别器126通过向接触动作的识别结果赋予权重来识别反馈的最终类型和程度。
例如,在接触动作被识别为正反馈(好)并且非接触动作被识别为负反馈(坏)的情况下,如图18所示的示例,反馈识别器126可以将最终反馈识别为“好”。
相对照地,在接触动作被识别为负反馈(坏)并且非接触动作被识别为正反馈(好)的情况下,反馈识别器126可以将最终反馈识别为“坏”。
利用根据本实施例的反馈识别器126的以上功能,可以优先处理更直接反馈的接触动作,并且期望提高反馈识别的精度。
在上文中,已经给出了根据本实施例的反馈识别器126的功能的细节的描述。注意,在上文中,已经举例说明了反馈的类型包括正和负这两种类型并且被分类为两个程度的情况,但是根据本实施例的反馈的类型和程度不限于这样的示例。
接下来,将详细描述根据本实施例的行为选择器142的功能。基于由反馈识别器126识别的反馈的类型和程度,根据本实施例的行为选择器142增加或减少与相应行为相关的分数以校正分数。此外,根据本实施例的行为选择器142基于如上所述获取的分数来确定要由自主操作体10执行的行为。
行为选择器142例如可以在所识别的反馈为负的情况下对与相应行为相关的分数执行减法,并且在反馈为正的情况下对与相应行为相关的分数执行加法。此外,在这种情况下,行为选择器142可以优先选择具有高分数的行为。
利用根据本实施例的行为选择器142的以上功能,可以实现更可能执行表扬行为并且更不可能执行责骂行为的动作计划。因此,与用户口味匹配的行为的次数增加,从而可以提高用户的满意度。此外,还可以通过设置仅在分数由于基于连续反馈的分数的增加或减少而超过预定阈值的情况下选择的特殊行为等来更吸引用户的兴趣。
此外,根据本实施例的反馈可以反映在自主操作体10的情感中。根据本实施例的自主操作体10单独具有情感,并且被设计为使得情感根据所识别的情况而改变。为此,在根据本实施例的行为选择器142反映自主操作体10的情感中的反馈的类型和程度并且因此自主操作体10的情感通过来自用户的反馈而倾向于愉悦的情况下,可以使后续动作表达愉悦,并且重复执行被表扬的行为。
例如,可以在图19所示的流程中执行如上所述的控制。图19是示出根据本实施例的行为选择器142的处理流程的流程图。
参考图19,首先,基于对所执行的行为的反馈,行为选择器142计算与行为相关的分数(S1201)。
接下来,行为选择器142将反馈反映到情感中(S1202)。
接下来,行为选择器142基于所计算的分数和情感来执行行为的选择(S1203)。
在上文中,已经给出了根据本实施例的行为选择器142的处理流程的描述。注意,除了上述处理之外,根据本实施例的行为选择器142可以基于分数等执行各种行为选择。
例如,根据本实施例的行为选择器142可以优先选择没有计算分数的行为。利用根据本实施例的行为选择器142的以上控制,通过执行尚未获得用户的反馈的行为,例如,可以防止重复执行类似的行为,并且可以预期具有不会使用户感到厌烦的效果。
此外,根据本实施例的行为选择器142可以旨在选择期望用户给出负反馈的行为,并且使自主操作体10执行该行为。利用这种控制,可以观察到当用户责骂自主操作体10时给出哪种反馈。
图20是用于说明根据本实施例的反馈方面的学习的示图。在图20所示的示例的情况下,行为选择器142选择大声吠叫的行为作为期望用户U1给出负反馈的行为,即,责骂自主操作体10,并且使自主操作体10执行该行为。
此外,用户U1在对自主操作体10的以上行为皱眉的同时发出“停止!”的话语UO5,并且进一步敲击自主操作体10的头部。
如上所述,利用根据本实施例的行为选择器142,通过使自主操作体10旨在执行用户会责骂的行为,可以收集与每个用户的负反馈的方面相关的信息而没有任何不适。
此时,根据本实施例的学习单元130基于对如上所述的行为的反馈来学习来自用户的负反馈的方面。因此,可以学习每个用户的反馈的方面,并且可以实现更精确的反馈识别。
注意,根据本实施例的行为选择器142还可以通过使自主操作体10旨在执行用户会表扬的行为来收集与每个用户的正反馈的方面相关的信息。
<2.结论>
如上所述,实现根据本公开的实施例的信息处理方法的自主操作体10包括识别单元120,该识别单元120基于所收集的传感器信息执行用于确定自主操作体10的动作的识别处理。此外,根据本公开的实施例的识别单元120包括反馈识别器126,该反馈识别器126识别来自用户对自主操作体10执行的行为的反馈。此外,根据本公开的实施例的反馈识别器126的特征之一在于,反馈识别器126基于用户对自主操作体10的接触动作和非接触动作的识别结果来识别反馈的程度。利用这种配置,可以高精度地识别来自用户对自主操作体的行为的反馈。
在上文中,已经参考附图详细描述了本公开的优选实施例;然而,本公开的技术范围不限于这样的示例。显然,本公开的技术领域中的普通技术人员可以在权利要求中描述的技术思想的范围内想到各种变化示例或修改示例,并且应当理解,这些示例当然也属于本公开的技术范围。
此外,本说明书中描述的效果仅是说明性或示例性的,而不是限制性的。即,除了以上效果之外或代替以上效果,根据本公开的技术可以表现出从本说明书的描述中对本领域技术人员显而易见的其他效果。
此外,还可以创建用于结合到计算机中的硬件(诸如CPU、ROM和RAM)的程序,以发挥等同于自主操作体10的配置的功能,并且还可以提供其中记录有程序的计算机可读非暂时性记录介质。
此外,与本说明书中的自主操作体10的处理相关的步骤不必必须按照流程图中描述的顺序以时间序列进行处理。例如,与自主操作体10的处理相关的步骤可以以不同于流程图中描述的顺序来处理,或者可以并行处理。
注意,以下配置也属于本公开的技术范围。
(1)
一种信息处理装置,包括:
识别单元,其基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,
识别单元包括反馈识别器,该反馈识别器识别来自用户对由自主操作体执行的行为的反馈,并且
反馈识别器基于用户对自主操作体的接触动作和非接触动作的识别结果来识别反馈的程度。
(2)
根据(1)的信息处理装置,其中,
识别单元基于用户的话语信息或用户被成像的图像信息来识别非接触动作。
(3)
根据(1)或(2)的信息处理装置,其中,
识别单元基于接触动作和非接触动作的识别结果来确定反馈的类型。
(4)
根据(1)至(3)中任一项的信息处理装置,其中,
识别单元基于传感器信息确定用户的非接触动作是否针对自主操作体。
(5)
根据(1)至(4)中任一项的信息处理装置,其中,
在基于接触动作的识别结果的反馈的类型和基于非接触动作的识别结果的反馈的类型彼此不同的情况下,反馈识别器通过向接触动作的识别结果赋予权重来识别反馈的最终类型和程度。
(6)
根据(1)至(5)中任一项的信息处理装置,其中,
在预定时间内未获得接触动作的识别结果和非接触动作的识别结果两者的情况下,反馈识别器基于所获得的接触动作和非接触动作中的任一个的识别结果来识别反馈的类型和程度。
(7)
根据(1)至(6)中任一项的信息处理装置,其中,
识别单元进一步包括识别接触动作的物理接触识别器。
(8)
根据(7)的信息处理装置,其中,
物理接触识别器基于由包括在自主操作体中的接触传感器或惯性传感器收集的传感器信息来识别接触动作。
(9)
根据(8)的信息处理装置,其中,
物理接触识别器基于由于对自主操作体的每个部分的接触动作而由惯性传感器收集的传感器信息的学习结果来识别自主操作体的执行接触动作的部分。
(10)
根据(9)的信息处理装置,其中,
自主操作体包括至少两个惯性传感器,并且
物理接触识别器基于由两个惯性传感器收集的传感器信息来识别对未布置接触传感器的部分的接触动作。
(11)
根据(1)至(10)中任一项的信息处理装置,进一步包括:
动作计划单元,其基于识别单元的识别处理的结果来确定要由自主操作体执行的行为。
(12)
根据(11)的信息处理装置,其中,
动作计划单元基于由反馈识别器识别的反馈的类型和程度来校正与行为相关的分数,并且基于分数来确定要由自主操作体执行的行为。
(13)
根据(12)的信息处理装置,其中,
动作计划单元将反馈的类型和程度反映到自主操作体的情感中。
(14)
根据(12)或(13)的信息处理装置,其中,
动作计划单元使自主操作体优先执行未计算分数的行为。
(15)
根据(11)至(14)中任一项的信息处理装置,进一步包括:
学习单元,其学习每个用户的反馈的方面。
(16)
根据(15)的信息处理装置,其中,
动作计划单元使自主操作体执行预测用户给出负反馈的行为,并且
学习单元基于关于行为的反馈来学习来自用户的负反馈的方面。
(17)
一种信息处理方法,包括:
由处理器基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,
执行识别处理进一步包括:
使用识别来自用户对由自主操作体执行的行为的反馈的反馈识别器,并且基于用户对自主操作体的接触动作和非接触动作的识别结果来识别反馈的程度。
(18)
一种程序,用于使计算机用作信息处理装置,该信息处理装置包括:
识别单元,其基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,
识别单元包括反馈识别器,该反馈识别器识别来自用户对由自主操作体执行的行为的反馈,并且
反馈识别器基于用户对自主操作体的接触动作和非接触动作的识别结果来识别反馈的程度。
参考标记列表
10自主操作体
110输入单元
120识别单元
122物理接触识别器
124语音识别器
126反馈识别器
130学习单元
140动作计划单元
142行为选择器
144脊髓反射装置
150操作控制单元。
Claims (12)
1.一种信息处理装置,包括:
识别单元,基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,
所述识别单元包括反馈识别器,所述反馈识别器识别来自用户对由所述自主操作体执行的行为的反馈,并且
所述反馈识别器基于所述用户对所述自主操作体的接触动作和非接触动作的识别结果来识别正反馈和负反馈中的至少一个;以及
动作计划单元,基于所述识别单元的所述识别处理的结果来确定要由所述自主操作体执行的行为。
2.根据权利要求1所述的信息处理装置,其中,
所述识别单元基于所述用户的话语信息或所述用户被成像的图像信息来识别所述非接触动作。
3.根据权利要求1所述的信息处理装置,其中,
所述识别单元基于所述接触动作和所述非接触动作的所述识别结果来确定所述正反馈和所述负反馈中的至少一个的程度。
4.根据权利要求3所述的信息处理装置,其中,
在基于所述接触动作的所述识别结果的反馈的类型和基于所述非接触动作的所述识别结果的反馈的类型彼此不同的情况下,所述反馈识别器通过向所述接触动作的所述识别结果赋予权重来识别反馈的最终类型和程度。
5.根据权利要求1所述的信息处理装置,其中,
在预定时间内未获得所述接触动作的所述识别结果和所述非接触动作的所述识别结果两者的情况下,所述反馈识别器基于所获得的所述接触动作和所述非接触动作中的任一个的所述识别结果来识别所述正反馈和负反馈中的至少一个以及所识别的反馈的程度。
6.根据权利要求1所述的信息处理装置,其中,
所述识别单元进一步包括识别所述接触动作的物理接触识别器。
7.根据权利要求6所述的信息处理装置,其中,
所述物理接触识别器基于由包括在所述自主操作体中的接触传感器或惯性传感器收集的所述传感器信息来识别所述接触动作。
8.根据权利要求1所述的信息处理装置,其中,
所述动作计划单元基于由所述反馈识别器识别的所述正反馈和负反馈中的至少一个以及所识别的反馈的程度来校正与所述行为相关的分数,并且基于所述分数来确定要由所述自主操作体执行的所述行为。
9.根据权利要求8所述的信息处理装置,其中,
所述动作计划单元将所述正反馈和所述负反馈中的至少一个以及所识别的反馈的程度反映到所述自主操作体的情感中。
10.根据权利要求8所述的信息处理装置,其中,
所述动作计划单元使所述自主操作体优先执行未计算所述分数的行为。
11.一种信息处理方法,包括:
由处理器基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,
执行所述识别处理进一步包括:
使用识别来自用户对由所述自主操作体执行的行为的反馈的反馈识别器,并且基于所述用户对所述自主操作体的接触动作和非接触动作的识别结果来识别正反馈和负反馈中的至少一个;以及
由动作计划单元基于所述处理器的所述识别处理的结果来确定要由所述自主操作体执行的行为。
12.一种存储有程序的计算机存储介质,当被执行时,所述程序使计算机用作信息处理装置,所述信息处理装置包括:
识别单元,基于所收集的传感器信息执行用于确定自主操作体的动作的识别处理,其中,
所述识别单元包括反馈识别器,所述反馈识别器识别来自用户对由所述自主操作体执行的行为的反馈,并且
所述反馈识别器基于所述用户对所述自主操作体的接触动作和非接触动作的识别结果来识别正反馈和负反馈中的至少一个;以及
动作计划单元,基于所述识别单元的所述识别处理的结果来确定要由所述自主操作体执行的行为。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018218481 | 2018-11-21 | ||
| JP2018-218481 | 2018-11-21 | ||
| CN201980075385.9A CN113056315B (zh) | 2018-11-21 | 2019-10-11 | 信息处理装置、信息处理方法和程序 |
| PCT/JP2019/040162 WO2020105309A1 (ja) | 2018-11-21 | 2019-10-11 | 情報処理装置、情報処理方法、およびプログラム |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980075385.9A Division CN113056315B (zh) | 2018-11-21 | 2019-10-11 | 信息处理装置、信息处理方法和程序 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN116061210A true CN116061210A (zh) | 2023-05-05 |
| CN116061210B CN116061210B (zh) | 2025-10-24 |
Family
ID=70774047
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310098168.XA Active CN116061210B (zh) | 2018-11-21 | 2019-10-11 | 信息处理装置、信息处理方法和计算机存储介质 |
| CN201980075385.9A Active CN113056315B (zh) | 2018-11-21 | 2019-10-11 | 信息处理装置、信息处理方法和程序 |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980075385.9A Active CN113056315B (zh) | 2018-11-21 | 2019-10-11 | 信息处理装置、信息处理方法和程序 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12128543B2 (zh) |
| EP (1) | EP3885013A4 (zh) |
| JP (2) | JP7363809B2 (zh) |
| CN (2) | CN116061210B (zh) |
| WO (1) | WO2020105309A1 (zh) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11986746B2 (en) * | 2019-07-11 | 2024-05-21 | Sony Group Corporation | Information processing device and information processing method |
| US11957991B2 (en) * | 2020-03-06 | 2024-04-16 | Moose Creative Management Pty Limited | Balloon toy |
| CN115079684B (zh) | 2021-03-15 | 2025-11-28 | 华为技术有限公司 | 一种机器人的反馈方法及机器人 |
| JPWO2023037608A1 (zh) * | 2021-09-10 | 2023-03-16 | ||
| JP7742988B2 (ja) * | 2022-03-02 | 2025-09-24 | 株式会社デンソーウェーブ | 機械学習装置、及びロボットシステム |
| TWI837073B (zh) * | 2023-11-17 | 2024-03-21 | 三亞科技股份有限公司 | 擬真眼球與機器人 |
| TWI898955B (zh) * | 2024-12-11 | 2025-09-21 | 先鋒材料科技股份有限公司 | 仿生動物 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1092514A1 (en) * | 1999-01-07 | 2001-04-18 | Sony Corporation | Machine apparatus and its driving method, and recorded medium |
| JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
| JP2011054088A (ja) * | 2009-09-04 | 2011-03-17 | National Institute Of Information & Communication Technology | 情報処理装置、情報処理方法、プログラム及び対話システム |
| WO2018016461A1 (ja) * | 2016-07-20 | 2018-01-25 | Groove X株式会社 | スキンシップを理解する自律行動型ロボット |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6149490A (en) | 1998-12-15 | 2000-11-21 | Tiger Electronics, Ltd. | Interactive toy |
| WO2000067959A1 (en) * | 1999-05-10 | 2000-11-16 | Sony Corporation | Robot device and method for controlling the same |
| US6754560B2 (en) | 2000-03-31 | 2004-06-22 | Sony Corporation | Robot device, robot device action control method, external force detecting device and external force detecting method |
| JP2003340760A (ja) | 2002-05-20 | 2003-12-02 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
| ATE522330T1 (de) * | 2005-09-30 | 2011-09-15 | Irobot Corp | Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung |
| US8909370B2 (en) | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
| KR100941638B1 (ko) * | 2007-12-18 | 2010-02-11 | 한국전자통신연구원 | 접촉 행동 인식 시스템 및 그 방법 |
| CA2675913A1 (en) * | 2009-08-20 | 2011-02-20 | Thinking Technology Inc. | Interactive talking toy with moveable and detachable body parts |
| JP2013079861A (ja) * | 2011-10-04 | 2013-05-02 | Seiko Epson Corp | 接触センサー、ロボットハンド及びロボット |
| US9079113B2 (en) * | 2012-01-06 | 2015-07-14 | J. T. Labs Limited | Interactive personal robotic apparatus |
| JP6708154B2 (ja) | 2017-03-28 | 2020-06-10 | カシオ計算機株式会社 | 対象物検出装置、対象物検出方法、及びプログラム |
-
2019
- 2019-10-11 WO PCT/JP2019/040162 patent/WO2020105309A1/ja not_active Ceased
- 2019-10-11 CN CN202310098168.XA patent/CN116061210B/zh active Active
- 2019-10-11 CN CN201980075385.9A patent/CN113056315B/zh active Active
- 2019-10-11 US US17/293,243 patent/US12128543B2/en active Active
- 2019-10-11 JP JP2020558154A patent/JP7363809B2/ja active Active
- 2019-10-11 EP EP19886608.9A patent/EP3885013A4/en active Pending
-
2023
- 2023-10-03 JP JP2023172040A patent/JP7559900B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1092514A1 (en) * | 1999-01-07 | 2001-04-18 | Sony Corporation | Machine apparatus and its driving method, and recorded medium |
| JP2005199403A (ja) * | 2004-01-16 | 2005-07-28 | Sony Corp | 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置 |
| JP2011054088A (ja) * | 2009-09-04 | 2011-03-17 | National Institute Of Information & Communication Technology | 情報処理装置、情報処理方法、プログラム及び対話システム |
| WO2018016461A1 (ja) * | 2016-07-20 | 2018-01-25 | Groove X株式会社 | スキンシップを理解する自律行動型ロボット |
Also Published As
| Publication number | Publication date |
|---|---|
| US12128543B2 (en) | 2024-10-29 |
| EP3885013A1 (en) | 2021-09-29 |
| CN116061210B (zh) | 2025-10-24 |
| CN113056315A (zh) | 2021-06-29 |
| WO2020105309A1 (ja) | 2020-05-28 |
| JPWO2020105309A1 (ja) | 2021-10-07 |
| US20220001547A1 (en) | 2022-01-06 |
| CN113056315B (zh) | 2023-01-31 |
| JP7363809B2 (ja) | 2023-10-18 |
| EP3885013A4 (en) | 2022-03-02 |
| JP2024009862A (ja) | 2024-01-23 |
| JP7559900B2 (ja) | 2024-10-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113056315B (zh) | 信息处理装置、信息处理方法和程序 | |
| JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
| JP7747032B2 (ja) | 情報処理装置及び情報処理方法 | |
| US12204338B2 (en) | Information processing apparatus, information processing method, and program | |
| JP7375748B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| US20210031378A1 (en) | Information processor, information processing method, and program | |
| JPWO2019138618A1 (ja) | 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム | |
| US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
| JP7363823B2 (ja) | 情報処理装置、および情報処理方法 | |
| WO2021005878A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
| US11921509B2 (en) | Information processing apparatus, information processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |