[go: up one dir, main page]

CN113994424A - 识别语音识别引擎的输入 - Google Patents

识别语音识别引擎的输入 Download PDF

Info

Publication number
CN113994424A
CN113994424A CN202080044362.4A CN202080044362A CN113994424A CN 113994424 A CN113994424 A CN 113994424A CN 202080044362 A CN202080044362 A CN 202080044362A CN 113994424 A CN113994424 A CN 113994424A
Authority
CN
China
Prior art keywords
pause
audio signal
speech
user
speech activity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080044362.4A
Other languages
English (en)
Other versions
CN113994424B (zh
Inventor
A·R·希德
T·阿罗拉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of CN113994424A publication Critical patent/CN113994424A/zh
Application granted granted Critical
Publication of CN113994424B publication Critical patent/CN113994424B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了一种向语音识别引擎呈现信号的方法。根据该方法的示例,从用户处接收音频信号。识别音频信号的一部分,该部分具有第一时间和第二时间。识别音频信号的该部分中的停顿,该停顿包括第二时间。确定停顿是否指示音频信号的话语的完成。根据确定停顿指示话语的完成,音频信号的该部分作为输入呈现给语音识别引擎。根据确定停顿不指示话语的完成,音频信号的该部分不作为输入呈现给语音识别引擎。

Description

识别语音识别引擎的输入
相关申请的交叉引用
本申请根据35U.S.C.§119主张2019年4月19日提交的美国临时专利申请62/836,593的优先权,为所有目的该申请的全部内容通过引用并入此文。
技术领域
本公开一般地涉及处理语音信号的系统和方法,更具体地,涉及处理呈现给语音识别引擎的语音信号的系统和方法。
背景技术
用于语音识别的系统的任务是通常经由一个或多个麦克风接收表示人类语音的音频输入,然后处理音频输入以确定与该音频输入相对应的词、逻辑结构、或其他输出。例如,自动语音识别(ASR)系统可以基于与音频输入信号相对应的人类语音生成文本输出;自然语言处理(NLP)工具可以生成与人类语音含义相对应的逻辑结构或计算机数据。虽然一些ASR系统可能对预先录制的大量语音进行操作—例如,一个系统的任务是创建前一天由麦克风录制的语音的书面抄本—但一些ASR系统必须对实时提供的语音输入做出响应。实时语音处理给ASR系统带来了一系列独特的挑战。例如,ASR系统通常不是将语音作为单一的输入块来处理,而是作为一系列承载含义的单个单词或短语(“话语(utterance)”)来处理。
识别话语何时开始和结束对于ASR系统准确处理用户的输入语音并提供所需的结果可能是至关重要的。例如,考虑与天气报告服务通信的实时“语音助手”ASR系统:该ASR系统可以接收来自询问天气的用户的语音输入(例如,“当前天气如何?”);将语音输入转换为结构化查询(例如,查询指示特定日期和时间以及特定位置的过去、当前或预测的未来的天气的数据);将结构化查询呈现给天气报告服务;从服务接收查询结果;并将查询结果呈现给用户。用户希望ASR系统处理他或她的完整问题(而不是问题的单个片段),并迅速提供准确的响应。用户进一步希望ASR系统将处理不需要遵循特定、严格格式的自然口语命令。在这个示例系统中,ASR有责任实时识别用户的完整问题;并及时—理想情况下,在用户完成了问题的提问之后立即—处理问题以产生准确的响应。
在该示例系统中,响应的准确性可能取决于ASR系统何时确定用户的问题(话语)完成。例如,用户可能会问:“明天天气如何?”如果ASR系统在“天气怎么样”之后过早地确定话语完成,则它对天气服务的对应查询将省略修饰词“明天”,因此得到的响应将是不准确的(它不会反映用户期望的日期/时间)。相反,如果ASR系统采取更保守的方法,并在处理话语之前等待几秒钟以确认整个话语已完成,则用户可能不会认为ASR系统对他或她的命令有足够的响应(此外,在某些情况下,如此长的等待时段可能会因在话语中包含不相关的后续语音而造成不准确)。
ASR系统努力解决这个迅速、实时地确定说话者的话语何时完成的问题。在一些系统中,使用固定的超时时段来确定话语的终结点:如果在语音输入之后,在超时时段的持续时间(例如,750ms)内没有接收到语音,则语音输入可能被认为是话语的结束。但是,固定超时时段的解决方案并不完美:例如,在用户停顿以构思问题的情况下;用户暂时被打断的情况下;或者在用户的讲话不流利的情况下(例如,由于焦虑、语言障碍、环境干扰、认知负荷等),超时时段可能会在用户话语完成之前终止。相反,一旦用户的话语完成,响应至少会延迟超时时段的持续时间(在此期间ASR系统确认没有收到进一步的输入),并且用户无法在这段持续时间内提供额外的语音输入(例如,属于新的话语)。这种交互限制了ASR系统的实用性,并且可能无益地突显用户正在与机器而不是另一个人进行通信。
希望ASR系统采用更直观的方法来确定用户何时完成提供话语。在普通的面对面交流中—在更轻度的电话交流中—人们使用各种情景线索来了解另一人何时已经结束谈话。例如,在说话者停顿时,人们会评估说话者的韵律、面部表情、眼睛注视、言谈举止、手势、和姿势,以指示说话者是说完了,还是只是在单个想法中间停顿了一下。ASR系统可以使用类似的提示来识别用户的话语的开始和结束位置。如下所述,在一些示例中,ASR系统可以从麦克风输入中识别这样的情景提示;在一些示例中,与一个或多个传感器(例如,作为可穿戴系统的一部分)通信的ASR系统可以从这些传感器的输出中收集关于说话者的额外语音提示,并使用这些提示来识别话语边界,而不存在与常规解决方案相关的问题,诸如上述问题。
发明内容
公开了一种向语音识别引擎呈现信号的方法。根据该方法的示例,从用户处接收音频信号。识别音频信号的一部分,该部分具有第一时间和第二时间。识别音频信号的一部分中的停顿,该停顿包括所述第二时间。确定停顿是否指示音频信号的话语的完成。根据确定停顿指示话语的完成,音频信号的一部分作为输入呈现给语音识别引擎。根据确定停顿不指示所述话语的完成,音频信号的一部分不作为输入呈现给语音识别引擎。
附图说明
图1示出了根据本公开的示例的示例可穿戴系统。
图2示出了根据本公开的示例的可以结合示例可穿戴系统使用的示例手持控制器。
图3示出了根据本公开的示例的可以结合示例可穿戴系统使用的示例辅助单元。
图4示出了根据本公开的一个或多个示例的示例可穿戴系统的示例功能框图。
图5示出了根据本公开的一个或多个示例的用于输入到示例ASR系统的示例音频波形。
图6示出了根据本公开的一个或多个示例的使用ASR系统处理声学语音信号的示例的流程图。
图7示出了根据本公开的一个或多个示例的使用ASR系统处理声学语音信号的示例的流程图。
图8A-图8B示出了根据本公开的一个或多个示例的检测输入语音信号中的停顿的示例的流程图。
图9A-图9B示出了根据本公开的一个或多个示例的确定输入话语是否已经终止的示例的流程图。
图10示出了根据本公开的一个或多个示例的对输入数据进行分类以确定与该输入数据相关联的概率的示例的流程图。
具体实施方式
在下面对示例的描述中,参考了形成其一部分的附图,并且在附图中通过图示示出了可以实践的特定示例。应当理解,在不脱离所公开示例的范围的情况下,可以使用其他示例并且可以进行结构改变。
示例可穿戴系统
图1示出了被配置为穿戴在用户的头部的示例可穿戴头部设备100。可穿戴头部设备100可以是更广泛的可穿戴系统的一部分,该可穿戴系统包括一个或多个组件,诸如头部设备(例如,可穿戴头部设备100)、手持控制器(例如,下面描述的手持控制器200)、和/或辅助单元(例如,下面描述的辅助单元300)。在一些示例中,可穿戴头部设备100可用于虚拟现实、增强现实、或混合现实系统或应用。可穿戴头部设备100可以包括一个或多个显示器,诸如显示器110A和110B(其可以包括左右透射显示器,以及用于将来自显示器的光耦合到用户眼睛的相关组件,诸如正交光瞳扩展(OPE)光栅组112A/112B和出射光瞳扩展(EPE)光栅组114A/114B);左右声学结构,诸如扬声器120A和120B(它们可以被安装在镜腿122A和122B上,并分别定位在用户的左耳和右耳附近);一个或多个传感器,诸如红外传感器、加速度计、GPS单元、惯性测量单元(IMU)(例如IMU126)、声学传感器(例如,麦克风150);正交线圈电磁接收器(例如,所示的安装在左镜腿122A上的接收器127);远离用户取向的左右相机(例如,深度(飞行时间)相机130A和130B);以及朝着用户取向的左眼相机和右眼相机(例如,用于检测用户的眼睛运动)(例如,眼睛相机128和128B)。然而,在不脱离本发明的范围的情况下,可穿戴头部设备100可以结合任何合适的显示技术,以及任何合适数量、类型或组合的传感器或其他组件。在一些示例中,可穿戴头部设备100可以集成被配置为检测由用户话音生成的音频信号的一个或多个麦克风150;此类麦克风可以被放置在可穿戴头部设备中邻近用户嘴部。在一些示例中,可穿戴头部设备100可以集成网络特征(例如,Wi-Fi功能)以与包括其他可穿戴系统的其他设备和系统进行通信。可穿戴头部设备100还可以包括诸如电池、处理器、存储器、存储单元、或各种输入设备(例如,按钮、触摸板)之类的组件;或者可以被耦合到包括一个或多个这样的组件的手持控制器(例如,手持控制器200)或辅助单元(例如,辅助单元300)。在一些示例中,传感器可以被配置为输出头戴式单元相对于用户的环境的一组坐标,并且可以向执行即时定位与建图(SLAM)过程和/或视觉测程算法的处理器提供输入。在一些示例中,可穿戴头部设备100可以被耦合到手持控制器200和/或辅助单元300,如下文进一步描述的。
图2示出了示例可穿戴系统的示例移动手持控制器组件200。在一些示例中,手持控制器200可以与可穿戴头部设备100和/或下文描述的辅助单元300进行有线或无线通信。在一些示例中,手持控制器200包括将由用户握持的手柄部分220,以及沿顶部表面210设置的一个或多个按钮240。在一些示例中,手持控制器200可以被配置为用作光学跟踪目标;例如,可穿戴头部设备100的传感器(例如,相机或其他光学传感器)可以被配置为检测手持控制器200的位置和/或取向—其可通过扩展来指示握持手持控制器200的用户的手部的位置和/或取向。在一些示例中,手持控制器200可以如上所述包括处理器、存储器、存储单元、显示器、或一个或多个输入设备。在一些示例中,手持控制器200包括一个或多个传感器(例如,上文关于可穿戴头部设备100描述的任何传感器或跟踪组件)。在一些示例中,传感器可以检测手持控制器200相对于可穿戴头部设备100或可穿戴系统的另一组件的位置或取向。在一些示例中,传感器可以被定位在手持控制器200的手柄部分220中,和/或可以被机械耦合到手持控制器。手持控制器200可以被配置为提供例如与按钮240的按下状态相对应的一个或多个输出信号;或手持控制器200的位置、取向、和/或运动(例如,经由IMU)。这样的输出信号可以用作到可穿戴头部设备100的处理器、辅助单元300、或可穿戴系统的另一组件的输入。在一些示例中,手持控制器200可以包括一个或多个麦克风以检测声音(例如,用户的语音、环境声音),并且在一些情况下将与检测到的声音相对应的信号提供给处理器(例如,可穿戴头部设备100的处理器)。
图3示出了示例可穿戴系统的示例辅助单元300。在一些示例中,辅助单元300可以与可穿戴头部设备100和/或手持控制器200进行有线或无线通信。辅助单元300可以包括电池以提供能量来操作可穿戴系统的一个或多个组件,诸如可穿戴头设备100和/或手持控制器200(包括显示器、传感器、声学结构、处理器、麦克风、和/或可穿戴头设备100或手持控制器200的其他组件)。在一些示例中,辅助单元300可以包括诸如上文所述的处理器、存储器、存储单元、显示器、一个或多个输入设备、和/或一个或多个传感器。在一些示例中,辅助单元300包括用于将辅助单元附接到用户(例如,用户穿戴的腰带)的夹子310。使用辅助单元300来容纳可穿戴系统的一个或多个组件的一个优点是,这样做可以允许用户的腰部、胸部、或背部携带大或重的组件—这些身体部分相对适合支撑大而重的物体—而不是安装到用户的头部(例如,如果安装在可穿戴头部设备100中)或由用户的手部携带(例如,如果安装在手持控制器200中)。这对于相对重或大的组件(诸如,电池)可能特别有利。
图4示出了可以与示例可穿戴系统400相对应的示例功能框图,诸如可以包括上述示例可穿戴头部设备100、手持控制器200、和辅助单元300。在一些示例中,可穿戴系统400可用于虚拟现实、增强现实、或混合现实应用。如图4所示,可穿戴系统400可以包括示例手持控制器400B,这里被称为“图腾”(并且可以对应于上述手持控制器200);手持控制器400B可以包括图腾到头戴装置六自由度(6DOF)图腾子系统404A。可穿戴系统400还可以包括示例可穿戴头部设备400A(其可以对应于上述的可穿戴头部设备100);可穿戴头部设备400A包括图腾到头戴装置6DOF头戴装置子系统404B。在该示例中,6DOF图腾子系统404A和6DOF头戴装置子系统404B合作确定手持控制器400B相对于可穿戴头部设备400A的六个坐标(例如,在三个平移方向上的偏移和沿三个轴的旋转)。可以相对于可穿戴头部设备400A的坐标系来体现六个自由度。这三个平移偏移可以被表示为这样的坐标系中的X、Y、和Z偏移,被表示为平移矩阵,或被表示为一些其他表示。旋转自由度可以被表示为偏航、俯仰、和翻滚旋转的顺序;被表示为向量;被表示为旋转矩阵;被表示为四元数;或被表示为其他一些表示。在一些示例中,可穿戴头部设备400A中包括一个或多个深度相机444(和/或一个或多个非深度相机);和/或一个或多个光学目标(例如,上述手持控制器200的按钮240,或包括在手持控制器中的专用光学目标)可用于6DOF跟踪。在一些示例中,手持控制器400B可以包括上述相机;并且头戴装置400A可以包括用于结合相机进行光学跟踪的光学目标。在一些示例中,可穿戴头部设备400A和手持控制器400B各自包括一组三个正交取向的螺线管,其用于无线地发送和接收三个可区分的信号。通过测量在用于接收的每个线圈中接收到的三个可区分信号的相对幅度,可以确定手持控制器400B相对于可穿戴头部设备400A的6DOF。在一些示例中,6DOF图腾子系统404A可以包括惯性测量单元(IMU),其用于提供关于手持控制器400B的快速移动的改进的准确度和/或更及时的信息。
在涉及增强现实或混合现实应用的一些示例中,可能需要将坐标从局部坐标空间(例如,相对于可穿戴头部设备400A固定的坐标空间)变换到惯性坐标空间,或变换到环境坐标空间。例如,对于可穿戴头部设备400A的显示器,需要此类变换以在相对于真实环境的预期位置和取向处呈现虚拟对象(例如,坐在真实椅子上、面朝前方的虚拟人,而不管可穿戴头部设备400A的位置和取向),而不是在显示器上的固定位置和取向上(例如,在可穿戴头部设备400A的显示器中的相同位置处)呈现虚拟对象。这可以保持虚拟对象存在于真实环境中的错觉(并且例如不会随着可穿戴头部设备400A移动和旋转而出现在真实环境中的不自然位置)。在一些示例中,可以通过处理来自深度相机444的影像以确定可穿戴头部设备400A相对于惯性或环境坐标系的变换,从而确定坐标空间之间的补偿变换(例如,使用即时定位与建图(SLAM)和/或视觉测距程序)。在图4所示的示例中,深度相机444可以被耦合到SLAM/视觉测距块406并且可以向块406提供影像。SLAM/视觉测距块406实施方式可以包括被配置为处理该影像并且确定用户头部的位置和取向的处理器,然后可以使用该位置和取向来识别头部坐标空间和真实坐标空间之间的变换。类似地,在一些示例中,从可穿戴头部设备400A的IMU 409获得关于用户的头部姿势和位置的附加信息源。来自IMU 409的信息可以与来自SLAM/视觉测距块406的信息集成以提供关于用户的头部姿势和位置的快速调整的改进的准确度和/或更及时的信息。
在一些示例中,深度相机444可以向手势跟踪器411提供3D影像,手势跟踪器411可以在可穿戴头部设备400A的处理器中实现。手势跟踪器411例如可以通过将从深度相机444接收的3D影像与存储的表示手势的图案进行匹配来识别用户的手势。识别用户的手势的其他合适技术将是显而易见的。
在一些示例中,一个或多个处理器416可以被配置为从头戴装置子系统404B、IMU409、SLAM/视觉测距块406、深度相机444、麦克风450接收数据;和/或手势跟踪器411接收数据。处理器416还可以从自6DOF图腾系统404A发送和接收控制信号。处理器416可以被无线耦合到6DOF图腾系统404A,诸如在未配备(untether)手持控制器400B的示例中。处理器416还可与附加组件通信,诸如视听内容存储器418、图形处理单元(GPU)420、和/或数字信号处理器(DSP)音频立体空间效果器422。DSP音频立体空间效果器422可以耦合到头部相关传递函数(HRTF)存储器425。GPU 420可以包括被耦合到左侧按图像调制光源424的左通道输出和耦合到右侧按图像调制光源426的右通道输出。GPU 420可以将立体图像数据输出到按图像调制光源424、426。DSP音频立体空间效果器422可以将音频输出到左扬声器412和/或右扬声器414。DSP音频立体空间效果器422可以从处理器419接收指示从用户到虚拟声源(可由用户例如经由手持控制器400B移动)的方向向量的输入。基于方向向量,DSP音频立体空间效果器422可以确定对应的HRTF(例如,通过访问HRTF,或通过内插多个HRTF)。DSP音频立体空间效果器422然后可以将所确定的HRTF应用于音频信号,诸如对应于由虚拟对象生成的虚拟声音的音频信号。这可以通过在混合现实环境中纳入用户相对于虚拟声音的相对位置和取向来增强虚拟声音的可信度和真实感—也就是说,呈现与用户期望相匹配的虚拟声音,使得虚拟声音听起来就像是真实环境中的真实声音。
在一些示例中,例如图4所示,处理器416、GPU 420、DSP音频立体空间效果器422、HRTF存储器425、和视听内容存储器418中的一个或多个可以被包括在辅助单元400C(其可以对应于上述辅助单元300)中。辅助单元400C可以包括电池427以为其组件供电和/或为可穿戴头部设备400A和/或手持控制器400B供电。在可以安装到用户腰部的辅助单元中包括这样的组件可以限制可穿戴头部设备400A的尺寸和重量,进而可以缓解用户头部和颈部的疲劳。
尽管图4呈现了与示例可穿戴系统400的各种组件相对应的元件,但是这些组件的各种其他合适的布置对于本领域技术人员来说将变得显而易见。例如,图4呈现为与辅助单元400C相关联的元件可替代地与可穿戴头部设备400A或手持控制器400B相关联。此外,一些可穿戴系统可以完全放弃手持控制器400B或辅助单元400C。此类变化和修改应被理解为被包括在所公开示例的范围内。
语音识别系统
语音识别系统通常包括语音识别引擎,其可以接受与人类语音相对应的输入音频信号(源信号);处理和分析所输入的音频信号;并根据分析产生对应于人类语音的输出。例如,在自动语音识别(ASR)系统的情况下,语音识别引擎的输出可以是人类语音的文本转录。在自然语言处理系统的情况下,输出可能是由人类语音所指示的一个或多个命令或指令;或人类语音的语义的某种表示(例如,逻辑表达式或数据结构)。其他类型的包括那些不一定“识别”语音的系统的语音处理系统(例如,自动翻译系统)也被考虑在内并且在本公开的范围内。此外,如本文所用,语音识别引擎可以包括自动语音识别引擎、自然语言理解引擎、和其他合适的组件中的一个或多个。
ASR系统存在于多种产品和应用中:常规电话系统;自动语音消息系统;语音助手(包括独立和基于智能手机的话音助手);车辆和飞机;桌面和文件处理软件;数据输入;家用电器;医疗设备;语言翻译软件;隐藏式字幕系统等。ASR系统的一个优点是它们可以允许用户使用自然口语向计算机系统提供输入,诸如呈现给麦克风,而不是常规计算机输入设备,诸如键盘或触摸板;因此,语音识别系统在常规输入设备(例如,键盘)不可用或不切实际的环境中特别有用。此外,通过允许用户提供直观的基于话音的输入,语音识别引擎可以增强沉浸感。因此,ASR可以很自然地适用于可穿戴系统,特别是可穿戴系统的虚拟现实、增强现实、和/或混合现实应用,在这些应用中,用户沉浸是主要目标,并且需要限制使用其存在影响沉浸感的常规计算机输入设备。
识别输入语音边界
ASR系统的有效性受限于其将准确的输入数据迅速呈现给语音识别引擎的能力。呈现准确的输入数据可能需要正确识别各个输入序列何时开始和结束。一些ASR系统难以及时和实时地确定说话者的话语何时完成。本公开涉及通过准确地识别作为语音处理系统的输入呈现的话语的结束点来提高语音处理系统的准确度的系统和方法。快速准确地确定话语结束的位置使语音处理系统能够及时并实时地提供正确的结果—即响应输入音频的实时流,其中整个输入音频信号无法提前知道。
图5示出了示例音频波形500,诸如可以由一个或多个麦克风检测到并作为输入呈现给ASR系统的音频波形。波形500表示用户说出示例话语“What’s the weather tomorrowin Moscow?(莫斯科的天气怎样?)”,其目的是接收该话语作为输入的ASR系统将查询天气服务,并以莫斯科明天的天气预报做出响应。ASR系统响应的速度和准确性将取决于ASR系统确定用户话语的结束点。示例波形500在初始时间t0处开始。如果ASR系统过早地确定话语在时间t1处(该时间落在短语“what's the weather(天气怎样)”之后和单词“tomorrow(明天)”之前)结束,则输入话语(即落在时间t0和时间t1之间的输入语音)将被确定为“what’s the weather(天气怎样)”。由于此输入话语缺少用户添加的限定词(即“tomorrow(明天)”和“in Moscow(莫斯科)”),因此ASR系统对此话语的响应将不符合用户的期望。例如,系统可能会返回用户当前位置(不是莫斯科)的当前天气(不是明天的天气)。类似地,如果ASR系统确定话语在时间t2处(该时间落在短语“what’s the weather tomorrow(明天天气怎样)”之后和短语“in Moscow(莫斯科)”之前,)结束,则输入话语(即落在时间t0和时间t2之间的输入语音)将被确定为“what’s the weather tomorrow(明天天气怎样)”,并且由此产生的响应将再次不符合用户的期望(莫斯科明天天气)。理想的ASR系统可以确定话语的结束时间是t3,该时间恰好落在整个输入查询结束时刻,并且会正确地将输入话语识别为“what’s the weather in Moscow(莫斯科天气怎样)”。
理想的ASR系统也不包括输入信号中不属于输入话语的结尾部分。例如,如果ASR系统确定话语在时间t4处结束,则输入话语将包括所有正确的输入语音(即“what’s theweather in Moscow”(莫斯科天气怎样)),但也会包括无关信息(t3和t4之间的输入语音信号部分)。这种无关信息可能会在输入话语中引入错误,并且会进一步延迟ASR系统的响应(即,至少延迟t3和t4之间的信号处理时间跨度),导致用户感知到响应不足。
一些ASR系统可能错误地识别输入话语的终结点。例如,在以示例波形500作为输入呈现时,一些ASR系统可能会错误地将话语的结束点识别为t1、t2、或t4,而不是t3
图6示出了可以由ASR系统执行的示例过程600。示例过程600使用超时时间间隔来确定输入话语何时终止;也就是说,当输入语音在超过超时时间间隔的时间段还没有被接收到时,话语被认为完成,并被呈现给ASR引擎进行处理。如图所示,在阶段610从一个或多个麦克风602实时检测输入语音。在阶段620,过程600确定是否仍在接收输入语音;如果是,则认为输入话语正在进行,并且过程600返回到阶段610以继续检测输入语音。如果不是,则过程600查询超时时间间隔632是否已经结束。如果不是,则过程600返回到阶段610;如果是,则认为该话语完成(阶段640)。在阶段650,过程600然后将话语(或话语的某种表示)呈现给ASR引擎660进行处理。ASR引擎660可以生成输入话语的语音转文本表示。自然语言理解(NLU)引擎665可以基于该表示执行额外的处理。例如,NLU引擎665可以生成从ASR引擎660输出的语音转文本表示的语义表示;确定输入话语表示对天气报告的请求;使用根据输入话语生成的结构化查询来查询天气报告服务;并接收来自天气报告服务的响应。在一些实施例中,过程600可以流式传输话语(或话语的某种表示)进行处理(例如,由ASR引擎660)。在一些实施例中,ASR引擎660可以返回或输出增量结果。在一些实施例中,NLU引擎665可以从ASR引擎660接收输出以在话语终止之后进行处理。在阶段670,过程600可以从NLU引擎665接收响应,并且在阶段680将响应呈现给用户(例如,经由耦合到输出扬声器的文本转语音引擎)。
上述过程600容易出错,因为通过使用简单的超时时间间隔在阶段630和640终止输入话语,过程600可以在用户已经完成说出话语之前过早地终止话语。参考上述波形500,这可能导致输入话语在时间t1或t2而不是t3终止。这可能发生在用户不经意间在单个话语的两个词之间插入非语音间隙时(例如,在示例波形500中,在“weather(天气)”和“tomorrow(明天)”之间或“tomorrow(明天)”和“Moscow(莫斯科)”之间停顿)。如果这些间隙超过超时时间间隔632的长度,则过程600可能过早地确定输入话语已完成,即使用户仍在继续说该话语(这种情况在以下情况下尤为常见:即,其中用户需要额外的时间来构思他们的问题的复杂输入查询;或者用户具有语音障碍;或者用户在与麦克风或ASR系统交互时感到焦虑)。
该问题不能简单地通过增加超时时间间隔632的长度来完全解决,因为在该时间间隔的持续时间与ASR系统的感知响应性之间存在折衷。也就是说,即使超时时间间隔632可以增加以超过任何可能的话语内输入间隙—防止过程600过早地切断输入话语—ASR系统也会等待该延长超时时间间隔的持续时间,然后再确定话语结束。这种延迟可能会惹恼用户,他们可能会将延迟视为无响应—尤其是与听众可以快速直观地了解讲话者何时说完的面对面人际互动相比。在一些实施例中,延迟可导致串扰—在用户感知到ASR系统无响应并再次开始说话(例如,复述初始输入)时—这可能导致一连串错误。
图7示出了可以比过程600更迅速、准确地识别输入话语的示例过程700(例如,可以由ASR系统执行)。在过程700中,如下所述,可以检测输入语音中的停顿,然后分析情景提示以指示停顿是否可能表示当前话语的完成(在这种情况下,话语可以被终止并呈现给ASR引擎和NLU引擎),或者停顿是否指示当前话语是正在进行(在这种情况下,ASR系统应继续检测当前话语)。
在过程700中,在阶段710从一个或多个麦克风602检测由用户呈现的音频输入(在一些示例中,作为麦克风输出的替代或补充,音频输入可以作为流数据或作为一个或多个数据文件接收)。该音频输入可以被存储在输入缓冲器或其他存储器中,以供过程700访问。在阶段720,过程700可以确定(例如,基于输入缓冲器和/或传感器数据,如下文更详细的描述)用户在呈现输入语音时是否停顿。如果未检测到停顿,则指示用户的当前话语正在进行,则该过程可以返回到阶段710以继续检测音频输入。如果在阶段720检测到停顿,则过程700可以在阶段730确定停顿指示当前话语的完成(而不是当前话语的继续)的可能性。例如,阶段720可以确定数字置信度,该值表示停顿指示当前话语完成的可能性。可以基于输入缓冲器和/或传感器数据的内容来做出该确定,如下文更详细地描述的。
在阶段732,过程700可以评估在阶段730处的检测到的停顿是否指示当前话语完成的确定。如果已经以足够的置信度(例如,以超过阈值的置信度水平)确定停顿指示当前话语完成,则过程700可以继续以终止话语(阶段740);将话语(阶段750)呈现给ASR引擎(760);从NLU引擎(765)接收响应(阶段770);并将响应呈现给用户(阶段780)。这些步骤可以分别与上文关于过程600描述的阶段640、阶段650、ASR引擎660、NLU引擎665、阶段670、和阶段680相对应。
如果过程700确定停顿不太可能指示当前话语已完成(例如,确定的置信度水平不满足阈值),则过程700在阶段732可以采取各种动作作为响应。在一些示例中,过程700可以调整或重置(阶段734)用于确定是否检测到停顿(诸如本文关于阶段720所描述的)的参数。例如,过程700在阶段734可以增加或重置在阶段720处用于检测输入语音中的停顿的超时时间间隔。如果过程700确定需要更多时间来确定用户是否打算完成当前话语,则这可能是有益的。在一些示例中,过程700可以向用户呈现提示(阶段736),诸如进行附加输入的提示(例如,要求用户表明其是否已完成讲话的视和/或听提示)。这在不清楚当前话语是否完成的情况下是有益的—例如,在过程700返回小于但接近阈值的置信度的情况下。在一些示例中,当检测到停顿未指示当前话语完成时,过程700可以将当前话语与第二话语组合(阶段738);例如,将停顿之前的话语可以与停顿之后的第二话语连接起来,以便向语音识别引擎(例如,ASR引擎和/或NLU引擎)呈现组合的话语。在一些示例中,过程700可以返回到阶段710以继续检测输入语音,而不用采取诸如关于阶段734、736、或738所描述的任何附加动作;在阶段730返回的置信度远低于终止当前话语所需的阈值的情况下,可以优选采取这种行为。
图8A示出了用于实现过程700的阶段720(诸如上面关于图7所描述的)的示例过程的流程图。在图中,可以评估音频输入数据810(例如,存储在输入缓冲器中的语音输入信号)以确定输入中的停顿的存在。在阶段820,该过程可以确定输入信号的一个或多个特性的值高于还是低于阈值持续了超过超时时间间隔的一个时段。在一些示例中,可以确定输入信号的幅度是否低于阈值幅度水平持续了超过超时时间间隔的一个时段。如果是,则可以指示用户的输入语音中的停顿(阶段860),例如上面关于图6所描述的。在一些实施例中,超时时间间隔的长度可取决于特性而变化。在一些示例中,频谱分析可以将语音信号识别为与其他环境或附带声音不同,并且可以确定分析的输出高于还是低于一个或多个阈值持续了超过超时时间间隔的一个时段。
然而,即使在阶段820确定超时时间间隔822尚未结束,该过程也可以检查音频输入数据810(阶段830)以确定语音数据是否包括指示输入语音中的停顿的语言提示(而非相对的静音)。这些语言提示可以包括用户的韵律特征(例如,节奏、语调、音色、音量)、尾随词的存在、结束词或短语(例如,完成语言请求时的“谢谢”)的存在等。这些语言提示可以指示当前话语完成,即使超时时间间隔尚未结束。在阶段840,该过程可以评估是否存在任何这样的语言提示,如果存在,则它们指示输入语音已停顿(阶段860)还是未停顿(阶段850)。在一些情况下,阶段840可以通过将在阶段830生成的置信度与阈值进行比较来做出该确定。通过评估语言提示的存在以指示话语已完成,甚至在超时时间间隔期满之前,该过程可以避免由于在呈现要处理(例如,由ASR引擎和/或NLU引擎)的话语之前等待超时时间间隔终止而导致的无响应感,如上文所述。
图8B示出了用于实现过程700的阶段720的示例过程的流程图,其中使用传感器输入数据844代替或结合诸如上述的音频输入数据810。在一些示例中,如上所述,传感器输入数据844可以与来自诸如上文关于图1中的示例可穿戴头部设备100所描述的传感器的数据相对应。如上所述,这种可穿戴系统可以包括一个或多个传感器,这些传感器可以提供关于用户和/或可穿戴系统的环境的输入。例如,可穿戴头部设备100可以包括相机(例如,图4中描述的相机444)以输出与环境相对应的视觉信号;在一些示例中,相机可以是头戴式单元上的面向前方的相机(用于显示当前在可穿戴系统用户前方的内容)。在一些示例中,可穿戴头部设备100可以包括LIDAR单元、雷达单元、和/或声学传感器,其可以输出与用户环境的物理几何形状(例如,墙壁、物理对象)相对应的信号。在一些示例中,可穿戴头部设备100可以包括GPS单元,其可以指示与可穿戴系统的当前位置相对应的地理坐标。在一些示例中,可穿戴头部设备100可以包括加速度计、陀螺仪;和/或惯性测量单元(IMU)以指示可穿戴头部设备100的取向。在一些示例中,可穿戴头部设备100可以包括环境传感器,诸如温度或压力传感器。在一些示例中,可穿戴头部设备100可以包括生物识别传感器,诸如虹膜相机;指纹传感器;眼睛跟踪传感器(例如,眼电图(EOG)传感器),以测量用户的眼睛运动或眼睛注视;或测量用户的生命体征的传感器。在可穿戴头部设备100包括头戴式单元的示例中,这样的取向可以与用户的头部的取向相对应(并且,通过扩展,与用户的嘴部和用户的语音的方向相对应)。可以包括其他合适的传感器并且这些传感器可以提供传感器输入数据844。此外,在一些示例中,可以适当地利用可穿戴系统的这些传感器之外的传感器。例如,可以将与语音识别系统的麦克风相关联的传感器(例如,GPS、IMU)与可穿戴系统的传感器结合使用以确定用户与语音识别系统之间的相对距离和取向。
在阶段842,过程800可以检查传感器输入数据844以确定传感器数据是否包括指示输入语音中的停顿的非语言提示。这些非语言提示例如可以包括用户的眼睛注视的特征;头部姿势;手势;生命体征(例如,呼吸方式、心率);和面部表情。这些非语言提示可以指示当前话语完成,即使超时时间间隔尚未结束,并且甚至在没有诸如上面关于图8A所述的语言提示的情况下。例如,用户语音中的停顿可能对应于:用户眼睛注视目标的变化、用户头部姿势的变化、用户执行的手势、用户生命体征(例如,呼吸方式、心脏率)的变化、用户面部表情的变化、远离麦克风的移动或旋转的变化、用户姿势的变化或由传感器输入数据844指示的其他物理特征的变化、取向的变化、和/或上述特征中的任何一项或多项的变化。在阶段846,该过程可以评估是否存在任何这样的非语言提示,如果存在,则它们指示输入语音已停顿(阶段860)还是未停顿(阶段850)。在一些情况下,阶段846可以通过将在阶段842生成的置信度与阈值进行比较来做出该确定。如上所述,通过评估非语言提示的存在以指示话语已完成,甚至在超时时间间隔期满之前,该过程可以避免由于在将话语呈现给语音识别引擎之前等待超时时间间隔终止而导致的无响应感,如上文所述。图8B示出了在不同阶段(即,阶段840和阶段846)分析的语言提示和非语言提示,一些示例可以组合地,在单个阶段中分析语言提示和非语言提示。
图9A示出了用于实现过程700的阶段730(诸如上面关于图7所描述的)的示例过程的流程图。在阶段730,过程700针对诸如上述在阶段720识别的停顿确定停顿是否可能与当前话语的终止相对应。在图9A中,可以在阶段920评估音频输入数据910(例如,存储在输入缓冲器中的语音信号,其可以对应于上述810)以确定音频输入数据中间隙声音的存在。间隙声音可以是输入音频中出现的指示当前话语尚未完成(诸如用户正在思考)的单词、短语、音节或其他发声。例如,间隙声音可以包括犹豫声音(例如,“um(呃)”、“uh(嗯)”);延长的音节(例如,在“I'mgoing to(我打算去)”短语末尾延长的“to(ooo)(去)”);重复(例如,“and、and、and......(和、和、和……)”);尾随填充词(例如,“like(像)”、“I mean(我是说)”)、和/或用户可能提供属于当前话语的附加输入音频的其他指示。这种间隙声音可以特定于单独的用户、特定语言或口头输入的类型(例如,问题、说明语句)。如下所述,可以采用各种分类器来识别间隙声音。
在阶段930,该过程可以确定在阶段920是否检测到任何这种间隙声音。如果没有,则该过程可以推论(阶段970)当前话语已完成。如果存在间隙声音,则该过程在阶段940可以评估间隙声音是否指示当前话语正在进行。例如,犹豫声音的存在可以指示用户正在组织完整的话语(例如,“What’s the weather...uh...tomorrow(明天……嗯……天气怎样)”)。类似地,延长的音节、重复、填充词、和其他间隙声音可以指示当前话语尚未完成。在一些示例中,阶段940可以生成置信度,指示存在间隙声音的可能性并指示当前话语是否完成。
在阶段950,如果在阶段940确定当前话语正在进行,则该过程可以推论(阶段960)当前话语未完成。如上面关于图7所描述的,这可能导致过程执行各种响应动作:例如,过程700可以延长超时时间间隔(例如,822),在该延长超时时间间隔中,为了检测停顿,提示用户进行额外的指示当前话语是否完成和/或将当前话语与第二话语结合起来的输入;或根本不采取任何动作。在一些示例中,执行哪个动作(如果有)取决于在阶段940生成的置信度;例如,响应于话语尚未完成的高置信度,过程700仅返回到阶段710以继续检测音频输入,而无需采取任何进一步的动作;并且响应于中等置信度(指示例如关于当前话语是否完成的不确定性),过程700可以明确提示用户进行额外输入(阶段736)。类似地,如果在阶段940确定当前话语完成,则该过程可以这样指示(阶段970),并且该过程可以继续将话语呈现给语音识别系统,诸如上述。
图9B示出了用于实现示例过程700的阶段730的示例过程的流程图,其中使用传感器输入数据942代替或结合诸如上述的音频输入数据910。传感器输入数据942可以对应于上述的传感器输入数据844:例如,传感器输入数据942可以由诸如上面关于图1中的示例可穿戴头部设备100描述的传感器输出。如上所述,此类传感器可以包括一个或多个相机(例如,RGB相机、深度相机);LIDAR单元;雷达单元;声学传感器;GPS单元;加速度计;陀螺仪;IMU;环境传感器;生物识别传感器(例如,虹膜相机、指纹传感器、眼睛跟踪传感器和/或用于测量用户生命体征的传感器)。可以包括其他合适的传感器并且这些传感器可以提供传感器输入数据942。此外,在一些示例中,可以适当地利用可穿戴系统的传感器之外的传感器。例如,如上所述,可以将与语音识别系统的麦克风相关联的传感器(例如,GPS、IMU)与可穿戴系统的传感器结合使用以确定用户与语音识别系统之间的相对距离和取向。
关于图9B,可以在阶段944评估传感器输入数据942以确定传感器数据是否指示当前话语正在进行,或者当前话语是否完成。例如,话语的完成(或未完成)可能对应于用户眼睛注视目标的变化、用户头部姿势的变化、用户执行的手势、用户生命体征的变化(例如,呼吸方式、心率)、用户面部表情的变化、远离麦克风的运动或旋转的变化、用户姿势的变化或由传感器输入数据944指示的其他物理特征的变化、取向的变化、和/或上述特征中的任何一项或多项的变化。在一些示例中,阶段944可以生成置信度,指示当前话语完成的可能性。基于在阶段944做出的确定(例如,通过将置信度水平与阈值进行比较),该过程在阶段950可以指示话语完成(阶段970)或未完成(阶段960)。
在上述过程700中,可以在一个或多个阶段评估输入数据(例如,音频数据、传感器数据)相对于如何将数据呈现给语音识别引擎(例如,ASR引擎和/或NLU引擎)的重要性。例如,在过程720的阶段830,如上所述,可以评估音频输入数据以确定该数据是否包括当前话语完成的语言提示。在阶段842,如上所述,可以针对有关当前话语完成的非语言提示(例如,面部表情的变化)评估传感器数据。在阶段920,如上所述,可以评估音频输入数据以识别间隙声音的存在;并且在阶段940,可以评估这些间隙声音是否指示当前话语正在进行。在阶段944,如上所述,可以评估传感器输入数据以确定传感器输入数据是否指示当前话语正在进行。
在一些示例中,如上所述使用的音频输入数据和/或传感器输入数据可以根据一个或多个参数进行分类—产生一个或多个表示数据的分类器。这些分类器可用于(例如,由示例过程700)评估该数据的重要性(例如,与该数据相关联的概率)。图10示出了用于对输入数据1010进行分类以确定与该输入数据相关联的感兴趣的概率的示例过程1000。如本文所用,感兴趣的概率可以与上面关于示例过程700描述的概率相对应:音频输入数据和/或传感器输入数据指示输入语音中的停顿的概率;停顿指示话语完成的概率;和/或间隙声音的存在指示话语正在进行的概率;或其他合适的概率。关于图10,可以单独地或结合传感器输入数据1020使用音频输入数据1016来执行该确定。确定输入数据1010的概率值可以称为对输入数据1010进行“分类”,并且用于执行该确定(例如,1074)的模块或过程可以称为“分类器”。
在图10所示的示例过程中,输入数据1010(例如,音频输入数据1016和/或传感器输入数据1020)可以与语音/传感器数据1029(例如,来自数据库)结合使用以确定输入数据1010的一个或多个感兴趣的概率。在一些示例中,可以在阶段1075根据一个或多个参数对音频输入数据1016和/或传感器输入数据1020进行参数化/表征,以便促进基于语音/传感器数据1029对语音段进行分类。可以执行输入数据1010的傅里叶变换以提供输入数据1010的频谱表示(例如,指示音频输入数据1016和/或传感器输入数据1020中各种频率参数的相对普遍性的频率函数)。例如,该过程可以识别用户语音、位置、眼睛注视、和/或身体运动的幅度或分量频率的水平(或其变化);这些值可以指示用户语音中的停顿、间隙声音的存在、或用户话语的完成,如上文所述。在一些示例中,用户的特征—例如,用户的年龄、性别、和/或母语—可以用作表征输入数据1010的参数。其他对输入数据1010进行参数化(其中这些参数化用于确定输入数据的感兴趣的概率)的方式对于本领域技术人员来说是显而易见的。
在示例的阶段1076,针对输入数据1010的感兴趣的概率确定概率值1078。在一些示例中,可以使用语音/传感器数据1029确定概率值1078,诸如其中包括语音/传感器数据1029的数据库针对数据库中的语音和/或传感器数据的元素识别这些元素是否对应于输入语音。在一些示例中,音频输入数据1016可以包括一组与语音段相对应的音频波形;并且可以针对每个波形指示对应的语音段指示停顿还是间隙声音。在一些示例中,作为音频波形的替代或补充,音频输入数据1016可以包括与语音段相对应的音频参数。音频输入数据1016可以与语音/传感器数据1029的语音段进行比较—例如,通过将音频输入数据1016的音频波形与语音/传感器数据1029的类似波形进行比较,或通过将音频输入数据1016的参数(诸如可以在阶段1075表征)与语音/传感器数据1029的类似参数进行比较。基于这些比较,可以确定音频输入数据1016的概率值1078。
可以针对传感器输入数据1020应用类似的技术。例如,传感器输入数据1020可以包括原始传感器数据的序列;并且可以针对原始传感器数据指示该数据指示话语的停顿、完成还是继续。类似地,传感器输入数据1020可以包括与传感器数据相对应的传感器输入参数。传感器输入数据1020可以与语音/传感器数据1029的元素进行比较,诸如上文关于音频输入数据1016所述的。
基于输入数据1010来确定概率1078的技术是本领域技术人员所熟悉的。例如,在一些示例中,可以在阶段1076使用最近邻插值来将输入数据1010的元素与N维空间中的相似数据元素进行比较(其中,N维例如可以包括上述音频参数、音频波形数据、传感器参数、或原始传感器数据);并且基于输入数据1010的元素与其在N维空间中的相邻元素之间的相对距离来确定概率值1078。作为另一示例,支持向量机可以在阶段1076用于基于语音/传感器数据库1029确定用于将输入数据1010的元素分类为指示话语完成或指示话语未完成的基础;以及用于根据该基础对输入数据1010进行分类(例如,确定输入数据1010指示完成的话语、停顿、或间隙声音的存在的概率值1078)。用于分析输入数据1010和/或语音/传感器数据1029、将输入数据1010与语音/传感器数据1029进行比较、和/或基于语音/传感器数据1029对输入数据1010进行分类以确定概率1078的其他合适的技术将是明显的;本公开不限于任何特定技术或技术组合。
在一些示例中,机器学习技术可以被单独使用或与本文描述的其他技术组合使用来确定概率值1078。例如,神经网络可以在语音/传感器数据1029上被训练,并且被应用于输入数据1010以确定该输入数据的概率值1078。作为另一示例,遗传算法可用于基于语音/传感器数据1029确定函数,从而确定与输入数据1010相对应的概率值1078。本领域技术人员熟悉的其他合适的机器学习技术将是显而易见的;本公开不限于任何特定技术或技术组合。
在一些示例中,语音/传感器数据1029可以通过为各种用户记录一组语音数据和/或传感器数据,并且针对该数据的元素识别用户已完成话语;已停顿他或她的语音;还是正在提供间隙声音来生成。例如,在用户的语音被记录时,可以观察到用户与一群人进行交互,其中语音识别系统位于同一房间内;还可以记录用户的传感器数据(例如,由用户穿戴的可穿戴系统的输出)。针对记录数据的每个区域,观察者可以识别该数据区域对应于停顿、提供间隙声音还是完成话语。通过观察用户说话的情景,该信息对观察者显而易见—通常,人类(与机器不同)基于用户的观察,很容易直观地确定用户是否已完成话语。可以针对多个用户重复此过程,直到生成足够大且多样化的语音/传感器数据集。
关于上述系统和方法,系统和方法的要素可以适当地由一个或多个计算机处理器(例如,CPU或DSP)实现。本公开不限于用于实现这些要素的计算机硬件(包括计算机处理器)的任何特定配置。在某些情况下,可以采用多个计算机系统来实现上述系统和方法。例如,第一计算机处理器(例如,耦合到麦克风的可穿戴设备的处理器)可用于接收输入麦克风信号,并执行这些信号的初始处理(例如,信号调节和/或分段,诸如上面所述的)。然后可以利用第二(也许计算能力更强大)处理器来执行计算量更大的处理,诸如确定与这些信号的语音段相关联的概率值。另一计算机设备,例如云服务器,可以托管语音识别引擎,最终向该语音识别引擎提供输入信号。其他合适的配置将是显而易见的并且在本公开的范围内。
尽管已经参考附图充分描述了所公开的示例,但是应当注意,各种改变和修改对于本领域技术人员来说将变得显而易见。例如,一个或多个实施方式的元素可以被组合、删除、修改或补充以形成进一步的实施方式。此类变化和修改应被理解为包括在由所附权利要求限定的公开示例的范围内。

Claims (45)

1.一种方法,包括:
经由头戴式设备的麦克风接收音频信号,其中,所述音频信号包括语音活动;
确定所述音频信号是否包括所述语音活动中的停顿;
响应于确定所述音频信号包括所述语音活动中的停顿,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应;以及
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点相对应,基于所述语音活动向用户呈现响应。
2.根据权利要求1所述的方法,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,放弃基于所述语音活动向用户呈现响应。
3.根据权利要求1所述的方法,还包括:
响应于确定所述音频信号不包括所述语音活动中的停顿,放弃确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应。
4.根据权利要求1所述的方法,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:确定所述音频信号的幅度是否下降到低于阈值持续了预定时段。
5.根据权利要求4所述的方法,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,确定所述音频信号是否包括与所述语音活动的所述结束点相对应的第二停顿。
6.根据权利要求4所述的方法,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,提示所述用户说话。
7.根据权利要求1所述的方法,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:确定所述音频信号是否包括与所述语音活动的结束点相对应的一个或多个语言提示。
8.根据权利要求7所述的方法,其中,所述一个或多个语言提示包括所述用户的韵律的特征。
9.根据权利要求7所述的方法,其中,所述一个或多个语言提示包括结束短语。
10.根据权利要求1所述的方法,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:评估非语言传感器数据。
11.根据权利要求10所述的方法,其中,所述非语言传感器数据指示所述用户的注视。
12.根据权利要求10所述的方法,其中,所述非语言传感器数据指示所述用户的面部表情。
13.根据权利要求10所述的方法,其中,所述非语言传感器数据指示所述用户的心率。
14.根据权利要求1所述的方法,其中,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应包括:识别一个或多个间隙声音。
15.根据权利要求1所述的方法,其中,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应包括:评估非语言传感器数据。
16.一种系统,包括:
头戴式设备的麦克风,
一个或多个处理器,其被配置为执行一种方法,所述方法包括:
经由所述头戴式设备的所述麦克风接收音频信号,其中,所述音频信号包括语音活动;
确定所述音频信号是否包括所述语音活动中的停顿;
响应于确定所述音频信号包括所述语音活动中的停顿,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应;以及
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点相对应,基于所述语音活动向用户呈现响应。
17.根据权利要求16所述的系统,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,放弃基于所述语音活动向用户呈现响应。
18.根据权利要求16所述的系统,还包括:
响应于确定所述音频信号不包括所述语音活动中的停顿,放弃确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应。
19.根据权利要求16所述的系统,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:确定所述音频信号的幅度是否下降到低于阈值持续了预定时段。
20.根据权利要求19所述的系统,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,确定所述音频信号是否包括与所述语音活动的所述结束点相对应的第二停顿。
21.根据权利要求19所述的系统,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,提示所述用户说话。
22.根据权利要求16所述的系统,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:确定所述音频信号是否包括与所述语音活动的结束点相对应的一个或多个语言提示。
23.根据权利要求22所述的系统,其中,所述一个或多个语言提示包括所述用户的韵律的特征。
24.根据权利要求22所述的系统,其中,所述一个或多个语言提示包括结束短语。
25.根据权利要求16所述的系统,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:评估非语言传感器数据。
26.根据权利要求25所述的系统,其中,所述非语言传感器数据指示所述用户的注视。
27.根据权利要求25所述的系统,其中,所述非语言传感器数据指示所述用户的面部表情。
28.根据权利要求25所述的系统,其中,所述非语言传感器数据指示所述用户的心率。
29.根据权利要求16所述的系统,其中,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应包括:识别一个或多个间隙声音。
30.根据权利要求16所述的系统,其中,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应包括:评估非语言传感器数据。
31.一种存储一个或多个指令的非暂时性计算机可读介质,所述一个或多个指令在由电子设备的一个或多个处理器执行时使所述设备执行一种方法,所述方法包括:
经由头戴式设备的麦克风接收音频信号,其中,所述音频信号包括语音活动;
确定所述音频信号是否包括所述语音活动中的停顿;
响应于确定所述音频信号包括所述语音活动中的停顿,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应;以及
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点相对应,基于所述语音活动向用户呈现响应。
32.根据权利要求31所述的非暂时性计算机可读介质,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,放弃基于所述语音活动向用户呈现响应。
33.根据权利要求31所述的非暂时性计算机可读介质,还包括:
响应于确定所述音频信号不包括所述语音活动中的停顿,放弃确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应。
34.根据权利要求31所述的非暂时性计算机可读介质,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:确定所述音频信号的幅度是否下降到低于阈值持续了预定时段。
35.根据权利要求34所述的非暂时性计算机可读介质,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,确定所述音频信号是否包括与所述语音活动的所述结束点相对应的第二停顿。
36.根据权利要求34所述的非暂时性计算机可读介质,还包括:
响应于确定所述语音活动中的所述停顿与所述语音活动的结束点不对应,提示所述用户说话。
37.根据权利要求31所述的非暂时性计算机可读介质,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:确定所述音频信号是否包括与所述语音活动的结束点相对应的一个或多个语言提示。
38.根据权利要求37所述的非暂时性计算机可读介质,其中,所述一个或多个语言提示包括所述用户的韵律的特征。
39.根据权利要求37所述的非暂时性计算机可读介质,其中,所述一个或多个语言提示包括结束短语。
40.根据权利要求31所述的非暂时性计算机可读介质,其中,确定所述音频信号是否包括所述语音活动中的停顿包括:评估非语言传感器数据。
41.根据权利要求40所述的非暂时性计算机可读介质,其中,所述非语言传感器数据指示所述用户的注视。
42.根据权利要求40所述的非暂时性计算机可读介质,其中,所述非语言传感器数据指示所述用户的面部表情。
43.根据权利要求40所述的非暂时性计算机可读介质,其中,所述非语言传感器数据指示所述用户的心率。
44.根据权利要求31所述的非暂时性计算机可读介质,其中,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应包括:识别一个或多个间隙声音。
45.根据权利要求31所述的非暂时性计算机可读介质,其中,确定所述语音活动中的所述停顿是否与所述语音活动的结束点相对应包括:评估非语言传感器数据。
CN202080044362.4A 2019-04-19 2020-04-16 识别语音识别引擎的输入 Active CN113994424B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962836593P 2019-04-19 2019-04-19
US62/836,593 2019-04-19
PCT/US2020/028570 WO2020214844A1 (en) 2019-04-19 2020-04-16 Identifying input for speech recognition engine

Publications (2)

Publication Number Publication Date
CN113994424A true CN113994424A (zh) 2022-01-28
CN113994424B CN113994424B (zh) 2025-04-15

Family

ID=72830867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080044362.4A Active CN113994424B (zh) 2019-04-19 2020-04-16 识别语音识别引擎的输入

Country Status (5)

Country Link
US (1) US12327573B2 (zh)
EP (2) EP4510125A1 (zh)
JP (2) JP7560480B2 (zh)
CN (1) CN113994424B (zh)
WO (1) WO2020214844A1 (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US12197817B2 (en) 2016-06-11 2025-01-14 Apple Inc. Intelligent device arbitration and control
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
EP3811360A4 (en) 2018-06-21 2021-11-24 Magic Leap, Inc. PORTABLE SYSTEM VOICE PROCESSING
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN113748462A (zh) 2019-03-01 2021-12-03 奇跃公司 确定用于语音处理引擎的输入
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11328740B2 (en) 2019-08-07 2022-05-10 Magic Leap, Inc. Voice onset detection
US11749265B2 (en) * 2019-10-04 2023-09-05 Disney Enterprises, Inc. Techniques for incremental computer-based natural language understanding
US11096006B1 (en) * 2019-11-04 2021-08-17 Facebook Technologies, Llc Dynamic speech directivity reproduction
JPWO2021153427A1 (zh) * 2020-01-31 2021-08-05
US11917384B2 (en) 2020-03-27 2024-02-27 Magic Leap, Inc. Method of waking a device using spoken voice commands
US12301635B2 (en) 2020-05-11 2025-05-13 Apple Inc. Digital assistant hardware abstraction
US11984124B2 (en) * 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution
JP7331025B2 (ja) * 2021-02-05 2023-08-22 Necパーソナルコンピュータ株式会社 学習支援システム、学習支援方法、及びプログラム
US12327553B2 (en) * 2021-05-17 2025-06-10 Google Llc Enabling natural conversations for an automated assistant
KR20230158615A (ko) * 2021-08-17 2023-11-20 구글 엘엘씨 자동화된 어시스턴트를 위한 소프트 엔드포인팅을 사용한 자연스러운 대화 활성화
US12020703B2 (en) * 2021-08-17 2024-06-25 Google Llc Enabling natural conversations with soft endpointing for an automated assistant
US12100420B2 (en) 2022-02-15 2024-09-24 Google Llc Speech detection using multiple acoustic sensors
CN114898755B (zh) * 2022-07-14 2023-01-17 科大讯飞股份有限公司 语音处理方法及相关装置、电子设备、存储介质
CN117351993B (zh) * 2023-12-04 2024-02-13 方图智能(深圳)科技集团股份有限公司 一种基于音频分发的音频传输质量评价方法及系统
US12322384B1 (en) * 2024-09-27 2025-06-03 Character Technologies Inc. Audio turn understanding system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128440A (ja) * 2012-02-06 2012-07-05 Denso Corp 音声対話装置
CN103617801A (zh) * 2013-12-18 2014-03-05 联想(北京)有限公司 语音检测方法、装置及电子设备
US20160379632A1 (en) * 2015-06-29 2016-12-29 Amazon Technologies, Inc. Language model speech endpointing
KR20180084394A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 발화 완료 감지 방법 및 이를 구현한 전자 장치
CN108780644A (zh) * 2016-03-16 2018-11-09 宝马股份公司 运输工具、用于在语音输入范围内调整允许的语音停顿长度的系统和方法
CN108920639A (zh) * 2018-07-02 2018-11-30 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
EP3486900A1 (en) * 2017-11-16 2019-05-22 Softbank Robotics Europe System and method for dialog session management

Family Cites Families (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1569450A (en) 1976-05-27 1980-06-18 Nippon Electric Co Speech recognition system
JPS52144205A (en) 1976-05-27 1977-12-01 Nec Corp Voice recognition unit
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
JPH0675588A (ja) 1992-08-27 1994-03-18 Fujitsu Ltd 音声認識装置
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
JP2000148184A (ja) 1998-11-06 2000-05-26 Sanyo Electric Co Ltd 音声認識装置
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
GB2349055B (en) 1999-04-16 2004-03-24 Mitel Corp Virtual meeting rooms with spatial audio
US6491391B1 (en) 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
GB9922654D0 (en) 1999-09-27 1999-11-24 Jaber Marwan Noise suppression system
GB9930731D0 (en) 1999-12-22 2000-02-16 Ibm Voice processing apparatus
DE10030548A1 (de) 2000-06-21 2002-01-03 Alcatel Sa Telefonieren und Freisprechen für schnurlose Endgeräte mit Echokompensation
US6820056B1 (en) 2000-11-21 2004-11-16 International Business Machines Corporation Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system
CA2362895A1 (en) 2001-06-26 2002-12-26 Steve Mann Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license
DE10132872B4 (de) 2001-07-06 2018-10-11 Volkswagen Ag Kopfmontiertes optisches Durchsichtssystem
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
GB2391679B (en) 2002-02-04 2004-03-24 Zentian Ltd Speech recognition circuit using parallel processors
JP4817658B2 (ja) 2002-06-05 2011-11-16 アーク・インターナショナル・ピーエルシー 音響仮想現実エンジンおよび配信された音声改善のための新技術
CA2388766A1 (en) 2002-06-17 2003-12-17 Steve Mann Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
JP2004297273A (ja) 2003-03-26 2004-10-21 Kenwood Corp 音声信号雑音除去装置、音声信号雑音除去方法及びプログラム
US7500747B2 (en) 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
US20050033571A1 (en) 2003-08-07 2005-02-10 Microsoft Corporation Head mounted multi-sensory audio input system
US7099821B2 (en) 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
US7607097B2 (en) 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
JP4729902B2 (ja) 2003-12-12 2011-07-20 株式会社豊田中央研究所 音声対話システム
KR101049605B1 (ko) 2004-04-01 2011-07-14 윌리엄 씨. 토치 눈 움직임을 모니터하는 바이오센서, 커뮤니케이터, 및컨트롤러 및 그들의 사용 방법
GB0420464D0 (en) 2004-09-14 2004-10-20 Zentian Ltd A speech recognition circuit and method
US7574008B2 (en) 2004-09-17 2009-08-11 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
JP4906379B2 (ja) 2006-03-22 2012-03-28 富士通株式会社 音声認識装置、音声認識方法、及びコンピュータプログラム
US8968195B2 (en) 2006-05-12 2015-03-03 Bao Tran Health monitoring appliance
US20080124690A1 (en) * 2006-11-28 2008-05-29 Attune Interactive, Inc. Training system using an interactive prompt character
US8559646B2 (en) 2006-12-14 2013-10-15 William G. Gardner Spatial audio teleconferencing
JP5030150B2 (ja) 2007-03-20 2012-09-19 独立行政法人産業技術総合研究所 筋電位信号による音声認識装置
JP2008242067A (ja) 2007-03-27 2008-10-09 Advanced Telecommunication Research Institute International 音声認識装置、音声認識システムおよび音声認識方法
JP4518151B2 (ja) 2008-01-15 2010-08-04 ソニー株式会社 信号処理装置、信号処理方法、プログラム
US9922640B2 (en) 2008-10-17 2018-03-20 Ashwin P Rao System and method for multimodal utterance detection
US8154588B2 (en) 2009-01-14 2012-04-10 Alan Alexander Burns Participant audio enhancement system
CN102439972B (zh) 2009-02-27 2016-02-10 基础制造有限公司 基于耳机的电信平台
JP2010273305A (ja) 2009-05-25 2010-12-02 J&K Car Electronics Corp 録音装置
US8620672B2 (en) 2009-06-09 2013-12-31 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for phase-based processing of multichannel signal
US20110238407A1 (en) 2009-08-31 2011-09-29 O3 Technologies, Llc Systems and methods for speech-to-speech translation
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US20110288860A1 (en) 2010-05-20 2011-11-24 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US8898058B2 (en) 2010-10-25 2014-11-25 Qualcomm Incorporated Systems, methods, and apparatus for voice activity detection
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US10218327B2 (en) 2011-01-10 2019-02-26 Zhinian Jing Dynamic enhancement of audio (DAE) in headset systems
JP2014178339A (ja) 2011-06-03 2014-09-25 Nec Corp 音声処理システム、発話者の音声取得方法、音声処理装置およびその制御方法と制御プログラム
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130077147A1 (en) 2011-09-22 2013-03-28 Los Alamos National Security, Llc Method for producing a partially coherent beam with fast pattern update rates
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US9583108B2 (en) * 2011-12-08 2017-02-28 Forrest S. Baker III Trust Voice detection for automated communication system
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US10276156B2 (en) 2012-02-29 2019-04-30 Nvidia Corporation Control using temporally and/or spectrally compact audio commands
JP5494699B2 (ja) 2012-03-02 2014-05-21 沖電気工業株式会社 収音装置及びプログラム
US8831255B2 (en) 2012-03-08 2014-09-09 Disney Enterprises, Inc. Augmented reality (AR) audio with position and action triggered virtual sound effects
US9274338B2 (en) 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
US20180316939A1 (en) 2012-04-24 2018-11-01 Skreens Entertainment Technologies, Inc. Systems and methods for video processing, combination and display of heterogeneous sources
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US9142215B2 (en) 2012-06-15 2015-09-22 Cypress Semiconductor Corporation Power-efficient voice activation
US9638537B2 (en) 2012-06-21 2017-05-02 Cellepathy Inc. Interface selection in navigation guidance systems
JP6129316B2 (ja) 2012-09-03 2017-05-17 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 情報に基づく多チャネル音声存在確率推定を提供するための装置および方法
US10824310B2 (en) 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
EP2929413B1 (en) 2012-12-06 2020-06-03 Google LLC Eye tracking wearable devices and methods for use
CN105027190B (zh) 2013-01-03 2019-06-21 美达视野股份有限公司 用于虚拟或增强介导视觉的射出空间成像数字眼镜
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
JP6169849B2 (ja) 2013-01-15 2017-07-26 本田技研工業株式会社 音響処理装置
CA2898750C (en) 2013-01-25 2018-06-26 Hai HU Devices and methods for the visualization and localization of sound
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
WO2014159581A1 (en) 2013-03-12 2014-10-02 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US9294859B2 (en) 2013-03-12 2016-03-22 Google Technology Holdings LLC Apparatus with adaptive audio adjustment based on surface proximity, surface type and motion
WO2014158426A1 (en) 2013-03-13 2014-10-02 Kopin Corporation Eye glasses with microphone array
US10306389B2 (en) 2013-03-13 2019-05-28 Kopin Corporation Head wearable acoustic system with noise canceling microphone geometry apparatuses and methods
US9280972B2 (en) 2013-05-10 2016-03-08 Microsoft Technology Licensing, Llc Speech to text conversion
US20140379336A1 (en) 2013-06-20 2014-12-25 Atul Bhatnagar Ear-based wearable networking device, system, and method
JP6171617B2 (ja) 2013-06-24 2017-08-02 日本電気株式会社 応答対象音声判定装置、応答対象音声判定方法および応答対象音声判定プログラム
WO2014210530A1 (en) 2013-06-28 2014-12-31 Kopin Corporation Digital voice processing method and system for headset computer
US9865277B2 (en) 2013-07-10 2018-01-09 Nuance Communications, Inc. Methods and apparatus for dynamic low frequency noise suppression
EP3036620B1 (en) 2013-08-23 2017-03-29 Tobii AB Systems and methods for providing audio to a user based on gaze input
US9324313B1 (en) 2013-10-23 2016-04-26 Google Inc. Methods and systems for implementing bone conduction-based noise cancellation for air-conducted sound
US9294860B1 (en) 2014-03-10 2016-03-22 Amazon Technologies, Inc. Identifying directions of acoustically reflective surfaces
EP2942982A1 (en) 2014-05-05 2015-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System, apparatus and method for consistent acoustic scene reproduction based on informed spatial filtering
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9378755B2 (en) 2014-05-30 2016-06-28 Apple Inc. Detecting a user's voice activity using dynamic probabilistic models of speech features
WO2016015687A1 (zh) 2014-07-31 2016-02-04 腾讯科技(深圳)有限公司 声纹验证方法及装置
US9549273B2 (en) 2014-08-28 2017-01-17 Qualcomm Incorporated Selective enabling of a component by a microphone circuit
JP6503559B2 (ja) 2014-10-20 2019-04-24 ソニー株式会社 音声処理システム
US9654868B2 (en) 2014-12-05 2017-05-16 Stages Llc Multi-channel multi-domain source identification and tracking
US9652017B2 (en) 2014-12-17 2017-05-16 Qualcomm Incorporated System and method of analyzing audio data samples associated with speech recognition
EP3254453B1 (en) * 2015-02-03 2019-05-08 Dolby Laboratories Licensing Corporation Conference segmentation based on conversational dynamics
EP3276618A4 (en) 2015-03-23 2018-11-07 Sony Corporation Information processing system and information processing method
US20160284349A1 (en) 2015-03-26 2016-09-29 Binuraj Ravindran Method and system of environment sensitive automatic speech recognition
US9911416B2 (en) 2015-03-27 2018-03-06 Qualcomm Incorporated Controlling electronic device based on direction of speech
US10192546B1 (en) 2015-03-30 2019-01-29 Amazon Technologies, Inc. Pre-wakeword speech processing
US10186254B2 (en) * 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US9740678B2 (en) * 2015-06-25 2017-08-22 Intel Corporation Method and system of automatic speech recognition with dynamic vocabularies
US20160379638A1 (en) * 2015-06-26 2016-12-29 Amazon Technologies, Inc. Input speech quality matching
US10134425B1 (en) * 2015-06-29 2018-11-20 Amazon Technologies, Inc. Direction-based speech endpointing
WO2017017572A1 (en) 2015-07-26 2017-02-02 Vocalzoom Systems Ltd. Laser microphone utilizing speckles noise reduction
US20180077095A1 (en) 2015-09-14 2018-03-15 X Development Llc Augmentation of Communications with Emotional Data
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10269341B2 (en) * 2015-10-19 2019-04-23 Google Llc Speech endpointing
JP6679898B2 (ja) 2015-11-24 2020-04-15 富士通株式会社 キーワード検出装置、キーワード検出方法及びキーワード検出用コンピュータプログラム
US10289205B1 (en) * 2015-11-24 2019-05-14 Google Llc Behind the ear gesture control for a head mountable device
WO2017108138A1 (en) * 2015-12-23 2017-06-29 Intel Corporation Biometric information for dialog system
US10373612B2 (en) 2016-03-21 2019-08-06 Amazon Technologies, Inc. Anchored speech detection and speech recognition
US10192555B2 (en) 2016-04-28 2019-01-29 Microsoft Technology Licensing, Llc Dynamic speech recognition data evaluation
EP3454334A4 (en) 2016-05-02 2019-05-08 Sony Corporation CONTROL DEVICE, CONTROL METHOD AND COMPUTER PROGRAM
US10469976B2 (en) 2016-05-11 2019-11-05 Htc Corporation Wearable electronic device and virtual reality system
JP6658306B2 (ja) 2016-05-27 2020-03-04 トヨタ自動車株式会社 音声対話システムおよび発話タイミング決定方法
WO2017218399A1 (en) 2016-06-15 2017-12-21 Mh Acoustics, Llc Spatial encoding directional microphone array
US10319365B1 (en) 2016-06-27 2019-06-11 Amazon Technologies, Inc. Text-to-speech processing with emphasized output audio
KR102634343B1 (ko) 2016-08-22 2024-02-05 매직 립, 인코포레이티드 가상, 증강, 및 혼합 현실 시스템들 및 방법들
KR20180055661A (ko) * 2016-11-16 2018-05-25 삼성전자주식회사 전자 장치 및 그 제어 방법
JP6818280B2 (ja) * 2017-03-10 2021-01-20 日本電信電話株式会社 対話システム、対話方法、対話装置、およびプログラム
JP6538755B2 (ja) 2017-04-18 2019-07-03 株式会社バンザイ 頭部装着型表示装置を用いた車両の点検記録装置
US20180349946A1 (en) * 2017-05-31 2018-12-06 Telefonaktiebolaget Lm Ericsson (Publ) System, method and architecture for real-time native advertisement placement in an augmented/mixed reality (ar/mr) environment
US10460728B2 (en) 2017-06-16 2019-10-29 Amazon Technologies, Inc. Exporting dialog-driven applications to digital communication platforms
CN108305617B (zh) 2018-01-31 2020-09-08 腾讯科技(深圳)有限公司 语音关键词的识别方法和装置
EP3788570A1 (en) * 2018-04-30 2021-03-10 Telefonaktiebolaget LM Ericsson (publ) Automated augmented reality rendering platform for providing remote expert assistance
CN112205005B (zh) 2018-05-23 2022-06-24 皇家Kpn公司 使声学渲染适应基于图像的对象
CN108766418B (zh) 2018-05-24 2020-01-14 百度在线网络技术(北京)有限公司 语音端点识别方法、装置及设备
WO2019231632A1 (en) 2018-06-01 2019-12-05 Shure Acquisition Holdings, Inc. Pattern-forming microphone array
EP3811360A4 (en) 2018-06-21 2021-11-24 Magic Leap, Inc. PORTABLE SYSTEM VOICE PROCESSING
US20190392641A1 (en) 2018-06-26 2019-12-26 Sony Interactive Entertainment Inc. Material base rendering
CN113747330A (zh) * 2018-10-15 2021-12-03 奥康科技有限公司 助听器系统和方法
US11069368B2 (en) 2018-12-18 2021-07-20 Colquitt Partners, Ltd. Glasses with closed captioning, voice recognition, volume of speech detection, and translation capabilities
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
CN113748462A (zh) 2019-03-01 2021-12-03 奇跃公司 确定用于语音处理引擎的输入
US11328740B2 (en) 2019-08-07 2022-05-10 Magic Leap, Inc. Voice onset detection
US11948561B2 (en) 2019-10-28 2024-04-02 Apple Inc. Automatic speech recognition imposter rejection on a headphone with an accelerometer
US11917384B2 (en) 2020-03-27 2024-02-27 Magic Leap, Inc. Method of waking a device using spoken voice commands
WO2022072752A1 (en) 2020-09-30 2022-04-07 Magic Leap, Inc. Voice user interface using non-linguistic input
EP4416725A1 (en) 2021-10-14 2024-08-21 Magic Leap, Inc. Microphone array geometry
US20240420718A1 (en) 2021-10-15 2024-12-19 Magic Leap, Inc. Voice processing for mixed reality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128440A (ja) * 2012-02-06 2012-07-05 Denso Corp 音声対話装置
CN103617801A (zh) * 2013-12-18 2014-03-05 联想(北京)有限公司 语音检测方法、装置及电子设备
US20160379632A1 (en) * 2015-06-29 2016-12-29 Amazon Technologies, Inc. Language model speech endpointing
CN108780644A (zh) * 2016-03-16 2018-11-09 宝马股份公司 运输工具、用于在语音输入范围内调整允许的语音停顿长度的系统和方法
KR20180084394A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 발화 완료 감지 방법 및 이를 구현한 전자 장치
EP3486900A1 (en) * 2017-11-16 2019-05-22 Softbank Robotics Europe System and method for dialog session management
CN108920639A (zh) * 2018-07-02 2018-11-30 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备

Also Published As

Publication number Publication date
JP7560480B2 (ja) 2024-10-02
WO2020214844A1 (en) 2020-10-22
EP3956883A1 (en) 2022-02-23
EP4510125A1 (en) 2025-02-19
US12327573B2 (en) 2025-06-10
JP2022529783A (ja) 2022-06-24
CN113994424B (zh) 2025-04-15
EP3956883A4 (en) 2022-12-21
JP2024175095A (ja) 2024-12-17
EP3956883B1 (en) 2024-12-25
US20200335128A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
CN113994424B (zh) 识别语音识别引擎的输入
JP7580383B2 (ja) 発話処理エンジンのための入力の決定
JP7419270B2 (ja) ウェアラブルシステム発話処理
US12094489B2 (en) Voice onset detection
US8762144B2 (en) Method and apparatus for voice activity detection
US11917384B2 (en) Method of waking a device using spoken voice commands
US20230386461A1 (en) Voice user interface using non-linguistic input
CN110874137A (zh) 一种交互方法以及装置
WO2021153101A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant