[go: up one dir, main page]

CN112119641B - 通过转发模式连接的多tws耳机实现自动翻译的方法及装置 - Google Patents

通过转发模式连接的多tws耳机实现自动翻译的方法及装置 Download PDF

Info

Publication number
CN112119641B
CN112119641B CN201880093380.4A CN201880093380A CN112119641B CN 112119641 B CN112119641 B CN 112119641B CN 201880093380 A CN201880093380 A CN 201880093380A CN 112119641 B CN112119641 B CN 112119641B
Authority
CN
China
Prior art keywords
headset
speak
electronic device
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880093380.4A
Other languages
English (en)
Other versions
CN112119641A (zh
Inventor
罗海彬
顾文彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN112119641A publication Critical patent/CN112119641A/zh
Application granted granted Critical
Publication of CN112119641B publication Critical patent/CN112119641B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/10Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
    • H04R2201/107Monophonic and stereophonic headphones with microphone for two-way hands free communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Artificial Intelligence (AREA)
  • Telephone Function (AREA)

Abstract

本申请提供的一种控制方法及电子设备,涉及通信技术领域,有利于简化双语实时翻译过程中用户的操作,有利于提升用户体验,该方法具体包括:电子设备连接有主耳机和从耳机,由主耳机进行话权裁决,可以将具有话权的耳机自动拾取的语音上传到电子设备,由电子设备对上传的语音进行翻译,而后返回翻译结果。

Description

通过转发模式连接的多TWS耳机实现自动翻译的方法及装置
技术领域
本申请涉及通信技术领域,尤其涉及一种控制方法及电子设备。
背景技术
目前,手机已经具备为用户提供双语实时翻译的能力。例如:手机可以从应用市场上下载具有翻译功能的应用(简称“翻译应用”),该翻译应用可以通过手机的麦克风拾取用户的语音,进行翻译。翻译的结果可以通过手机的听筒或扬声器播放出来,也可以通过手机的显示屏以文本形式显示出来。
在实际的场景中,由于只有一条语音上行通道,使用不同语种的用户之间,需要不断交替使用手机,以完成双语的实时翻译。例如:用户A先操作手机,启动手机的拾音功能,手机拾取用户A的语音。用户A还要选择翻译语种(即将用户A的语音翻译成哪种语种),电子设备将拾取的用户A的语音进行翻译,并将翻译结果通过语音的形式播放出来或文本的形式显示在显示屏。用户A将手机交给用户B,用户B收听手机播放出来的语音,或者通过查看手机显示的文本。而后,用户B再操作手机,启动手机的拾音功能,手机拾取用户B的语音。用户B选择翻译语种(即将用户B的语音翻译成哪种语种),电子设备将拾取的用户B 的语音进行翻译,并将翻译结果并通过语音的形式播放出来或文本的形式显示在显示屏,以便用户A了解到翻译结果。以此类推。
由此可见,在双语实时翻译的过程中,用户需要交替开启拾音功能,用户操作很复杂,体验不好。
发明内容
本申请提供的一种控制方法及电子设备,可以在多个耳机与电子设备间只有一条上行通信通道的情况下,自动进行话权裁决,无需用户参与即可自动实现双语甚至多语的翻译,有利于提升用户体验。
第一方面,本申请实施例提供一种耳机的控制方法,可运用于电子设备,电子设备连接有主耳机和从耳机,主耳机与电子设备直接通信,从耳机通过主耳机与电子设备通信,主耳机和从耳机上都配备有麦克风,该方法包括:
主耳机检测到第一用户的语音;响应于检测到的第一用户的语音,主耳机自动拾取第一用户的语音;主耳机确定主耳机具有话权,则主耳机将第一用户的语音上传给电子设备;从耳机通过主耳机接收到第一翻译结果,并播放第一翻译结果;其中,第一翻译结果为电子设备自动根据互译语种的设置,翻译第一用户的语音的结果。
在一些实施例中,主耳机和从耳机可以为一对耳机,例如可以是真正无线立体声(true wireless stereo,TWS)耳机,双耳机(即左右耳机)可分离设计,即该对耳机具体可以包含主耳机(可直接与电子设备通信)和从耳机(不能直接与电子设备通信,需通过主耳机与电子设备通信)。主耳机和从耳机各自具有独立的拾音和放音功能。这样,主耳机和从耳机可分别给两个用户使用。
由此,电子设备可以通过连接的耳机自动拾取用户的语音,并自动对拾取的语音进行翻译。可见,本申请实施例提供的技术方案中,简化了用户的操作,有利于提升用户体验。并且,由于使用耳机拾取语音,由于耳机具备降噪能力,能够提升拾音效果,也有利于提升手机的翻译效果。
一种可能的实现方式中,主耳机确定主耳机具有话权还包括:主耳机向电子设备请求话权;主耳机接收电子设备确定主耳机具有话权后返回的确定的结果。
在本申请一些实施例中,可以通过在主耳机上布置话权裁决模块,由主耳机的话权裁决模块进行话权裁决,也就是说,由主耳机确定哪个耳机具有话权。在本申请的另一些实施例中,可以通过在电子设备上布置话权裁决模块,由电子设备的话权裁决模块进行话权裁决,本申请实施例不做限定。
一种可能的实现方式中,主耳机或电子设备基于以下因素确定主耳机是否具有话权:在主耳机和从耳机均未检测到用户语音的预设时间段之后,若主耳机先检测到用户语音,则确定主耳机具有话权,从耳机不具有话权;若从耳机先检测到用户语音,则确定从耳机具有话权,主耳机不具有话权;或者,在主耳机具有话权时,确定主耳机未检测到用户语音的预设时间段内,主耳机具有话权;确定主耳机未检测到用户语音的预设时间段之后,主耳机不具有话权。
可选的,在主耳机或电子设备确定耳机一(可以是主耳机,也可以是从耳机)是否具有话权后,可以提示用户,话权裁决的结果(图4中以步骤S104b示出)。具体的,在一些实施例中,在主耳机确定耳机一是否具有话权后,可以通过耳机一播放提示音,以提示用户耳机一是否具有话权。例如:可以通过播放不同的提示音表示耳机一具有话权和不具有话权的两种情况。又例如:耳机一具有话权时播放一种提示音,耳机一不具有话权时不播放提示音,或者,耳机一不具有话权时播放一种提示音,耳机一具有话权时不播放提示音等。在另一些实施例中,在主耳机确定耳机一是否具有话权后,还可以通过电子设备,显示话权裁决的结果或者播放不同的动画等形式,以提示用户。本申请实施例对话权裁决结果的提示方式不做限定。
一种可能的实现方式中,互译语种的设置包括:主耳机对应第一语种和从耳机对应第二语种;电子设备自动根据互译语种的设置,翻译第一用户的语音,得到第一翻译结果具体包括:电子设备自动将第一用户的语音转化为第一文本,第一文本对应于第一语种;电子设备自动将第一文本翻译成第二文本,第二文本对应第二语种;电子设备将第二文本转化为语音,得到第一翻译结果。
可选的,电子设备也可以在第一次翻译(两个用户开始对话)之前,提示用户设置翻译语种或者修改默认的翻译语种。而后,在这两个用户交流的过程中,不需要切换翻译语种。这是由于本申请实施例中提供的话权裁决,可以自动识别出当前说话的用户(即具有话权的用户),再结合电子设备默认的或用户设置的翻译语种,可以自动确定要讲当前说话的用户的语音翻译成哪种语种。因此,不需要用户手动切换翻译语种。
一种可能的实现方式中,该方法还包括:主耳机确定主耳机不具有话权,则主耳机不上传将第一用户的语音给电子设备。
一种可能的实现方式中,该方法还包括:从耳机检测到第二用户的语音;响应于检测到的第二用户的语音,从耳机自动拾取第二用户的语音;
从耳机向主耳机请求话权;主耳机确定从耳机具有话权,则向从耳机发送确定的结果;从耳机接收到确定的结果,则将第二用户的语音通过主耳机上传给电子设备;主耳机接收并播放第二翻译结果,第二翻译结果为电子设备自动根据互译语种的设置,翻译第二用户的语音的结果。
一种可能的实现方式中,主耳机确定从耳机具有话权,则向从耳机发送确定的结果还包括:主耳机向电子设备请求从耳机的话权;主耳机接收电子设备确定从耳机具有话权后返回的确定的结果;主耳机将确定的结果发送给从耳机。
一种可能的实现方式中,主耳机或电子设备基于以下因素确定从耳机是否具有话权:在主耳机和从耳机均未检测到用户语音的预设时间段之后,若主耳机先检测到用户语音,则确定主耳机具有话权,从耳机不具有话权;若从耳机先检测到用户语音,则确定从耳机具有话权,主耳机不具有话权;或者,在从耳机具有话权时,确定从耳机未检测到用户语音的预设时间段内,从耳机具有话权;确定从耳机未检测到用户语音的预设时间段之后,从耳机不具有话权。
一种可能的实现方式中,互译语种的设置包括:主耳机对应的第一语种和从耳机对应的第二语种;电子设备自动根据互译语种的设置,翻译第二用户的语音,得到第二翻译结果具体包括:电子设备自动将第二用户的语音转化为第三文本,第三文本对应于第二语种;电子设备自动将第三文本翻译成第四文本,第四文本对应第一语种;电子设备将第四文本转化为语音,得到第二翻译结果。
第二方面、一种电子设备的控制方法,可运用于电子设备,电子设备连接有主耳机和从耳机,主耳机与电子设备直接通信,从耳机通过主耳机与电子设备通信,该方法包括:电子设备显示第一界面,第一界面显示有第一控件和第二控件;第一控件对应主耳机,第二控件对应从耳机;响应于检测到所述主耳机有语音输入,在所述第一界面上显示提示信息,指示所述主耳机正在语音输入;响应于电子设备确定主耳机具有话权,电子设备自动显示第二界面(包含第一界面的所有元素);第二界面的第一控件显示有第一提示信息,用于提示用户主耳机具有话权;响应于检测到所述从耳机有语音输入,在所述第一界面上显示提示信息,指示所述从耳机正在语音输入;响应于电子设备确定从耳机具有话权,电子设备自动显示第三界面(包含第一界面的所有元素);第三界面的第二控件显示有第二提示信息,用于提示用户从耳机具有话权;响应于电子设备确定主耳机和从耳机均不具有话权,电子设备自动显示第四界面(包含第一界面的所有元素),第四界面显示有第三提示信息,用于提示用户主耳机和从耳机均不具有话权。
在一些实施例中,在电子设备刚进入面对面翻译的界面时,主耳机和从耳机都还未检测到用户的语音,此时,主耳机和从耳机均不具有话权。在这种场景中,第一界面可以是电子设备刚进入面对面翻译的界面,第一界面例如可以是图6中(4)所示的界面307,第一控件可以是区域308的显示区域,第二控件可以是区域309显示区域。第一界面例如还可以是如图7中(1)所示的界面401,第一控件和第二控件分别是左耳机或右耳机对应的其中一个图标。可选的,此时,在主耳机和从耳机均不具有话权时,电子设备可以显示提示信息,提示主耳机和从耳机均不具有话权,显示该提示信息的界面即为第四界面。可选的,此时,电子设备也可以不显示提示信息,直到电子设备或主耳机确定具有话权的一方后,显示相应的提示信息。
也就是说,主耳机和从耳机先检测用户语音的一方,具有话权。如果是主耳机先检测到用户的语音,则主耳机或者电子设备可以确定主耳机具有话权,此时,电子设备可以显示第二界面,第二界面中第一控件显示主耳机具有话权。如果是从耳机先检测到用户的语音,则主耳机或者电子设备可以确定从耳机具有话权,此时,电子设备可以显示第三界面,第三界面中第二控件显示从耳机具有话权。
在另一些实施例中,第一界面还可以是电子设备在正在翻译过程中的一个界面,第一界面例如可以是如图7中(5)所示的界面409,第四界面例如可以是如图7中(6)所示的界面413。在又一些实施例中,第一界面还可以是话权发生变化前的界面,当话权发生变化后,电子设备显示相应的界面,用于提示用户话权变化后的情况。本申请实施例对第一界面不做限定。
一种可能的实现方式中,电子设备确定主耳机和从耳机是否具有话权,可以基于以下因素确定:在主耳机和从耳机均未检测到用户语音的预设时间段之后,若主耳机先检测到用户语音,则确定主耳机具有话权,从耳机不具有话权;若从耳机先检测到用户语音,则确定从耳机具有话权,主耳机不具有话权;或者,在主耳机具有话权时,确定主耳机未检测到用户语音的预设时间段内,主耳机具有话权;确定主耳机未检测到用户语音的预设时间段之后,主耳机不具有话权;或者,在从耳机具有话权时,确定从耳机未检测到用户语音的预设时间段内,从耳机具有话权;确定从耳机未检测到用户语音的预设时间段之后,从耳机不具有话权。
一种可能的实现方式中,在电子设备自动显示第二界面后,电子设备自动将主耳机拾取的用户的语音进行翻译,得到第一翻译结果;电子设备自动显示第五界面(包含第二界面的所有元素),第五界面显示有第一翻译结果;或者,在电子设备自动显示第三界面后,电子设备自动将从耳机拾取的用户的语音进行翻译,得到第二翻译结果;电子设备自动显示第六界面(包含第三界面的所有元素),第六界面显示有第二翻译结果。
一种可能的实现方式中,第五界面还显示有电子设备根据主耳机拾取的用户的语音转换的文字信息;或者,第六界面显示有电子设备根据从耳机拾取的用户的语音转换的文字信息。
一种可能的实现方式中,第五界面还显示有第三控件;电子设备检测到用户对所述第三控件的操作;响应于用户对第三控件的操作,电子设备显示第七界面(包含第三界面的所有元素),第七界面上显示有电子设备根据主耳机拾取的用户的语音转换的文字信息。
或者,第六界面还显示有第四控件;电子设备检测到用户对第四控件的操作;响应于用户对第四控件的操作,电子设备显示第八界面(包含第四界面的所有元素),第八界面上有显示有电子设备根据从耳机拾取的用户的语音转换的文字信息。
第三方面、一种耳机,包括:骨振动传感器,通信模块、处理器、麦克风和听筒;骨振动传感器,用于检测第一用户的语音;麦克风,用于响应于检测到的第一用户的语音,自动拾取第一用户的语音;处理器,用于确定耳机是否具有话权,并在确定耳机当前具有话权时指示通信模块将第一用户的语音上传给与耳机相连的电子设备;接收一个或多个从耳机的话权裁决请求,对话权裁决请求进行裁决获得裁决结果,并指示通信模块将裁决结果返还给一个或多个从耳机;通信模块,用于根据处理器的指示将第一用户的语音上传给与耳机相连的电子设备;并接收来自电子设备的第一翻译结果,第一翻译结果为电子设备自动根据互译语种的设置,自动翻译第一用户的语音的结果;并将第一翻译结果发送给听筒;接收来自一个或多个从耳机的语音信息,将其上传给电子设备,并将电子设备发送的第二翻译结果转发给一个或多个从耳机。听筒,用于播放第一翻译结果。
一种可能的实现方式中,处理器基于以下因素确定耳机或一个或多个从耳机是否具有话权:在耳机的骨振动传感器和一个或多个从耳机的骨振动传感器均未检测到用户语音的预设时间段之后,若耳机的骨振动传感器先检测到用户语音,则确定耳机具有话权,一个或多个从耳机不具有话权;若任一个从耳机骨振动传感器先检测到用户语音,则确定先检测到用户语音的从耳机具有话权,耳机不具有话权;或者,在耳机具有话权时,确定耳机的骨振动传感器未检测到用户语音的预设时间段内,耳机具有话权;确定耳机的骨振动传感器未检测到用户语音的预设时间段之后,耳机不具有话权;或者,在任一个从耳机具有话权时,确定具有话权的从耳机的骨振动传感器未检测到用户语音的预设时间段内,具有话权的从耳机具有话权;确定具有话权的从耳机的骨振动传感器未检测到用户语音的预设时间段之后,具有话权的从耳机不再具有话权。
一种可能的实现方式中,通信模块,还用于在处理器确定主耳机不具有话权时,不上传第一用户的语音给与耳机相连的电子设备。
第四方面、一种电子设备,包括:处理器、存储器和触摸屏,存储器、触摸屏与处理器耦合,存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当处理器从存储器中读取计算机指令,以使得电子设备执行如下操作:触摸屏,用于显示第一界面,第一界面显示有第一控件和第二控件;第一控件对应主耳机,第二控件对应从耳机;其中,主耳机与电子设备连接,从耳机通过主耳机与电子设备连接;处理器,用于在确定主耳机具有话权时,指示触摸屏显示第二界面;第二界面显示有第一提示信息,用于提示用户主耳机具有话权;或者,在确定从耳机具有话权时,指示触摸屏显示第三界面;第三界面显示有第二提示信息,用于提示用户从耳机具有话权;或者,在确定主耳机和从耳机均不具有话权时,指示触摸屏显示第四界面;第四界面显示有第三提示信息,用于提示用户主耳机和从耳机均不具有话权。
一种可能的实现方式中,处理器在确定主耳机或从耳机是否具有话权时,可以基于以下因素确定:在主耳机和从耳机均未检测到用户语音的预设时间段之后,若主耳机先检测到用户语音,则确定主耳机具有话权,从耳机不具有话权;若从耳机先检测到用户语音,则确定从耳机具有话权,主耳机不具有话权;或者,在主耳机具有话权时,确定主耳机未检测到用户语音的预设时间段内,主耳机具有话权;确定主耳机未检测到用户语音的预设时间段之后,主耳机不具有话权;或者,在从耳机具有话权时,确定从耳机未检测到用户语音的预设时间段内,从耳机具有话权;确定从耳机未检测到用户语音的预设时间段之后,从耳机不具有话权。
一种可能的实现方式中,处理器,还用于在触摸屏显示第二界面后,自动将主耳机拾取的用户的语音进行翻译,得到第一翻译结果;指示触摸屏显示第五界面,第五界面显示有第一翻译结果;或者,在触摸屏显示第三界面后,自动将从耳机拾取的用户的语音进行翻译,得到第二翻译结果;指示触摸屏显示第六界面,第六界面显示有第二翻译结果。
一种可能的实现方式中,第五界面还显示有电子设备根据主耳机拾取的用户的语音转换的文字信息;或者,第六界面显示有电子设备根据从耳机拾取的用户的语音转换的文字信息。
一种可能的实现方式中,第五界面还显示有第三控件;触摸屏,还用于检测到用户对第三控件的操作;处理器,还用于响应于用户对第三控件的操作,指示触摸屏显示第七界面,第七界面上显示有处理器根据主耳机拾取的用户的语音转换的文字信息;或者,第六界面还显示有第四控件;触摸屏,还用于检测到用户对第四控件的操作;处理器,还用于响应于用户对第四控件的操作,指示触摸屏显示第八界面,第八界面上有显示有处理器根据从耳机拾取的用户的语音转换的文字信息。
第五方面、一种电子设备,包括:麦克风,听筒,处理器、存储器,麦克风、听筒、存储器与处理器耦合,麦克风用于拾取话音,听筒用于播放音频信息,存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当处理器从存储器中读取计算机指令,以使得电子设备执行如第一方面及其中任一种可能的实现方式中所述的控制方法。
第六方面、一种电子设备,包括:处理器、存储器和触摸屏,存储器、触摸屏与处理器耦合,存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当处理器从存储器中读取计算机指令,以使得电子设备执行如第二方面及其中任一种可能的实现方式中所述的控制方法。
第七方面、一种计算机存储介质,包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行如第一方面及其中任一种可能的实现方式中所述耳机的控制方法。
第八方面、一种计算机存储介质,包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行如第二方面及其中任一种可能的实现方式中所述电子设备的控制方法。
第九方面、一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行如第一方面中及其中任一种可能的实现方式中所述的方法。
第十方面、一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行如第二方面中及其中任一种可能的实现方式中所述的方法。
附图说明
图1为本申请实施例提供的一种电子设备的结构示意图一;
图2为本申请实施例提供的一种电子设备的结构示意图二;
图3为本申请实施例提供的一种应用场景的示意图;
图4为本申请实施例提供的一种控制方法的流程示意图;
图5A为本申请实施例提供的一种电子设备的结构示意图三;
图5B为本申请实施例提供的一种电子设备的结构示意图四;
图6为本申请实施例提供的一些电子设备的界面示意图;
图7为本申请实施例提供的又一些电子设备的界面示意图。
具体实施方式
在现有技术中,两个用户之间需要不断交替使用手机,例如:手动开启手机的拾音功能,并通过手机的麦克风拾取自己的语音。还要手动切换翻译语种,以便手机将拾取的语音进行翻译。一方面,用户之间交替使用手机极不方便,用户操作复杂,用户体验不佳。另一方面,由于手机的麦克风拾音效果易受环境音影响,手机的麦克风拾取用户语音的效果较差,可能影响手机的翻译效果。
为此,本申请实施例提供一种翻译方法,可运用于能够连接耳机的电子设备,左右耳机分别由不同的用户使用。或者运用于一个能够连接主从耳机的电子设备,主从耳机分别由不同用户使用。在本申请实施例中,主从耳机在检测到有语音输入时自动启动拾音功能,由主耳机或电子设备判断哪个耳机有话权,哪个耳机的语音信号就能被上传给电子设备进行翻译处理,这样无需用户手动启动拾音,也无需用户交替使用耳机或手机,即可顺畅的实现翻译功能。可见,本申请实施例提供的技术方案,能简化用户的操作,智能裁决一个时间段内哪个耳机的语音信息,能通过耳机与电子设备间的唯一语音通路传送到电子设备,有利于提升用户体验。并且,由于使用耳机拾取语音,而耳机具备降噪能力,能够提升拾音效果,也有利于提升手机的翻译效果。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/ 或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
示例性的,本申请中的电子设备可以为手机、平板电脑、个人计算机(PersonalComputer,PC)、个人数字助理(personal digital assistant,PDA)、智能手表、上网本、可穿戴电子设备、增强现实技术(Augmented Reality,AR)设备、虚拟现实(Virtual Reality,VR)设备、车载设备、智能汽车、智能音响、机器人等,本申请对该电子设备的具体形式不做特殊限制。
图1示出了电子设备100的结构示意图。
电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器 180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110 中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface, MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头 193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface, DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100 的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S 接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块 141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块 150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution, LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system, GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统 (quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems, SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode 的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed, Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体 (complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组 (moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备 100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110 中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备 100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm 的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100 抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C 测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D 检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100 使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
在本申请实施例中,电子设备连接的耳机可以配置有陀螺仪传感器、加速度传感器、接近光传感器等中任一个或任几个,用于检测耳机的运行状态,并进一步确定用户是否佩戴耳机。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器 180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J 检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备 100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142 的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
在本申请实施例中,可以在耳机中配置骨传导传感器,或骨振动传感器,可用于检测佩戴耳机者的骨骼振动信号,以便确定是否被佩戴,佩戴耳机者是否开始说话,以及是否停止说话。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。 SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图2是本发明实施例的电子设备100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
下面结合捕获拍照场景,示例性说明电子设备100软件以及硬件的工作流程。
当触摸传感器180K接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该输入事件所对应的控件。以该触摸操作是触摸单击操作,该单击操作所对应的控件为相机应用图标的控件为例,相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通过摄像头 193捕获静态图像或视频。
以下实施例中所涉及的技术方案均可以在具有上述硬件架构和软件架构的电子设备100 中实现。
下面结合附图对本申请实施例提供的技术方案进行详细说明。
如图3所示,为本申请实施例提供的一种应用场景的示例图。用户A和用户B可以通过电子设备100,以及电子设备100连接的耳机200,实现双语实时翻译。
在一些实施例中,耳机200例如可以是真正无线立体声(true wireless stereo,TWS)耳机,采用多点无线互联技术,多耳机(以左右耳机为例)可分离设计,多耳机之间以蓝牙协议或私有协议相互通信。如图3所示耳机200具体可以包含主耳机201(可直接与电子设备 100通信)和从耳机202(不能直接与电子设备100通信,需通过主耳机201与电子设备100通信,即从耳机与电子设备间交互的数据需通过主耳机转发,称为转发模式)。具体的,主耳机201与电子设备100之间可以采用某种蓝牙协议进行通信,主耳机201与从耳机202可以采用另一种蓝牙协议进行通信,从而实现主耳机201直接与电子设备100通信。上行方向上,从耳机202可以先将语音或数据传输给主耳机201,再由主耳机201发送给电子设备。换言之,耳机200(包括主耳机201与从耳机202)与电子设备100之间只有一条上行通信通道,即主耳机201与电子设备100之间的通信通道。下行方向上,左右扬声器分为了主扬声器(TWSMaster)和从属扬声器(TWS Slave)。主扬声器是能够接收电子设备如智能手机、笔记本电脑等设备(音源)传输的蓝牙音频传输模型协议(Advanced Audio Distribution Profile,A2DP)的音频以及音频/视频远程控制协议(Audio/Video Remote Control Profile,AVRCP)的流媒体控制信号,并将音频传输给其他TWS设备的扬声器。从属扬声器是指能够从主扬声器接收A2DP 协议音频的扬声器。也可以将TWS耳机的两个扬声器都设置为可以作为主扬声器使用。这样音频可以从主扬声器传输到从扬声器,能实现音频在两个分离的扬声器中同步播放。
主耳机201和从耳机202各自具有独立的拾音和放音功能。这样,主耳机201和从耳机 202可分别给两个用户使用。例如:用户A佩戴主耳机201,用户B佩戴从耳机202。具体的,在用户A发声时,主耳机201的麦克风可以自动拾取用户A的语音,并将拾取的用户A的语音发送给电子设备100,由电子设备100对用户A的语音进行翻译,翻译结果可以以文本形式通过电子设备100显示出来,也可以以语音形式通过耳机200的主和/或从属扬声器播放出来。在用户B发声时,从耳机202的麦克风可以自动拾取用户B的语音,并将拾取的用户 B的语音经过主耳机201,发送给电子设备100。再由电子设备100对用户B的语音进行翻译,翻译结果可以以文本形式通过电子设备100显示出来,也可以以语音形式通过耳机200的主和/或从属扬声器播放出来。例如,用户A将自己的一对TWS与自己的手机配对连接(转发模式)成功后,开启翻译功能,例如一个翻译APP,并将已连接的耳机中的一个拿给交谈的对方,接着说不同语言的双方只需说话,无需操作手机即可实现自动的拾音,翻译。能简化用户操作,极大的方便用户面对面翻译,提高交流效率。
在该实施例中,耳机200与电子设备100之间的通信只有一路通道,因此,当主耳机201 和从耳机202都拾取有用户的语音,需要向电子设备100发送时,主耳机需要对发送谁的语音或者先发送谁的语音进行判断,即话权裁决。然后,主耳机201根据话权裁决的结果发送相应的语音到电子设备100处进行翻译。
需要说明的是,当电子设备可以连接多个耳机,这些耳机中有一个主耳机,多个从耳机时,本申请实施例也可以适用于多人之间的翻译,本申请实施例不做限定。
如图4所示,为本申请实施例提供的一种翻译方法的流程示意图。该翻译方法具体包括:
S101、耳机一检测到用户语音。
在本申请的一些实施例中,耳机一中配置有骨振动传感器。当佩戴耳机一的用户说话时,骨振动传感器会检测到用户骨骼或者声带的振动,即可认为骨振动传感器检测到用户语音。此时,骨振动传感器可以向耳机一的麦克风发送触发信号,指示麦克风开始拾音。同时,或者稍早或稍晚的一些时刻,骨振动传感器也可以发送信号,用于申请话权,以便后续判断耳机一是否具有话权。
S102、耳机一自动拾音。
示例性的,耳机一接收到骨振传感器发送的触发信号后,自动开始麦克风的拾音功能,开始拾音。
本申请的一些实施例中,在步骤S101之前,耳机一还要检测用户是否佩戴耳机一。例如:耳机一可以配置有接近光传感器,用于检测耳机一是否接近物体,以判断用户是否佩戴耳机一。又例如:结合实际场景可知,用户在佩戴耳机一的过程中,耳机一的运动状态变化是遵循一定规律(用户拿出耳机一,移至到耳机处,前后旋转塞入耳朵内)。因此,可以通过检测耳机一的运动状态的变化来确定用户是否佩戴耳机一。具体的,耳机一可以配置有运动传感器(加速度传感器、陀螺仪传感器、距离传感器中任一种或任几种),用于检测耳机一的运动状态变化,以确定用户是否佩戴耳机一。
由于耳机一只有检测到用户佩戴后,且佩戴耳机一的用户发声时,耳机一才会开启拾音功能,开始拾音。也就是说,在用户没有佩戴耳机一,或者佩戴耳机一的用户没有发声时,耳机一都不会拾音,能够减少拾取到环境音的情况,提升了耳机一拾音的效果。
S103、耳机一将拾取的用户语音缓存。
在本申请的一些实施例中,在步骤S103之前,耳机一可以对拾取到的用户语音进行降噪处理,以提高拾音效果。在本申请的另一些实施例中,耳机一也可以对缓存后的用户语音进行降噪处理,以提高拾音效果。本申请实施例对用户语音的缓存和降噪处理的先后顺序不做限定。
还需要说明的是,本步骤为可选步骤。耳机一拾取的用户语音,在等待确定耳机一是否具有话权后,才能确定是否上传该用户语音到电子设备。如果耳机一拾取用户语音后,能够得到耳机一是否具有话权的裁决结果,或者耳机一在拾取用户语音的过程中,就能够得到是否具有话权的裁决结果,那么,耳机一可以不缓存拾取的用户语音。若耳机一具有话权,可直接将拾取的用户语音上传给电子设备,或通过主耳机上传给电子设备。若耳机一不具有话权,则直接丢弃拾取的用户语音。本申请实施例对此不做限定。
S104、主耳机或电子设备确定耳机一是否具有话权,若耳机一具有话权,则耳机一将(缓存的)用户语音上传到电子设备,或耳机一通过主耳机将(缓存的)用户语音上传到电子设备。
本申请的一些实施例中,耳机一可以为主耳机。那么,在主耳机检测到用户语音之后,即执行步骤S101之后,主耳机可以开始申请话权,对主耳机是否具有话权进行判断,即话权裁决(图4中以步骤S104a示出)。若主耳机具有话权,则主耳机将(缓存的)用户语音上传到电子设备。若主耳机不具有话权,则主耳机不能上传缓存的用户语音到电子设备。
当然,耳机一也可以是从耳机。在一些实施例中,在从耳机检测到用户语音之后,即执行步骤S101之后,例如:从耳机在启动拾音的同时或之后,向主耳机申请话权,主耳机确定从耳机是否具有话权;或者主耳机将话权申请转发给电子设备,由电子设备确定从耳机是否具有话权,主耳机将电子设备下发的话权裁决结果转发给从耳机。如果话权裁决结果是从耳机具有话权,则从耳机通过主耳机将(缓存的)用户语音上传给电子设备供翻译。在另一些实施例中,在从耳机检测到用户语音之后,即执行步骤S101之后,从耳机可以直接将拾取到的用户语音上传给主耳机,由主耳机进行缓存。同时,从耳机向主耳机申请话权,主耳机确定从耳机是否具有话权;或者主耳机将话权申请转发给电子设备,由电子设备确定从耳机是否具有话权,主耳机将电子设备下发的话权裁决结果转发给从耳机。如果话权裁决结果是从耳机具有话权,则主耳机直接将缓存的从耳机拾取的用户语音上传给电子设备。如果话权裁决结果是从耳机不具有话权,则主耳机可以丢弃缓存的从耳机拾取的用户语音。本申请实施例对此不做限定。
需要说明的是,主耳机进行话权裁决的步骤与主耳机开始拾音步骤均发生在步骤S101 之后。本申请实施例并不限定主耳机进行话权裁决的步骤与主耳机开始拾音步骤之间的先后顺序,即可以拾音后再进行话权申请,也可以先申请话权裁决,确定具有话权的情况下才开启拾音,也可以拾音与话权申请同时进行。
示例性的,上述话权裁决可以有以下几种情况(裁决规则):
一、佩戴耳机的两个用户均未说话时,先说话的用户具有话权,也可认为是先检测到语音的耳机具有话权,电子设备可以对拾取的先说话用户的语音进行翻译。在该用户说话的过程中,另一用户不具有话权。
二、佩戴耳机中的其中一个用户正在说话,且该用户具有话权,则另一个用户不具有话权。也可认为正在将缓存的语音上传给电子设备进行翻译的耳机具有话权,另一只耳机不具有话权。
三、具有话权的用户在刚刚结束说话的一段时间内(例如5秒之内),该用户仍然具有话权。这是考虑到该用户在说话时,可能会出现停顿的情况。若在用户短暂的停顿后切换话权,将影响用户后面要说的话。因此,此时,仍然保留该用户的话权。也可认为具有话权的耳机在未检测到用户语音的一段时间内仍然具有话权。
四、具有话权的用户在刚刚结束说话的一段时间后(例如5秒之后),该用户不具有话权。也可认为具有话权的耳机在未检测到用户语音的一段时间之后不再具有话权。此后,可设置另一用户具有话权,或者设置再次先说话的用户具有话权。也可以认为可设置另一个耳机具有话权,或者设置再次先检测用户语音的一个耳机具有话权。
可选的,在主耳机确定耳机一是否具有话权后,可以提示用户,话权裁决的结果(图4 中以步骤S104b示出)。具体的,在一些实施例中,在主耳机确定耳机一是否具有话权后,可以通过耳机一播放提示音,以提示用户耳机一是否具有话权。例如:可以通过播放不同的提示音表示耳机一具有话权和不具有话权的两种情况。又例如:耳机一具有话权时播放一种提示音,耳机一不具有话权时不播放提示音,或者,耳机一不具有话权时播放一种提示音,耳机一具有话权时不播放提示音等。在另一些实施例中,在主耳机确定耳机一是否具有话权后,还可以通过电子设备,显示话权裁决的结果或者播放不同的动画等形式,以提示用户。本申请实施例对话权裁决结果的提示方式不做限定。
可选的,主耳机还可以通过电子设备,提示用户话权裁决的结果(图4中以步骤S104b 示出)。例如:可以通过声音、文字、动画等形式提示。
S105、电子设备对接收到用户语音进行翻译。
在本申请的一些实施例中,电子设备可以默认设置耳机一和耳机二的翻译语种,例如:主耳机为母语语种,例如:中文;从耳机为电子设备常用的外语语种,例如:英语。那么,耳机一为主耳机时,电子设备可以自动将耳机一拾取到的语音翻译成英语。耳机一为从耳机时,电子设备可以自动将耳机一拾取到的语音翻译成中文。可选的,电子设备也可以在第一次翻译(两个用户开始对话)之前,提示用户设置翻译语种或者修改默认的翻译语种。而后,在这两个用户交流的过程中,不需要切换翻译语种。这是由于本申请实施例中提供的话权裁决,可以自动识别出当前说话的用户(即具有话权的用户),再结合电子设备默认的或用户设置的翻译语种,可以自动确定要讲当前说话的用户的语音翻译成哪种语种。因此,不需要用户手动切换翻译语种。
在本申请的另一些实施例中,电子设备具有翻译功能,可以将待翻译的用户语音转化为文字,然后对该文字进行翻译,得到翻译结果。另一些实施例中,电子设备可以将待翻译的用户语音转化为文字,然后将该文字上传到云服务器,由云服务器进行翻译后,将翻译后的文字返回给电子设备。
S106、电子设备以文本形式显示翻译结果,或者以语音形式通过耳机二播放翻译结果。
本申请的一些实施例中,电子设备通过显示屏显示翻译后的文字,或者电子设备将翻译后的文字转换成语音,再通过耳机二(或者耳机二和耳机一)播放出来,以便佩戴耳机二的用户收听。
需要说明的是,在本申请中,电子设备通过显示屏显示翻译结果,或者通过耳机播放翻译结果。相比较于现有技术中使用扬声器播放翻译结果,能够保证用户对话的私密性,有利于提升用户体验。
由此可见,现有技术中,用户需要手动开启拾音,且手动切换翻译语种。然而,本申请实施例提供的技术方案中,耳机可以自动拾取用户的语音,且可以通过话权裁决,自动确定将当前用户(具有话权的用户)的语音翻译成哪种语种,简化了用户操作,有利于提升用户体验。
如图5A所示,为本申请实施例提供的一种连接耳机的电子设备框架图的示意图。
示例性的,主耳机具体可以包括:话权裁决模块、双耳通信模块、骨振动传感器、骨振动处理器、麦克风、降噪处理模块、蓝牙语音模块、听筒、和话权提示模块。主耳机还可以有话权提示模块。从耳机的结构与主耳机相似,区别的有:1、主耳机中有话权裁决模块,从耳机中是话权裁决代理模块。2、主耳机可以直接与电子设备通信,从耳机通过主耳机与电子设备进行通信。3、从耳机的双耳通信模块和主耳机的蓝牙语音模块可通信。其他从耳机和主耳机的差别将在下文介绍翻译方法的过程中说明。电子设备可以包括翻译模块以及显示屏(显示翻译结果,显示当前具有话权的耳机)等。在本申请的另一些示例中,电子设备还可以包括话权裁决代理模块,显示屏上还可以按钮一和按钮二(分别对应与主耳机和右耳机)。这样,用户还可以通过手动操作显示屏上的按钮一或按钮二,以向主耳机申请话权,具体的可参见应用场景五的描述。
其中,双耳通信模块:包括主耳机的双耳通信(主)模块和从耳机的双耳通信(从)模块,是基于无线传输协议,例如:蓝牙、NFC、Wi-Fi等,为双耳机提供状态同步、数据共享、命令控制(例如音量控制等)等功能。双耳通信模块还为双耳机之间传输话权申请和话权裁决结果等的通道。
骨振动传感器:在用户佩戴耳机后,可检测到用户说话时骨骼的振动,以及用户说话过程中,获取与用户语音对应的骨振动信号等。
骨振动处理器:可以对骨振动传感器获取的骨振动信号进行处理,判断佩戴耳机的用户是否开始说话,是否停止说话,并输出相应的信号。其中,骨振动处理器和骨振动传感器可以集成在一起,本申请实施例不做限定。
降噪处理模块:可以对拾取的用户语音进行优化,以提高拾音效果,进而能提升翻译效果。
话权裁决代理模块:用于向话权裁决模块提出话权申请,接收话权裁决结果,以及对话权裁决结果进行响应等处理。
话权裁决模块:对话权申请进行裁决,以确定话权申请者是否具有话权,并将裁决结果反馈给话权裁决代理模块或主耳机的蓝牙语音模块等。
翻译模块:用于提供基础的翻译功能。
电子设备的显示屏:用于显示用户界面(User Interface,UI),例如:可以显示翻译结果的文本,可以显示按钮一和按钮二(可用于用户手动申请话权使用)等。
需要说明的是,上述的这些模块划分以及布局仅是一种示例,不构成对电子设备和耳机的限定。例如:主耳机中的话权裁决模块也可以布置在电子设备上,而主耳机中布置话权裁决代理模块。也就是说,本申请实施例中,也可以由电子设备来进行话权裁决的步骤。如图 5B所示,那么,主耳机可以通过主耳机的话权裁决代理模块,将主耳机的话权申请或者将接收到从耳机的话权申请发送到电子设备,由电子设备的话权裁决模块做出裁决。而后,电子设备将裁决结果发送给主耳机的话权裁决代理模块。如果是主耳机发出的话权申请,则主耳机的话权裁决代理模块根据裁决结果,确定是否上传(缓存的)语音。如果是从耳机发出的话权申请,则主耳机的话权裁决代理模块依次通过主耳机的双耳通信(主)模块、从耳机的双耳通信(从)模块,将裁决结果发送给从耳机的话权裁决代理模块,以便从耳机确定是否上传(缓存的)语音。其他部分的实现参考上述实施例的相关内容的描述,不再重复赘述。又例如:上述的主耳机可以包括一个或多个处理器,这一个或多个处理器可以实现上述的骨振动处理器、降噪处理模块、话权裁决模块等模块实现的功能。上述的从耳机可以包括一个或多个处理器,这一个或多个处理器可以实现上述的骨振动处理器、降噪处理模块、话权裁决代理模块等模块实现的功能。
下面结合图5A所示的连接耳机的电子设备的框架图,对耳机和电子设备共同完成双语翻译的方法的多种应用场景进行示例性说明。
应用场景一、从耳机自动拾取语音,自动申请话权。
在一些实施例中,从耳机检测到用户B佩戴从耳机后,从耳机的骨振传感器检测到骨振动信号,将该骨振动信号发送给骨振动处理器。骨振动处理器确定用户B开始说话后,向话权裁决代理模块发出触发信号。一方面,该触发信号通知麦克风开启拾音功能,拾取用户B 的语音信号,并将拾取的用户B的语音信号交于降噪处理模块处理,处理后的用户B的语音信号暂存于蓝牙语音模块中,等待话权裁决结果。另一方面,该触发信号通知话权裁决代理模块申请话权。
话权裁决代理模块将触发信号经双耳通信(从)模块、主耳机的双耳通信(主)模块送到主耳机的话权裁决模块。主耳机的话权裁决模块根据该触发信号和裁决规则做出判断,确定用户B是否具有话权。裁决规则可以参考上述步骤S104中的相关描述。而后,主耳机的话权裁决模块将裁决结果经主耳机的双耳通信(主)模块、从耳机的双耳通信(从)模块传到从耳机的话权裁决代理模块。
若裁决结果为用户B具有话权,则话权裁决代理模块指示双耳通信(从)模块将蓝牙语音模块中缓存的用户语音经双耳通信(从)模块,发送给主耳机,主耳机通过其蓝牙语音模块,再将其上传到电子设备的翻译功能,完成对用户B的语音的翻译。翻译结果可以直接通过电子设备的显示屏显示出来,也可以经主耳机的蓝牙语音模块,由主耳机的听筒播放出来。在一些实施例中,翻译结果还可以经主耳机的蓝牙语音模块,从耳机的双耳通信(从)模块、从耳机的蓝牙语音模块到从耳机的听筒播放出来。
若裁决结果为用户B不具有话权,则话权裁决代理模块确定不上传从耳机蓝牙语音模块缓存的用户B的语音。在一些实施例中,当从耳机拾取到新的用户B的语音时,可以覆盖蓝牙语音模块中之前存储的语音。
应用场景二、从耳机手动开启拾音功能,自动申请话权。
在一些实施例中,从耳机可以配置有重力传感器,该重力传感器可以感知用户B施加在从耳机上的振动,例如:用户B双击从耳机的操作,该操作可以作为用户B开启拾音功能的触发操作。从耳机开始拾取用户B的语音,并开始申请话权。其他内容与应用场景一中的方法类似,不再赘述。
应用场景三、主耳机自动拾取语音,自动申请话权。
在一些实施例中,主耳机检测到用户A佩戴主耳机后,主耳机的骨振传感器检测到骨振动信号,将该骨振动信号发送给骨振动处理器。骨振动处理器确定用户A开始说话后,向话权裁决模块发出触发信号。一方面,该触发信号通知麦克风开启拾音功能,拾取用户A的语音信号,并将拾取的用户A的语音信号交于降噪处理模块处理,处理后的用户A的语音信号暂存于蓝牙语音模块中,等待话权裁决结果。另一方面,该触发信号通知话权裁决模块申请话权。话权裁决模块做出判断,用户A是否具有话权。裁决规则可以参考上述步骤S104中的相关描述。
若裁决结果为用户A具有话权,则话权裁决模块通知蓝牙语音模块,将缓存的用户A的语音上传到电子设备的翻译功能,完成对用户A的语音的翻译。翻译结果可以直接通过电子设备的显示屏显示出来,也可以经主耳机的蓝牙语音模块、主耳机的双耳通信(从)模块、从耳机的蓝牙语音模块到从耳机的听筒播放出来。一些实施例中,主耳机的耳机也可以播放翻译结果。
若裁决结果为用户A不具有话权,则话权裁决模块确定不上传缓存的用户A的语音。在一些实施例中,当主耳机拾取到新的用户A的语音时,可以覆盖蓝牙语音模块中之前存储的语音。
应用场景四、主耳机手动开启拾音功能,自动申请话权。
在一些实施例中,主耳机可以配置有重力传感器,该重力传感器可以感知用户A施加在主耳机上的振动,例如:用户A双击主耳机的操作,该操作可以作为用户A开启拾音功能的触发操作。主耳机开始拾取用户A的语音,并开始申请话权。其他内容与应用场景三中的方法类似,不再赘述。
应用场景五、用户通过电子设备的用户界面,手动申请话权。
在一些实施例中,响应于用户在电子设备的用户界面点击按钮一,如附图5A,电子设备通过话权裁决代理模块向主耳机的话权裁决申请按钮一对应的用户(例如:用户A)的话权。或者,如附图5B,电子设备的话权裁决模块确定按钮一对应的用户(或耳机)(例如:用户 A)是否具有话权。若用户A具有话权,则主耳机的话权裁决模块指示主耳机的蓝牙语音模块上传缓存的用户A的语音到电子设备的翻译模块,进行翻译。其他相关内容参见应用场景三中的描述。
假设响应于用户在电子设备的用户界面点击按钮二,电子设备通过话权裁决代理模块向主耳机的话权裁决申请按钮二对应的用户(例如:用户B)的话权。若用户B具有话权,则主耳机的话权裁决模块通过主耳机的双耳通信(主)模块、从耳机的双耳通信(从)模块、从耳机的话权裁决代理模块,指示从耳机的蓝牙语音模块上传缓存的用户B的语音到电子设备的翻译模块,进行翻译。其他相关内容参见应用场景一中的描述。
如图6所示,为本申请实施例提供的一些电子设备的用户界面的示意图。下面结合图6 中的界面图,对本申请实施例提供的翻译方法进行说明。
如图6中(1)所示,为本申请实施例提供的一些电子设备的界面300的示意图。界面300上可以包括状态栏301、多个应用的图标(例如:翻译应用的图标302),以及停靠栏(dock) 303。其中,状态栏301中可以包括运营商信息、时间、电量、网络连接情况等信息。停靠栏 303中可以包括多个常用的应用的图标,例如:微信的图标,阅读的图标、录音机的图标以及通讯录的图标等。其中,翻译应用为本申请实施例提供的一种翻译应用,可以实现双语翻译的功能。其中,具体的实现可参考上文的描述。
响应于检测到用户点击翻译应用的图标302的操作,电子设备显示如图6中(2)所示的翻译应用的主界面304。主界面304中可以包括有翻译语种选项305和面对面翻译选项306。例如:电子设备可以默认设置为:母语与常用的外语之间的翻译。例如:中文和英语的互译。用户也可以通过该翻译语种选项305修改设置。可选的,该翻译语种选项305也可以设置在其他界面中,例如进入面对面翻译后的界面307或界面310中,本申请实施例对此不再限定。
响应于检测到用户点击面对面翻译选项306,电子设备显示如图6中(4)所示的界面307。该界面307中电子设备被划分为两个区域,其中每一区域对应一个用户,例如:区域308对应用户A,区域309对应用户B。当电子设备检测到用户A和用户B均佩戴耳机后,电子设备可以显示如图6中(3)所示的界面310。界面310中可以显示各个区域对应的耳机标识,例如区域308中显示有“左耳机”的标识311,区域309中显示有“右耳机”的标识312。界面310中还可以显示当前具有话权的耳机的提示信息,例如在区域309中显示有提示信息317,提示此时右耳机(佩戴右耳机的为用户B)具有话权,用户B可以开始说话。本申请实施例对提示的内容以及提示方式均不做限定。
需要说明的是,电子设备对两只耳机的标识,可以是以左耳机的标识和右耳机的标识进行标识,也可以以主耳机的标识和从耳机的标识进行标识。并且标识的形式可以是以文字、字母或数字等形式进行标识,也可以以图标或图形的形式进行标识,标识的具体形式不做限定。
在一些实施例中,区域308和区域309还可以各自包括一个申请话权的控件,该控件可用于接收用户手动申请话权的操作,例如:点击、长按等。例如:电子设备检测到用户对区域308中的申请话权的控件的操作之后,可以用于申请区域308对应的耳机的话权(例如:左耳机)。又例如:例如:电子设备检测到用户对区域309中的申请话权的控件的操作之后,可以用于申请区域309对应的耳机的话权(例如:左耳机)。具体的,可以由电子设备进行话权裁决或者由电子设备将话权申请发送到主耳机,由主耳机进行话权裁决。具体的实现可参考上述相关描述。
电子设备在检测到用户B开始说话后,自动开始拾音,以及申请话权。在确定用户B具有话权的情况下,上传用户B的语音,对用户B的语音进行翻译。具体的实现过程可参考上文的描述,这里不再赘述。
在电子设备对用户B的语音翻译完成后,或者可以一边翻译,一边对已经翻译好的结果以语音的形式进行播放,此时显示如图6中(5)所示的界面313。或者,电子设备以文本的形式显示翻译结果,如图6中(6)所示的界面315。例如:界面313中,由于用户B具有话权,翻译的是用户B的语音,故在用户A对应的区域308上显示提示信息314,用于提示用户A正在播放翻译结果。又例如:在界面315中,由于用户B具有话权,翻译的是用户B的语音,故翻译结果316显示在用户A对应的区域308上。
还需要说明的是,电子设备在显示翻译结果316时,还可以该翻译结果316对应的原语种的文字。
在一些实施例中,若用户在图6中(2)所示的界面304上,点击面对面翻译选项306之前,用户已经佩戴好耳机。那么,响应于检测到用户点击面对面翻译选项306,电子设备显示如图6中(3)所示的界面310。
如图7所示,为本申请实施例提供又一些电子设备的用户界面的示意图。下面结合图7 中的界面图,对本申请实施例提供的翻译方法进行说明。
在检测到用户在如图6中(2)所示的界面304上,点击面对面翻译选项306后,电子设备可以显示如图7中(1)所示的界面401。该界面401中显示有左耳机的标识402,和右耳机的标识403。
如图7中(2)所示的界面404,在确定具有话权的耳机之后,电子设备还可以提示用户当前具有话权的耳机。例如:界面404上可以显示话权的提示信息405,用于表示电子设备或主耳机确定的当前具有话权的耳机(或该耳机对应的用户)。可选的,也可以单独或同时通过耳机的标识或图标的变化来提示用户,例如:以具有话权的耳机对应的图标的动态变化、或者颜色变化,或明暗变化等形式来提示用户。本申请实施例对提示方式不做限定。
在接收到右耳机拾取到的用户语音后,电子设备对该用户语音进行翻译,翻译后的结果可以以声音的形式播放给用户,如图7中(3)所示的界面411,该界面411可以显示提示信息412,用于提示用户正在播放翻译结果。可选的,电子设备也可以在显示屏上显示翻译结果,即译文。示例性的,电子设备可以只显示译文,不显示原文;也可以同时显示译文和原文,或者根据用户的切换操作,在显示译文和原文中进行切换。例如:如图7中(4)所示的界面406,界面上可以显示译文407,还可以显示查看原文的选项408。用户可以通过点击该查看原文的选项408,进入如图7中(5)所示的界面409,该界面409上显示原文410。
如图7中(6)所示的界面413,在电子设备翻译完当前具有话权的用户的语音后,电子设备或主耳机释放该用户的话权后,电子设备还可以显示提示信息414,用于提示用户当前翻译通道空闲。此时,任一用户都可以说话,并且先说话的用户可以获得话权,后说话的用户没有话权。
可以理解的是,终端为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对终端进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
本申请实施例还提供一种计算机存储介质,该计算机存储介质中存储有计算机指令,当该计算机指令在终端上运行时,使得终端执行上述相关方法步骤实现上述实施例中的翻译方法。
本申请实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述实施例中的翻译方法。
另外,本申请的实施例还提供一种装置,这个装置具体可以是芯片,组件或模块,该装置可包括相连的处理器和存储器;其中,存储器用于存储计算机执行指令,当装置运行时,处理器可执行存储器存储的计算机执行指令,以使芯片执行上述各方法实施例中的翻译方法。
其中,本申请实施例提供的耳机、电子设备、计算机存储介质、计算机程序产品或芯片均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其他的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括: U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (22)

1.一种耳机的控制方法,其特征在于,可运用于与一电子设备相连接的主耳机和从耳机,所述主耳机与所述电子设备直接通信,所述从耳机通过所述主耳机与所述电子设备通信,所述控制方法包括:
所述主耳机检测到第一语音;
响应于检测到的所述第一语音,所述主耳机自动拾取所述第一语音;
所述主耳机确定所述主耳机具有话权,则所述主耳机将所述第一语音上传给所述电子设备;
所述从耳机通过所述主耳机接收到第一翻译结果,并播放所述第一翻译结果;其中,所述第一翻译结果为所述电子设备自动根据互译语种的设置,翻译所述第一语音的结果;
所述从耳机检测到第二语音;
响应于检测到的所述第二语音,所述从耳机自动拾取第二语音;
所述从耳机向所述主耳机请求话权;
所述从耳机自所述主耳机处接收到所述从耳机具有话权的确定的结果,则将所述第二语音通过所述主耳机上传给所述电子设备,使得所述电子设备自动根据所述互译语种的设置,翻译所述第二语音,并将翻译第二语音的翻译结果发送给所述主耳机播放。
2.根据权利要求1所述耳机的控制方法,其特征在于,所述主耳机确定所述主耳机具有话权包括:
所述主耳机向所述电子设备请求话权;
所述主耳机接收所述电子设备返回的确定主耳机具有话权的结果。
3.根据权利要求1或2所述耳机的控制方法,其特征在于,所述主耳机或所述电子设备基于以下因素确定所述主耳机是否具有话权:
在所述主耳机和所述从耳机均未检测到用户语音的预设时间段之后,若所述主耳机先检测到用户语音,则确定所述主耳机具有话权,所述从耳机不具有话权;若所述从耳机先检测到用户语音,则确定所述从耳机具有话权,所述主耳机不具有话权;
或者,在所述主耳机具有话权时,确定所述主耳机未检测到用户语音的所述预设时间段内,所述主耳机具有话权;确定所述主耳机未检测到用户语音的所述预设时间段之后,所述主耳机不具有话权。
4.根据权利要求1或2所述耳机的控制方法,其特征在于,还包括:
所述主耳机确定所述主耳机不具有话权,则所述主耳机不将所述第一语音发送给所述电子设备。
5.根据权利要求1所述耳机的控制方法,其特征在于,所述从耳机自所述主耳机处接收到所述从耳机具有话权的确定的结果具体包括:
所述主耳机确定所述从耳机具有话权,则向所述从耳机发送确定的结果;
或者所述主耳机向所述电子设备请求所述从耳机的话权;
所述主耳机接收所述电子设备确定所述从耳机具有话权的确定的结果;
所述主耳机将所述确定的结果发送给所述从耳机。
6.根据权利要求5所述耳机的控制方法,其特征在于,所述主耳机或所述电子设备基于以下因素确定所述从耳机是否具有话权:
在所述主耳机和所述从耳机均未检测到用户语音的预设时间段之后,若所述主耳机先检测到用户语音,则确定所述主耳机具有话权,所述从耳机不具有话权;若所述从耳机先检测到用户语音,则确定所述从耳机具有话权,所述主耳机不具有话权;
或者,在所述从耳机具有话权时,确定所述从耳机未检测到用户语音的所述预设时间段内,所述从耳机具有话权;确定所述从耳机未检测到用户语音的所述预设时间段之后,所述从耳机不具有话权。
7.一种电子设备的控制方法,其特征在于,可运用于电子设备,所述电子设备连接有主耳机和从耳机,所述主耳机与所述电子设备直接通信,所述从耳机通过所述主耳机与所述电子设备通信,包括:
所述电子设备显示第一界面,所述第一界面显示有第一控件和第二控件;所述第一控件对应所述主耳机,所述第二控件对应所述从耳机;
响应于所述电子设备确定所述主耳机具有话权,所述电子设备在所述第一界面上显示第一提示信息,用于提示用户所述主耳机具有话权;
响应于所述电子设备确定所述从耳机具有话权,所述电子设备在所述第一界面上显示第二提示信息,用于提示用户所述从耳机具有话权;
响应于所述电子设备确定所述主耳机和所述从耳机均不具有话权,所述电子设备在所述第一界面上显示第三提示信息,用于提示用户所述主耳机和所述从耳机均不具有话权。
8.根据权利要求7所述电子设备的控制方法,其特征在于,所述电子设备确定所述主耳机或所述从耳机是否具有话权,可以基于以下因素确定:
在所述主耳机和所述从耳机均未检测到用户语音的预设时间段之后,若所述主耳机先检测到用户语音,则确定所述主耳机具有话权,所述从耳机不具有话权;若所述从耳机先检测到用户语音,则确定所述从耳机具有话权,所述主耳机不具有话权;
或者,在所述主耳机具有话权时,确定所述主耳机未检测到用户语音的所述预设时间段内,所述主耳机具有话权;确定所述主耳机未检测到用户语音的所述预设时间段之后,所述主耳机不具有话权;
或者,在所述从耳机具有话权时,确定所述从耳机未检测到用户语音的所述预设时间段内,所述从耳机具有话权;确定所述从耳机未检测到用户语音的所述预设时间段之后,所述从耳机不具有话权。
9.根据权利要求7或8所述电子设备的控制方法,其特征在于,
在所述第一界面上显示第一提示信息后,所述电子设备还显示第一翻译结果,所述第一翻译结果为所述电子设备自动将所述主耳机拾取的用户的语音进行翻译而得到的;
或者,在所述第一界面上显示第二提示信息后,所述电子设备还显示第二翻译结果,所述第二翻译结果为所述电子设备自动将所述从耳机拾取的用户的语音进行翻译而得到的翻译结果。
10.根据权利要求9所述电子设备的控制方法,其特征在于,
所述第一界面还显示有所述电子设备根据所述主耳机拾取的用户的语音转换的文字信息;或者,所述第一界面显示有所述电子设备根据所述从耳机拾取的用户的语音转换的文字信息。
11.根据权利要求9所述电子设备的控制方法,其特征在于,
所述第一界面还显示有第三控件;所述电子设备检测到用户对所述第三控件的操作;响应于用户对所述第三控件的操作,在所述第一界面上显示所述电子设备根据所述主耳机拾取的用户的语音转换的文字信息;
或者,所述第一界面还显示有第四控件;所述电子设备检测到用户对所述第四控件的操作;响应于用户对所述第四控件的操作,在所述第一界面上显示所述电子设备根据所述从耳机拾取的用户的语音转换的文字信息。
12.一种耳机,其特征在于,包括:骨振动传感器,通信模块、处理器、麦克风和听筒;
所述骨振动传感器,用于检测第一用户的语音;
所述麦克风,用于响应于检测到的所述第一用户的语音,自动拾取所述第一用户的语音;
所述处理器,用于确定所述耳机当前是否具有话权,并在确定耳机当前具有话权时指示所述通信模块将所述第一用户的语音上传给与所述耳机相连的电子设备;接收一个或多个从耳机的话权裁决请求,对所述话权裁决请求进行裁决获得裁决结果,并指示通信模块将裁决结果返还给所述一个或多个从耳机;
所述通信模块,用于根据所述处理器的指示将所述第一用户的语音上传给与所述耳机相连的电子设备;并接收来自所述电子设备的第一翻译结果,所述第一翻译结果为所述电子设备自动根据互译语种的设置,自动翻译所述第一用户的语音的结果;并将所述第一翻译结果发送给指定的一个或多个听筒;接收来自一个或多个从耳机的语音信息,将其上传给所述电子设备,并将电子设备发送的第二翻译结果转发给指定一个或多个听筒;
所述听筒,用于播放接收到的翻译结果;
所述处理器基于以下因素确定所述耳机或所述一个或多个从耳机是否具有话权:
在所述耳机具有话权时,确定所述耳机的骨振动传感器未检测到用户语音的预设时间段内,所述耳机具有话权;确定所述耳机的骨振动传感器未检测到用户语音的所述预设时间段之后,所述耳机不具有话权;
或者,在任一个从耳机具有话权时,确定具有话权的从耳机的骨振动传感器未检测到用户语音的所述预设时间段内,所述具有话权的从耳机具有话权;确定所述具有话权的从耳机的骨振动传感器未检测到用户语音的所述预设时间段之后,所述具有话权的从耳机不再具有话权。
13.根据权利要求12所述的耳机,其特征在于,
所述处理器,还用于在确定主耳机不具有话权时,不指示所述通信模块上传所述第一用户的语音给与所述耳机相连的电子设备,或者指示所述通信模块不上传所述第一用户的语音给与所述耳机相连的电子设备。
14.一种电子设备,其特征在于,包括:处理器、存储器和显示器,所述存储器、所述显示器与所述处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述处理器从所述存储器中读取所述计算机指令,以使得所述电子设备执行如下操作:
所述显示器,用于显示第一界面,所述第一界面显示有第一控件和第二控件;所述第一控件对应主耳机,所述第二控件对应从耳机;其中,所述主耳机与所述电子设备连接,所述从耳机通过所述主耳机与所述电子设备连接;
所述处理器,用于在确定所述主耳机具有话权时,指示所述显示器在所述第一界面上显示第一提示信息,用于提示用户所述主耳机具有话权;
或者,在确定所述从耳机具有话权时,指示所述显示器在所述第一界面上显示第二提示信息,用于提示用户所述从耳机具有话权;
或者,在确定所述主耳机和所述从耳机均不具有话权时,指示所述显示器在所述第一界面上显示第三提示信息,用于提示用户所述主耳机和所述从耳机均不具有话权。
15.根据权利要求14所述的电子设备,其特征在于,所述处理器在确定所述主耳机或所述从耳机是否具有话权时,可以基于以下因素确定:
在所述主耳机和所述从耳机均未检测到用户语音的预设时间段之后,若所述主耳机先检测到用户语音,则确定所述主耳机具有话权,所述从耳机不具有话权;若所述从耳机先检测到用户语音,则确定所述从耳机具有话权,所述主耳机不具有话权;
或者,在所述主耳机具有话权时,确定所述主耳机未检测到用户语音的所述预设时间段内,所述主耳机具有话权;确定所述主耳机未检测到用户语音的所述预设时间段之后,所述主耳机不具有话权;
或者,在所述从耳机具有话权时,确定所述从耳机未检测到用户语音的所述预设时间段内,所述从耳机具有话权;确定所述从耳机未检测到用户语音的所述预设时间段之后,所述从耳机不具有话权。
16.根据权利要求14或15所述的电子设备,其特征在于,
所述处理器,还用于将所述主耳机拾取的用户的语音进行翻译,得到第一翻译结果;指示所述显示器显示所述第一翻译结果;将所述从耳机拾取的用户的语音进行翻译,得到第二翻译结果;指示所述显示器显示所述第二翻译结果。
17.根据权利要求16所述的电子设备,其特征在于,
所述处理器,还用于指示所述显示器显示根据所述主耳机拾取的用户的语音转换的文字信息;或者,指示所述显示器显示所述电子设备根据所述从耳机拾取的用户的语音转换的文字信息。
18.根据权利要求16所述的电子设备,其特征在于,
所述显示器还用于显示第三控件;所述处理器,还用于响应于用户对所述第三控件的操作,指示所述显示器显示根据所述主耳机拾取的用户的语音转换的文字信息;
或者,所述显示器还显示有第四控件;所述处理器,还用于响应于用户对所述第四控件的操作,指示所述显示器显示所述处理器根据所述从耳机拾取的用户的语音转换的文字信息。
19.一种电子设备,其特征在于,包括:麦克风,听筒,处理器、存储器,所述麦克风、所述听筒、所述存储器与所述处理器耦合,所述麦克风用于拾取话音,所述听筒用于播放音频信息,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述处理器从所述存储器中读取所述计算机指令,以使得所述电子设备执行如权利要求1-6中任一项所述耳机的控制方法。
20.一种电子设备,其特征在于,包括:处理器、存储器和触摸屏,所述存储器、所述触摸屏与所述处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述处理器从所述存储器中读取所述计算机指令,以使得所述电子设备执行如权利要求7-11中任一项所述电子设备的控制方法。
21.一种计算机存储介质,其特征在于,当所述计算机可读存储介质中的指令由服务器的处理器执行时,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-6中任一项所述耳机的控制方法。
22.一种计算机存储介质,其特征在于,当所述计算机可读存储介质中的指令由服务器的处理器执行时,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求7-11中任一项所述电子设备的控制方法。
CN201880093380.4A 2018-09-20 2018-09-20 通过转发模式连接的多tws耳机实现自动翻译的方法及装置 Active CN112119641B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/106762 WO2020056684A1 (zh) 2018-09-20 2018-09-20 通过转发模式连接的多tws耳机实现自动翻译的方法及装置

Publications (2)

Publication Number Publication Date
CN112119641A CN112119641A (zh) 2020-12-22
CN112119641B true CN112119641B (zh) 2022-04-22

Family

ID=69888162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880093380.4A Active CN112119641B (zh) 2018-09-20 2018-09-20 通过转发模式连接的多tws耳机实现自动翻译的方法及装置

Country Status (4)

Country Link
US (1) US12058486B2 (zh)
EP (1) EP3836557B1 (zh)
CN (1) CN112119641B (zh)
WO (1) WO2020056684A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019200119A1 (en) * 2018-04-11 2019-10-17 Bongiovi Acoustics Llc Audio enhanced hearing protection system
CN111046680B (zh) 2018-10-15 2022-05-24 华为技术有限公司 一种翻译方法及电子设备
US11425487B2 (en) * 2019-11-29 2022-08-23 Em-Tech Co., Ltd. Translation system using sound vibration microphone
GB2605546B (en) * 2020-08-03 2023-04-12 Cirrus Logic Int Semiconductor Ltd Dynamic resource allocation
CN113808592B (zh) * 2021-08-17 2024-07-23 百度在线网络技术(北京)有限公司 通话录音的转写方法及装置、电子设备和存储介质
US12211507B2 (en) 2021-10-01 2025-01-28 Google Llc Selectively implementing role change requests for auxiliary devices that facilitate assistant interactions
CN114023317A (zh) * 2021-11-04 2022-02-08 五华县昊天电子科技有限公司 一种基于云平台的语音翻译系统
CN114095833B (zh) * 2021-11-18 2023-04-25 歌尔科技有限公司 基于压感反馈的降噪方法、tws耳机及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1859145A (zh) * 2006-03-24 2006-11-08 华为技术有限公司 一种媒体流控制方法及其装置
CN104303177A (zh) * 2012-04-25 2015-01-21 寇平公司 即时翻译系统
CN107708006A (zh) * 2017-08-23 2018-02-16 广东思派康电子科技有限公司 计算机可读存储介质、实时翻译系统
CN108345591A (zh) * 2018-01-26 2018-07-31 歌尔股份有限公司 基于移动终端双耳无线耳机的语音实时翻译方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100030557A1 (en) 2006-07-31 2010-02-04 Stephen Molloy Voice and text communication system, method and apparatus
US8825468B2 (en) 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
US20090125295A1 (en) * 2007-11-09 2009-05-14 William Drewes Voice auto-translation of multi-lingual telephone calls
CN201937800U (zh) 2010-12-30 2011-08-17 重庆市巴县中学校 一种耳机
US9462115B2 (en) * 2013-04-04 2016-10-04 James S. Rand Unified communications system and method
US9600474B2 (en) * 2013-11-08 2017-03-21 Google Inc. User interface for realtime language translation
KR102214178B1 (ko) 2013-12-13 2021-02-10 한국전자통신연구원 자동 통역 장치 및 방법
TWI558229B (zh) 2014-05-06 2016-11-11 宏碁股份有限公司 多媒體播放系統及其聲道控制方法
CN204929182U (zh) 2015-08-07 2015-12-30 曹新东 用于现场交流的头戴式耳机辅助装置
US10191715B2 (en) * 2016-03-25 2019-01-29 Semiconductor Components Industries, Llc Systems and methods for audio playback
CN105979421A (zh) 2016-06-24 2016-09-28 陈灿伟 一种基于同声翻译的蓝牙耳机及应用其的同声翻译系统
CN106060272A (zh) 2016-07-12 2016-10-26 魏喜国 以智能手机为载体的双语即时翻译装置
CN106131349A (zh) 2016-09-08 2016-11-16 刘云 一种具有自动翻译功能的手机、蓝牙耳机组件
CN106412813A (zh) 2016-11-30 2017-02-15 深圳市高为通信技术有限公司 一种利用蓝牙耳机进行实时通讯翻译的方法
CN106851450A (zh) 2016-12-26 2017-06-13 歌尔科技有限公司 一种无线耳机对及电子设备
CN206341361U (zh) 2016-12-29 2017-07-18 语联网(武汉)信息技术有限公司 一种实时翻译耳机
CN108509428B (zh) 2018-02-26 2023-04-18 深圳市百泰实业股份有限公司 耳机翻译方法和系统
CN108513196B (zh) 2018-04-08 2020-02-21 歌尔股份有限公司 一种无线耳机及其配对方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1859145A (zh) * 2006-03-24 2006-11-08 华为技术有限公司 一种媒体流控制方法及其装置
CN104303177A (zh) * 2012-04-25 2015-01-21 寇平公司 即时翻译系统
CN107708006A (zh) * 2017-08-23 2018-02-16 广东思派康电子科技有限公司 计算机可读存储介质、实时翻译系统
CN108345591A (zh) * 2018-01-26 2018-07-31 歌尔股份有限公司 基于移动终端双耳无线耳机的语音实时翻译方法及系统

Also Published As

Publication number Publication date
WO2020056684A1 (zh) 2020-03-26
EP3836557B1 (en) 2024-11-27
EP3836557A1 (en) 2021-06-16
US20210377642A1 (en) 2021-12-02
CN112119641A (zh) 2020-12-22
EP3836557A4 (en) 2021-09-01
US12058486B2 (en) 2024-08-06

Similar Documents

Publication Publication Date Title
CN112119641B (zh) 通过转发模式连接的多tws耳机实现自动翻译的方法及装置
CN111046680B (zh) 一种翻译方法及电子设备
WO2022033320A1 (zh) 蓝牙通信方法、终端设备及计算机可读存储介质
CN113448382B (zh) 多屏幕显示电子设备和电子设备的多屏幕显示方法
CN113573390B (zh) 天线功率调节方法、终端设备及存储介质
CN113691842A (zh) 一种跨设备的内容投射方法及电子设备
CN113923230A (zh) 数据同步方法、电子设备和计算机可读存储介质
WO2022170856A1 (zh) 建立连接的方法与电子设备
WO2022170854A1 (zh) 视频通话的方法与相关设备
WO2021031865A1 (zh) 通话方法及装置
CN114466107A (zh) 音效控制方法、装置、电子设备及计算机可读存储介质
WO2020140186A1 (zh) 无线音频系统、音频通讯方法及设备
CN113132959B (zh) 无线音频系统、无线通讯方法及设备
WO2022161006A1 (zh) 合拍的方法、装置、电子设备和可读存储介质
CN113593567B (zh) 视频声音转文本的方法及相关设备
CN112532508B (zh) 一种视频通信方法及视频通信装置
CN114222020A (zh) 位置关系识别方法和电子设备
CN113805825B (zh) 设备之间的数据通信方法、设备及可读存储介质
CN113923372B (zh) 曝光调整方法及相关设备
CN113050864B (zh) 一种截屏方法及相关设备
CN113973152A (zh) 一种未读消息快速回复方法及电子设备
CN114691248A (zh) 显示虚拟现实界面的方法、装置、设备和可读存储介质
CN114579900A (zh) 跨设备的页面切换方法、电子设备及存储介质
CN114691066A (zh) 一种应用的显示方法及电子设备
WO2023093778A1 (zh) 一种截屏方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant