CN103838723B - 数据关联方法和电子设备 - Google Patents
数据关联方法和电子设备 Download PDFInfo
- Publication number
- CN103838723B CN103838723B CN201210473371.2A CN201210473371A CN103838723B CN 103838723 B CN103838723 B CN 103838723B CN 201210473371 A CN201210473371 A CN 201210473371A CN 103838723 B CN103838723 B CN 103838723B
- Authority
- CN
- China
- Prior art keywords
- data
- input
- stored
- voice data
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000002123 temporal effect Effects 0.000 claims description 35
- 230000005611 electricity Effects 0.000 claims 1
- 238000013500 data storage Methods 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种数据关联方法和电子设备。该数据关联方法应用于包括音频采集单元和触控显示单元的电子设备,所述方法包括:根据第一操作,启动所述音频采集单元采集音频数据;根据第二操作,通过所述触控显示单元采集用户输入并且识别用户输入以获得输入数据;获得所述用户输入时的时间信息;以及以所述时间信息为关联属性,关联地存储所述音频数据以及所述输入数据。
Description
技术领域
本发明涉及电子设备的领域,更具体地,本发明涉及一种数据关联方法和电子设备。
背景技术
目前,各种电子设备具有录音和手写输入的功能,如平板电脑。例如,在课堂上,用户可以使用平板电脑进行录音,并且可以使用平板电脑记笔记。然而,由于一堂课有45分钟,因此录音的内容有45分钟,但是笔记只是在听到重点时才记录。因此,在课后复习时,在录音的内容中找到与笔记对应的部分是困难的。
为此,期望提供一种数据关联方法和电子设备,其能够将录音内容和输入内容相关联,从而便利各种内容的使用。
发明内容
本发明的一个实施例提供一种数据关联方法,应用于包括音频采集单元和触控显示单元的电子设备,所述方法包括:
根据第一操作,启动所述音频采集单元采集音频数据;
根据第二操作,通过所述触控显示单元采集用户输入并且识别用户输入以获得输入数据;
获得所述用户输入时的时间信息;以及
以所述时间信息为关联属性,关联地存储所述音频数据以及所述输入数据。
优选地,以所述时间信息为关联属性,关联地存储所述音频数据以及所述输入数据包括:
基于用户输入时的时间信息,将所述输入数据中的每条与所述语音数据中的对应位置相关联地进行存储。
优选地,当回放所述语音数据时,根据对所述输入数据中的一条的选择,通过电子设备的扬声器相应地输出与该条输入数据对应的位置的语音数据。
优选地,当回放所述语音数据时,根据所述语音数据的播放位置,在所述触摸显示单元上相应地显示输入数据中与该播放位置对应的一条输入数据。
优选地,在所述触摸显示单元上显示输入数据时,根据语音数据的播放位置,高亮显示对应的输入数据。
优选地,所述输入数据和所述语音数据都存储在该电子设备的存储单元中。
优选地,所述输入数据存储在该电子设备的存储单元中,并且所述语音数据存储在远程的存储单元中。
优选地,在存储所述输入数据和所述语音数据时将其加密。
优选地,所述输入数据包括图像数据和/或文本数据,所述图像数据是用户原始输入的内容,并且所述文本数据是对用户原始输入的内容进行识别获得的文本数据。
根据本发明另一实施例,提供了一种电子设备,包括:
音频采集单元,配置为根据第一操作启动来采集音频数据;
触控显示单元,配置为根据第二操作启动来采集用户输入并且识别用户输入以获得输入数据;
时间信息获取单元,配置为获得所述用户输入时的时间信息;
存储单元,配置为存储各种数据;以及
控制单元,配置为以所述时间信息为关联属性,关联地将所述音频数据以及所述输入数据存储在所述存储单元中。
优选地,所述控制单元进一步配置为基于用户输入时的时间信息,将所述输入数据中的每条与所述语音数据中的对应位置相关联地进行存储。
优选地,所述控制单元进一步配置为当回放所述语音数据时,根据对所述输入数据中的一条的选择,通过电子设备的扬声器相应地输出与该条输入数据对应的位置的语音数据。
优选地,所述控制单元进一步配置为当回放所述语音数据时,根据所述语音数据的播放位置,在所述触摸显示单元上相应地显示输入数据中与该播放位置对应的一条输入数据。
优选地,所述触摸显示单元进一步配置为在显示输入数据时,根据语音数据的播放位置,高亮显示对应的输入数据。
优选地,所述输入数据和所述语音数据都存储在该电子设备的存储单元中。
优选地,所述输入数据存储在该电子设备的存储单元中,并且所述语音数据存储在远程的存储单元中。
优选地,在存储所述输入数据和所述语音数据时将其加密。
优选地,所述输入数据包括图像数据和/或文本数据,所述图像数据是用户原始输入的内容,并且所述文本数据是对用户原始输入的内容进行识别获得的文本数据。
因此,根据本发明的数据关联方法和电子设备,能够将录音内容和输入内容相关联,从而便利各种内容的使用。
附图说明
图1是根据本发明第一实施例的电子设备的功能方块图;
图2是根据本发明第一实施例的电子设备的操作期间的效果图;
图3是根据本发明第一实施例的电子设备的操作期间的另一效果图;
图4是根据本发明第二实施例的数据关联方法的流程图。
具体实施方式
以下,将参考附图详细描述的优选实施例。
<第一实施例>
以下,将以具有音频采集单元和触控显示单元的电子设备为例来描述本发明的第一实施例。这样的电子设备例如包括具有麦克风和触摸屏的平板电脑、台式电脑、个人数字助理等等。本实施例将以平板电脑为例进行详细描述。
图1是根据本发明第一实施例的电子设备100的功能方块图。如图1所示,该电子设备100包括有:音频采集单元101、触控显示单元102、时间信息获取单元103、存储单元104和控制单元105。
音频采集单元101可以配置为根据第一操作启动来采集音频数据。例如,对于课堂学习,当老师开始上课时,可以启动音频采集单元101,开始采集音频数据,即,记录老师上课的语音。这样的操作可以通过平板电脑中的语音输入应用等实现。用户可以通过点击、触摸、鼠标输入、键盘输入、语音输入等等来启动应用。
触控显示单元102可以配置为根据第二操作启动来采集用户输入并且识别用户输入以获得输入数据。具体来说,当听到老师上课中间讲述的某个内容是重点内容时,以往通常是记录在纸质笔记本或课本中,这样可能在随后复习时不是很方便。为此,可以利用平板电脑进行记录。此外,在平板电脑上进行重点内容的文字输入往往速度快于在纸上记录内容的速度,这也有助于更好地记录期望记录的重点内容。因此,当期望记录重点内容时,例如用户可以启动相应的文字记录应用(如Word,写字板等),开始记录内容。例如,用户可以根据触笔输入、键盘输入、语音输入等等来启动应用并执行输入。
时间信息获取单元103可以配置为获得所述用户输入时的时间信息。例如,时间信息获取单元103可以利用平板电脑中的系统时间为基准,检测用户执行输入操作的时间作为用户输入时的时间信息。也就是说,以系统时间作为用户输入时的绝对时间信息。
在另一实施例中,也可以用启动语音输入应用的时间为基准,检测用户执行输入操作的时间作为用户输入时的时间信息。也就是说,以相对于启动语音输入应用时的启动时间已经经过的时间作为用户输入时的相对时间信息。
存储单元104配置为存储各种数据。存储单元104例如可以采用硬盘驱动器(HDD)、光盘(如CD/DVD)、磁盘(如软盘)、磁光盘、半导体存储器等等。
控制单元105配置为以所述时间信息为关联属性,关联地将所述音频数据以及所述输入数据存储在存储单元中。控制单元例如可以由CPU(中央处理单元)实现,并且可以执行对整个电子设备的整体控制。
在一个实施例中,所述控制单元105可以基于用户输入时的时间信息,将所述输入数据中的每条与所述语音数据中的对应位置相关联地进行存储。具体来说,在执行音频采集操作的同时,如果用户启动输入操作,开始在触控显示单元上执行输入操作,则控制单元根据时间信息单元获取的时间信息,确定与在触控显示单元上执行输入操作时的时间对应的语音数据中的对应位置。也就是说,给语音数据设置了时间标签,该时间标签对应于输入操作的时间。
以下参考图2描述本发明实施例的操作。图2是根据本发明第一实施例的电子设备的操作期间的效果图。假设在第一实施例中以系统时间作为基准时间。假设上课开始时间为9点,也就是说,启动语音输入的时间为9点。另外,假设当前时间为上午9点10分,此时开始启动文字输入应用,并且输入内容:重点1,……。然后,在9:15时输入内容:重点2,……。
此时,控制单元基于系统时间信息,将输入数据1(即,重点1)与9:10处的音频数据相关联,并且将输入数据2(即,重点2)与9:15处的音频数据相关联,并且存储在存储单元104中。
图3是根据本发明第一实施例的电子设备的操作期间的另一效果图。此时以语音输入应用的启动时间作为基准时间。此时,假设上课开始时间为9点,此时启动应用,并且启动语音输入的时间设为0。另外,假设输入第一条内容的时间为9:10分,则输入内容为:重点1,……,时间为0:10。然后,在9:15时输入内容:重点2,……,时间为0:15。
此时,控制单元基于系统时间信息,将输入数据1(即,重点1)与10分钟处的音频数据相关联,并且将输入数据2(即,重点2)与15分钟处的音频数据相关联,并且存储在存储单元104中。在此为了描述简单,只示出了两个输入数据,但是可以根据需要,记录一个或更多输入数据。
需要注意的是,音频数据和输入数据可以作为单独的两个文件分开存储,也可以以流文件的格式存为一个文件。
随后,在用户想要复习课堂内容时,用户可以利用平板电脑方便地进行操作。
具体来说,当用户回放已经记录的课堂语音数据时,可以根据对所述输入数据中的一条的选择,通过电子设备的扬声器相应地输出与该条输入数据对应的位置的语音数据。例如,当用户回放课堂语音数据时,如果选择重点1,则通过平板电脑的扬声器相应地输出9:10分处的语音数据,如果选择重点2,则通过平板电脑的扬声器相应地输出9:15分处的语音数据。
这样,相对于以前用户必须在回放语音文件时执行快进、拖动等以找到对应笔记记录的内容的方式,通过基于时间信息,将输入数据和语音数据进行关联,可以容易地找到与笔记记录内容相对应的语音数据,从而可以方便地对照输入信息和语音数据,获得更好的使用体验。
可替代地,当用户回放已经记录的课堂语音数据时,可以根据所述语音数据的播放位置,在所述触摸显示单元上相应地显示输入数据中与该播放位置对应的一条输入数据。例如,当用户回放课堂语音数据时,如果回放到9:10分处,则可以在触摸显示单元上自动显示重点1的内容,如果回放到9:15分处,则可以在触摸显示单元上自动显示重点2的内容。
这样,相对于以前用户必须在回放语音文件时执行快进、拖动等以找到对应笔记记录的内容的方式,通过基于时间信息,将输入数据和语音数据进行关联,可以容易地显示与语音数据相对应的笔记记录内容,从而可以方便地对照输入信息和语音数据,获得更好的使用体验。
此外,在显示输入数据时,还可以根据语音数据的播放位置,高亮显示对应的输入数据。例如,当用户回放课堂语音数据时,如果回放到9:10分处,则可以在触摸显示单元上自动高亮显示重点1的内容
此外,在一个实施例中,所述输入数据和所述语音数据都存储在该电子设备的存储单元中。在另一个实施例中,所述输入数据存储在该电子设备的存储单元中,并且所述语音数据存储在远程的存储单元中。也就是说,用户可以根据电子设备的存储能力、网络通信能力、处理能力等,自由选择各个数据的存储位置。
此外,在存储所述输入数据和所述语音数据时,可以将其加密,从而具有更好的数据保密性。对于一些不期望被其它用户获知的数据,可以采取各种加密方式进行加密。
需要注意的是,所述输入数据不限于通过文件输入应用输入的文字内容。例如,所述输入数据可以包括图像数据和/或文本数据,所述图像数据是用户原始输入的内容,并且所述文本数据是对用户原始输入的内容进行识别获得的文本数据。也就是说,可以通过图像输入应用(例如画图板),将用户在触控显示单元上输入的内容记录为图像。或者,可以将用户原始输入的内容进行识别,并且获得识别后的纹波数据。此外,还可以通过照相机应用等,将拍摄的照片记录为输入数据。
因此,根据本发明第一实施例的电子设备,能够将录音内容和输入内容相关联,从而便利各种内容的使用。
<第二实施例>
以下,将参考图4描述根据本发明第二实施例的数据关联方法。该数据关联方法应用于包括音频采集单元和触控显示单元的电子设备。
所述数据关联方法400包括:
步骤S401:根据第一操作,启动所述音频采集单元采集音频数据。
在该步骤中,例如,用户可以通过点击、触摸、鼠标输入、键盘输入、语音输入等等来启动语音输入应用,并开始采集语音数据。
步骤S402:根据第二操作,通过所述触控显示单元采集用户输入并且识别用户输入以获得输入数据。
在该步骤中,例如,用户可以根据触笔输入、键盘输入、语音输入等等来启动应用并执行输入。例如,可以启动文字输入应用、图像输入应用、文字识别应用等等来输入数据。
步骤S403:获得所述用户输入时的时间信息。
在该步骤中,可以获取用户执行输入操作时的时间数据。例如以电子设备的系统时间为基准的时间信息或以语音输入应用启动时间为基准的时间信息。
步骤S404:以所述时间信息为关联属性,关联地存储所述音频数据以及所述输入数据。
例如,可以基于用户输入时的时间信息,将所述输入数据中的每条与所述语音数据中的对应位置相关联地进行存储。具体来说,在执行音频采集操作的同时,如果用户启动输入操作,开始在触控显示单元上执行输入操作,则根据时间信息单元获取的时间信息,确定与在触控显示单元上执行输入操作时的时间对应的语音数据中的对应位置。也就是说,给语音数据设置了时间标签,该时间标签对应于输入操作的时间。
优选地,当回放所述语音数据时,根据对所述输入数据中的一条的选择,通过电子设备的扬声器相应地输出与该条输入数据对应的位置的语音数据。
优选地,当回放所述语音数据时,根据所述语音数据的播放位置,在所述触摸显示单元上相应地显示输入数据中与该播放位置对应的一条输入数据。
优选地,在所述触摸显示单元上显示输入数据时,根据语音数据的播放位置,高亮显示对应的输入数据。
优选地,所述输入数据和所述语音数据都存储在该电子设备的存储单元中。
优选地,所述输入数据存储在该电子设备的存储单元中,并且所述语音数据存储在远程的存储单元中。
优选地,在存储所述输入数据和所述语音数据时将其加密。
优选地,所述输入数据包括图像数据和/或文本数据,所述图像数据是用户原始输入的内容,并且所述文本数据是对用户原始输入的内容进行识别获得的文本数据。
因此,根据本发明第二实施例的数据关联方法,能够将录音内容和输入内容相关联,从而便利各种内容的使用。
需要注意的是,上面的实施例仅仅是用作示例,本发明不限于这样的示例,而是可以进行各种变化。
需要说明的是,在本说明书中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
最后,还需要说明的是,上述一系列处理不仅包括以这里所述的顺序按时间序列执行的处理,而且包括并行或分别地、而不是按时间顺序执行的处理。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的硬件平台的方式来实现,当然也可以全部通过硬件来实施。基于这样的理解,本发明的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM(只读存储器)/RAM(随机存取存储器)、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上对本发明进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (18)
1.一种数据关联方法,应用于包括音频采集单元和触控显示单元的电子设备,所述方法包括:
根据第一操作,启动所述音频采集单元采集音频数据;
根据第二操作,通过所述触控显示单元采集用户输入并且识别用户输入以获得输入数据;
获得所述用户输入时的时间信息;以及
以所述时间信息为关联属性,关联地存储所述音频数据以及所述输入数据。
2.如权利要求1所述的数据关联方法,其中以所述时间信息为关联属性,关联地存储所述音频数据以及所述输入数据包括:
基于用户输入时的时间信息,将所述输入数据中的每条与所述音频数据中的对应位置相关联地进行存储。
3.如权利要求2所述的数据关联方法,其中当回放所述音频数据时,根据对所述输入数据中的一条的选择,通过电子设备的扬声器相应地输出与该条输入数据对应的位置的音频数据。
4.如权利要求2所述的数据关联方法,其中当回放所述音频数据时,根据所述音频数据的播放位置,在所述触控显示单元上相应地显示输入数据中与该播放位置对应的一条输入数据。
5.如权利要求2所述的数据关联方法,其中在所述触控显示单元上显示输入数据时,根据音频数据的播放位置,高亮显示对应的输入数据。
6.如权利要求1所述的数据关联方法,其中所述输入数据和所述音频数据都存储在该电子设备的存储单元中。
7.如权利要求1所述的数据关联方法,其中所述输入数据存储在该电子设备的存储单元中,并且所述音频数据存储在远程的存储单元中。
8.如权利要求1所述的数据关联方法,其中在存储所述输入数据和所述音频数据时将其加密。
9.如权利要求1所述的数据关联方法,其中所述输入数据包括图像数据和/或文本数据,所述图像数据是用户原始输入的内容,并且所述文本数据是对用户原始输入的内容进行识别获得的文本数据。
10.一种电子设备,包括:
音频采集单元,配置为根据第一操作启动来采集音频数据;
触控显示单元,配置为根据第二操作启动来采集用户输入并且识别用户输入以获得输入数据;
时间信息获取单元,配置为获得所述用户输入时的时间信息;
存储单元,配置为存储各种数据;以及
控制单元,配置为以所述时间信息为关联属性,关联地将所述音频数据以及所述输入数据存储到所述存储单元中。
11.如权利要求10所述的电子设备,其中所述控制单元进一步配置为基于用户输入时的时间信息,将所述输入数据中的每条与所述音频数据中的对应位置相关联地进行存储。
12.如权利要求11所述的电子设备,其中所述控制单元进一步配置为当回放所述音频数据时,根据对所述输入数据中的一条的选择,通过电子设备的扬声器相应地输出与该条输入数据对应的位置的音频数据。
13.如权利要求11所述的电子设备,其中所述控制单元进一步配置为当回放所述音频数据时,根据所述音频数据的播放位置,在所述触控显示单元上相应地显示输入数据中与该播放位置对应的一条输入数据。
14.如权利要求10所述的电子设备,其中所述触控显示单元进一步配置为在显示输入数据时,根据音频数据的播放位置,高亮显示对应的输入数据。
15.如权利要求10所述的电子设备,其中所述输入数据和所述音频数据都存储在该电子设备的存储单元中。
16.如权利要求10所述的电子设备,其中所述输入数据存储在该电子设备的存储单元中,并且所述音频数据存储在远程的存储单元中。
17.如权利要求10所述的电子设备,其中在存储所述输入数据和所述音频数据时将其加密。
18.如权利要求10所述的电子设备,其中所述输入数据包括图像数据和/或文本数据,所述图像数据是用户原始输入的内容,并且所述文本数据是对用户原始输入的内容进行识别获得的文本数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210473371.2A CN103838723B (zh) | 2012-11-20 | 2012-11-20 | 数据关联方法和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210473371.2A CN103838723B (zh) | 2012-11-20 | 2012-11-20 | 数据关联方法和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103838723A CN103838723A (zh) | 2014-06-04 |
CN103838723B true CN103838723B (zh) | 2017-04-19 |
Family
ID=50802239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210473371.2A Active CN103838723B (zh) | 2012-11-20 | 2012-11-20 | 数据关联方法和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103838723B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9632619B2 (en) | 2014-06-25 | 2017-04-25 | Egalax_Empia Technology Inc. | Recording method, apparatus, system, and computer-readable media of touch information timing |
TWI556154B (zh) * | 2014-06-25 | 2016-11-01 | 禾瑞亞科技股份有限公司 | 觸控資訊時間的記錄方法、裝置、系統及其電腦可讀取媒體 |
CN110415569B (zh) * | 2019-06-29 | 2021-08-03 | 嘉兴梦兰电子科技有限公司 | 校园课堂共享教育方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101253549A (zh) * | 2005-08-26 | 2008-08-27 | 皇家飞利浦电子股份有限公司 | 将声音和人工转录文本进行同步的系统和方法 |
CN101640058A (zh) * | 2009-07-24 | 2010-02-03 | 王祐凡 | 多媒体同步方法、播放器以及多媒体数据制作设备 |
CN102393854A (zh) * | 2011-09-09 | 2012-03-28 | 杭州海康威视数字技术股份有限公司 | 一种获取音视频数据的方法及装置 |
CN102592628A (zh) * | 2012-02-15 | 2012-07-18 | 张群 | 一种音视频播放文件的播放控制方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1204489C (zh) * | 2002-04-03 | 2005-06-01 | 英华达(南京)科技有限公司 | 可同步播放相关联的语音及文字的方法 |
-
2012
- 2012-11-20 CN CN201210473371.2A patent/CN103838723B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101253549A (zh) * | 2005-08-26 | 2008-08-27 | 皇家飞利浦电子股份有限公司 | 将声音和人工转录文本进行同步的系统和方法 |
CN101640058A (zh) * | 2009-07-24 | 2010-02-03 | 王祐凡 | 多媒体同步方法、播放器以及多媒体数据制作设备 |
CN102393854A (zh) * | 2011-09-09 | 2012-03-28 | 杭州海康威视数字技术股份有限公司 | 一种获取音视频数据的方法及装置 |
CN102592628A (zh) * | 2012-02-15 | 2012-07-18 | 张群 | 一种音视频播放文件的播放控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103838723A (zh) | 2014-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7996432B2 (en) | Systems, methods and computer program products for the creation of annotations for media content to enable the selective management and playback of media content | |
US9465892B2 (en) | Associating metadata with media objects using time | |
US20090216742A1 (en) | Systems, methods and computer program products for indexing, searching and visualizing media content | |
WO2019032193A1 (en) | REPRESENTATIONS OF SERIALIZABLE AND SERIALIZED INTERACTIONS | |
TW200416600A (en) | System and method for annotating multi-modal characteristics in multimedia documents | |
EP1946227A1 (en) | Method and system for entering and entrieving content from an electronic diary | |
Sprague et al. | Music selection using the PartyVote democratic jukebox | |
US10732796B2 (en) | Control of displayed activity information using navigational mnemonics | |
CN107636645A (zh) | 自动生成媒体文件书签的技术 | |
CN103838723B (zh) | 数据关联方法和电子设备 | |
Smiraglia | Bibliocentrism, cultural warrant, and the ethics of resource description: a case study | |
US11176196B2 (en) | Unified pipeline for media metadata convergence | |
Parmeggiani | Going digital: Using new technologies in visual sociology | |
Duel et al. | Supporting audiography: Design of a system for sentimental sound recording, classification and playback | |
Axtell et al. | Using frame of mind: documenting reminiscence through unstructured digital picture interaction | |
Marsden et al. | Tools for searching, annotation and analysis of speech, music, film and video—a survey | |
US20220261206A1 (en) | Systems and methods for creating user-annotated songcasts | |
Hilmes | Interpreting radio: Culture in sound and the role of media studies | |
Phang et al. | Tools and technologies for enhancing access to audiovisual archives: The Singapore journey | |
Sabol et al. | Visualization Metaphors for Multi-modal Meeting Data. | |
Camus et al. | Unfolding digital materiality | |
Aljedaani et al. | Challenges and barriers faced by blind and visually impaired users on social media: a systematic literature review | |
Mitchell et al. | Making the switch to digital audio | |
Hennessey | Standards and Peculiarities: The Christopher G. Wagstaff Film Collection as a Potential DH Resource | |
Rowell et al. | Preservation Metadata for Digital Forensics. A Report of the ALCTS PARS Preservation Metadata Interest Group Meeting. American Library Association Annual Meeting, Las Vegas, June 2014 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |