CN109791570B - 高效且精确的命名实体识别方法和装置 - Google Patents
高效且精确的命名实体识别方法和装置 Download PDFInfo
- Publication number
- CN109791570B CN109791570B CN201880002777.8A CN201880002777A CN109791570B CN 109791570 B CN109791570 B CN 109791570B CN 201880002777 A CN201880002777 A CN 201880002777A CN 109791570 B CN109791570 B CN 109791570B
- Authority
- CN
- China
- Prior art keywords
- ner
- stage
- result
- named entity
- input text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种在自然语言输入文本处理中识别和提取命名实体的方法,包括:通过基于压缩命名实体识别(NER)模型的命名实体识别器,对输入文本执行第一阶段NER,以产生第一阶段确定,确定输入文本中是否存在至少一个命名实体;如果第一阶段NER确定输入文本中不存在命名实体,则通过基于规则的命名实体识别器,在输入文本上执行第二阶段NER,以产生第二阶段NER结果;如果第一阶段NER确定输入文本中存在至少一个命名实体,则由基于压缩NER模型的命名实体识别器产生第一阶段NER结果;并通过NER结果合并器对第一阶段NER结果和第二阶段NER结果进行合并,以产生最终NER结果。
Description
【技术领域】
本发明涉及自然语言处理(NLP),尤其涉及用于文档中的命名实体(namedentity)识别和提取的方法、技术、装置和系统,其中命名实体可以被分为类别和类型。
【背景技术】
用于识别命名实体的自动化系统的目标是能够从数字文档或文本中识别和提取命名实体,并将那些命名实体分类为一个或多个预定的类或类型,例如人、城市、汽车和其他等。命名实体识别和提取结果的下游应用是前景广阔的,包括改进信息检索系统和知识提取系统等。
一种命名实体识别(NER)技术使用向量来模拟数字文档和文本中或上下文中的单词和字符。这些向量可以被视为多维空间中的单词、字符和上下文的数字表示,形成一个用于训练NER系统的训练数据集。单词的向量与其含义有直接关系。单词“in”的一个示例向量是:[0.33042 0.24995-0.60874 0.10923 0.036372 0.151-0.55083-0.074239-0.092307-0.32821 0.09598-0.82269-0.36717-0.67009 0.42909 0.016496-0.23573 0.12864-1.0953 0.43334 0.57067-0.1036 0.20422 0.078308-0.42795-1.7984-0.278650.11954-0.12689 0.031744 3.8631-0.17786-0.082434-0.62698 0.26497-0.057185-0.073521 0.46103 0.30862 0.12498-0.48609-0.0080272 0.031184-0.36576-0.426990.42164-0.11666-0.50703-0.027273-0.53285]。
图1显示这种包括单词向量、字符向量和上下文向量的训练数据集的逻辑构成。这种预先训练的NER系统可以实现高精度,但它需要大量的向量训练数据集,使其不适合在资源有限的移动设备中使用。例如,在流行的短消息服务(SMS)中交换文本消息上的NER非常受限于移动电话的计算能力和存储容量。大多数当前可用的实施只能使用正则表达式(regular expressions)来检测电话号码或超链接。但是,电话号码和超链接并不是唯一有价值的命名实体。地理位置、名称、电话号码、日期和时间可能都是用户希望在其他应用程序中使用的重要信息。例如,用户可能想要对包含在SMS消息中的位置名称执行地图搜索。能够识别这些命名实体是第一步,然后才能允许这些数据与其他应用程序和/或系统进行交换,完全自动地或至少最小的用户干预。此外,识别某些实体(如人员、组织和场所)具有挑战性,但很有价值,因为这些类型的实体经常受到时间流逝的影响,同时又是文件和短信的主要组成部分。
通常,为了构建具有高识别准确率的NER系统,需要一个较大的训练数据集,结果形成一个相当大尺寸的NER系统。因此,传统的NER可能不适合移动设备。需要一种NER系统,其只有较小存储器尺寸要求但仍能保持高识别准确率。
【发明内容】
本发明提供了一种从数字文档和文本中识别和提取命名实体的方法和装置。根据本发明的一个方面,提供了一种基于压缩NER模型的第一阶段命名实体识别器。根据本发明的另一方面,提供了一种基于规则的第二阶段命名实体识别器。根据优选实施例,提供了一种NER系统,其结合了基于压缩NER模型的命名实体识别器和基于规则的命名实体识别器。与传统的NER系统相比,这种NER系统具有较小的存储器占用空间,又不会牺牲识别精度。此外,由于NER系统减少了内存占用,运行速度也得以提高。根据替代实施例,仅使用基于压缩NER模型的命名实体识别器的NER系统也是可行的。根据另一个实施例,基于规则的命名实体识别器可以集成在其他NER系统或设备中并与其一起工作,以提高识别准确性。
根据一个实施例,使用包括注释语料库的训练数据集来训练基于压缩NER模型的命名实体识别器,其中注释语料库是被向量表优化和参数优化而进行优化过的。向量表优化包括:通过单词向量对训练数据集中的句子进行聚类(clustering);从每个群集中选择语料库以包含在训练中,其中所选的语料库先前未被选择用于当前训练数据集;在训练数据集中省略某些数据。在一个实施例中,参数优化包括:至少使用较少消耗存储器的数据方案以代替多维字符向量,以简化字符的数据表示。在一个示例性实施例中,消耗最少内存的数据方案使用单个二进制位,其中值“1”用于以大写字母开头的单词,值“0”用于以小写字母开始的单词。这样,得到的基于压缩NER模型的命名实体识别器可以显著降低存储器的尺寸要求。
根据一个实施例,基于规则的命名实体识别器包括公共规则模块和特定规则模块。文档和文本中存在命名实体通常表现出某些共同特征。这些共同特征包括最常用的单词以及单词的词性(POS,part-of-speech)标记,其中根据一个实施例,通过遗传算法确定最佳POS标记。公共规则模块是经过共同特征训练的分类器,用以发现和识别文档和文本中的命名实体。
命名实体的不同类别或类型和语言,可以通过正则表达(regular expression)方法具有不同的识别规则。正则表达的识别规则可以从命名实体的类别或类型和语言的命名字典中获得。例如,对于英语中命名实体的地理位置类型,正则表达的识别规则可以是“在介词之一(in,on,at,to,from和towards)之后以大写字母开头的所有单词是地理位置”。特定规则模块是另一个分类器,其通过正则表达命名实体的特定类别或类型和/或语言,使用这样的识别规则来训练。如果要识别和提取多个类别或类型和/或语言的命名实体,可以采用多个基于规则的命名实体识别器,每个命名实体识别器包含一个特定规则模块,专门针对一个类别或一个类型的命名实体训练。
【附图说明】
在下面将参考附图更详细地描述本发明的实施例,其中:
图1显示多维空间中的单词向量、字符向量和上下文向量的NER系统训练数据集的逻辑构成;
图2显示根据本发明一个实施例的NER系统的逻辑结构和数据流图;
图3显示根据本发明一个实施例的基于压缩NER模型的命名实体识别器的训练策略;
图4A显示根据本发明一个实施例的基于规则的命名实体识别器的逻辑结构和数据流图;图4B显示根据本发明另一实施例的基于规则的命名实体识别器的逻辑结构和数据流图。
【具体实施方式】
在以下描述中,作为优选示例阐述了从数字文档和文本等中识别和提取命名实体的方法和装置。在不脱离本发明范围和精神的情况下进行的修改,包括添加和/或替换,对于本领域技术人员都是显而易见的。为了不混淆本发明,省略了一些具体细节。但是,本披露能够使本领域普通技术人员在不进行过度实验的情况下实践本发明教义。
参见图2。根据本发明的一个方面,图2提供了使用压缩NER模型202来训练第一阶段命名实体识别器204(基于压缩NER模型的命名实体识别器201)。根据本发明的另一方面,提供了一种基于规则的第二阶段命名实体识别器206。根据优选实施例,提供了一个包含基于压缩NER模型的命名实体识别器和基于规则的命名实体识别器的NER系统200。
NER系统200的运行包括:基于压缩NER模型的命名实体识别器201接收输入文本203,输入文本203可以是数字文档、文本消息等;基于压缩NER模型的命名实体识别器201,在输入文本203上执行第一阶段NER,以产生第一阶段确认:是否找到命名实体。如果第一阶段确认肯定了命名实体的存在,则生成第一阶段NER结果(识别的命名实体及其各自的类别或类型)205和一个准确的识别概率。如果第一阶段确认否定了命名实体的存在,则NER系统200将输入文本203发送到基于规则的命名实体识别器206,供其处理,执行第二阶段NER。如果第一阶段确认肯定了命名实体的存在,但是准确识别概率低于一个阈值,则NER系统200可以将输入文本203发送到第二阶段NER处理,也可以将第一阶段NER结果205发送到一个NER结果合并器208。否则,如果第一阶段确认肯定了命名实体的存在,且准确识别概率等于或高于一个阈值,则第一阶段NER结果205被发送到NER结果积分器208。
NER系统200的运行还包括:基于规则的命名实体识别器206执行第二阶段NER,以生成第二阶段NER结果207(被识别的命名实体及其各自的类别或类型)。根据一个实施例,NER结果合并器208通过合并运算,来合并第一阶段NER结果205和第二阶段NER结果207。合并运算是从第一阶段NER结果205和第二阶段NER结果207(如果两者都不是空白,或者其中一个不是空白)构建一个最终NER结果。根据另一实施例,NER结果合并器207通过选择运算,来合并第一阶段NER结果205和第二阶段NER结果207。如果第一阶段NER结果205和第二阶段NER结果207都不是空白(预期第二阶段NER结果有更高的识别精度),或者其中一个不是空白,选择运算是仅从第二阶段NER结果207构建一个最终NER结果。
参考图3。根据一个实施例,使用一个训练数据集来训练基于压缩NER模型的命名实体识别器,该训练数据集包括注释语料库301,其被向量表优化302和参数优化304进行优化。向量表优化302包括:通过单词向量将训练数据集中的句子聚类到一个可配置数量的群集中;从每个群集中选择语料库以包含在训练中,其中所选择的语料库以前未被选择过,用于当前训练数据集;并在训练数据集中省略某些数据。首先通过向量表优化302来优化注释语料库301,以产生优化的注释语料库303,然后通过参数优化304进一步优化,从而生成一个压缩NER模型306,用于训练基于压缩NER模型的命名实体识别器。在一个实施例中,参数优化304被迭代地应用于训练数据集,其中每次参数优化随后是NER测试305,然后是进一步的参数优化,重复直到识别精度开始降低。一旦识别精度开始显著降低,在最后一个之前的压缩NER模型306用于训练基于压缩NER模型的命名实体识别器。
根据一个实施例,在训练数据集中省略数据是为了使用单个单词向量来表示具有相同或相似含义的单词。例如,在一个群集中找到的语料库“in the garden”和“at thepark”可以由一个向量表示(可以是“in”的向量、“at”的向量、或者是“in”和“at”两者平均或中位数的新向量)来表示“in”和“at”,以及另一个矢量(可以是“garden”的向量、“park”的向量、或者是“garden”和“park”两者平均或中位数的新向量)来表示“garden”和“park”。
在一个实施例中,参数优化304包括以下一个或多个:减少训练数据集的单词向量空间维度;减少训练数据集的字符向量空间维数;使用较少消耗存储器的数据方案代替多维字符向量来简化字符的数据表示。在一个示例性实施例中,消耗最少内存的数据方案使用单个二进制位,其中值“1”用于以大写字母开头的单词,值“0”用于以小写字母开始的单词。换言之,这个示例性的减少字符向量空间维度的实施例,将字符向量空间维度减少到一维。迭代参数优化可以采用一个或多个方案来减少每次迭代中的单词向量空间维度和/或字符向量空间维度的维度数量。目的是在识别精度开始降低之前迭代地减少尽可能多的维度并进而减少训练数据集的数据存储器消耗。
参考图4A和4B。根据一个实施例,基于规则的命名实体识别器206a或206b包括公共规则模块401a或401b以及特定规则模块402a或402b。文档和文本中存在的命名实体通常表现出某些共同特征。这些共同特征可能包括最常用的单词以及单词的POS标记,其中,根据一个实施例,最佳POS标记是通过遗传算法方法确定。公共规则模块是利用这些共同特征来训练的一个分类器,以识别输入文本203中的命名实体。
根据一个实施例,公共规则模块401a或401b的训练策略包括:将包含语料库的训练数据集中的每个句子分成由共同特征确定的单词;提取最常出现在训练数据集中的前N个单词(前N个最常用的单词);使用这前N个最常用单词构建N个特征,前N个最常用单词中的每个单词都有一个标签,表示该单词的相应句子是否具有一个命名实体。公共规则模块401a或401b的训练数据集可以和用于基于压缩NER模型的命名实体识别器的注释训练数据集相同。
根据一个优选实施例,由遗传算法方法确定的POS标记还被进一步应用于前N个单词,使得前N个单词中仅具有确定标记的那些单词被放入用于训练公共规则模块的特征列表中。根据另一实施例,确定的POS标记与前N个单词一起被包含在特征列表中。
不同类别或类型和语言的命名实体,可以通过正则表达方法具有不同的识别规则。正则表达式的识别规则可以从命名实体的类或类型和语言的命名字典中获得。例如,对于英语中命名实体的地理位置类型,正则表达式的识别规则可以是“在介词之一(in,on,at,to,from和towards)之后以大写字母开头的所有单词是一个地理位置”。特定规则模块402a或402b是另一个分类器,其通过一个特定类别或类型和语言的命名实体的正则表达的这些识别规则来训练。如果要从输入文本203中识别和提取多个类别或类型和/或语言的命名实体,可以采用多个基于规则的命名实体识别器206a或206b,其中每个都具有一个特定规则模块402a或402b,专门训练以识别其各自的类别或类型和语言的命名实体。但是,公共规则模块401a或401b仅需要被训练一次,可以在所有基于规则的命名实体识别器206a或206b中被重新使用。
参考图4A。根据一个优选实施例,基于规则的命名实体识别器206a被安排成使得其公共规则模块401a和特定规则模块402b能够串行运行。在该实施例中,输入文本203仅由公共规则模块401a接收用于NER,结果是确定输入文本203是否包含命名实体;如果是,输入文本203由特定规则模块402b处理,用于NER以生成第二阶段NER结果207。
参考图4B。根据一个替代实施例,基于规则的命名实体识别器206b被安排成使得其公共规则模块401b和特定规则模块402b能够并行运行。在该实施例中,输入文本203由公共规则模块401b和特定规则模块402b两者接收用于NER,结果是被识别和提取的命名实体。然后,在合并运算中将被识别和提取的命名实体合并,以生成第二阶段NER结果207。
在此披露的实施例可以使用通用或专用计算设备、计算机处理器或电子电路包括但不限于专用集成电路(ASIC)、现场可编程门阵列(FPGA)以及依照本发明教义而配置或编程的其他可编程逻辑设备来进行实施。根据本发明的教义,软件或电子领域的技术人员可以容易地准备计算机指令或软件代码,在通用或专用计算设备、计算机处理器、或可编程逻辑设备中运行。
电子实施例的全部或部分可以在一个或多个通用或计算设备中执行,包括服务器计算机、个人计算机、膝上型计算机、移动计算设备如智能电话和平板计算机。
电子实施例包括计算机存储介质,其中存储有计算机指令或软件代码,其可用于对计算机或微处理器进行编程以执行本发明的任何过程。存储介质包括但不限于软盘、光盘、蓝光盘、DVD、CD-ROM和磁光盘、ROM、RAM、闪存设备、或适用于存储指令、代码和/或数据任何类型的介质或设备。
本发明的各种实施例还可以在分布式计算环境和/或云计算环境中实现,其中整个或部分机器指令是通过由通信网络(例如内联网、广域网(WAN)、局域网(LAN)、Internet和其他形式的数据传输介质)互连的一个或多个处理设备以分布式方式执行。
已经出于说明和描述的目的提供了本发明的前述描述。其并非旨在穷举或将本发明限于所公开的精确形式。许多修改和变化对于本领域技术人员来说是显而易见的。
所选择和描述的实施例是为了最好地解释本发明的原理及其实际应用,从而使得本领域普通技术人员能够理解本发明的各种实施例,并可以作出适合于预期特定用途的各种修改。
Claims (12)
1.一种在自然语言输入文本处理中识别和提取命名实体的方法,包括:
通过基于压缩命名实体识别NER模型的命名实体识别器,在所述输入文本上执行第一阶段NER,以生成第一阶段确定,确定所述输入文本中是否存在至少一个命名实体;
如果所述第一阶段NER确定所述输入文本中不存在命名实体,则通过基于规则的命名实体识别器,在所述输入文本上执行第二阶段NER,以生成第二阶段NER结果,其中如果所述第二阶段NER确定在所述输入文本中至少存在一个命名实体,那么所述第二阶段NER结果包括一对或多对命名实体及其对应的类别或类型;
如果所述第一阶段NER确定在所述输入文本中存在至少一个命名实体,则通过所述基于压缩命名实体识别NER模型的命名实体识别器,生成第一阶段NER结果,其中所述第一阶段NER结果包括一对或多对命名实体及其对应的类别或类型;
通过NER结果合并器,合并所述第一阶段NER结果和所述第二阶段NER结果,以产生一个最终NER结果;
其中所述基于压缩命名实体识别NER模型的命名实体识别器是使用一个压缩NER模型来训练的,所述压缩NER模型是从一个训练数据集生成的,
其中,所述训练数据集是被一个向量表优化而优化的;
其中所述向量表优化包括:
通过单词向量,将所述训练数据集中的句子聚类成一个可配置数量的群集;
从每个所述群集中选择语料库以包含在所述训练中,其中所选的语料库先前未被选择过用于所述训练数据集;
在所述训练中省略一部分所述训练数据集;
或者,所述训练数据集是被一个参数优化而优化的;
其中所述参数优化包括以下一个或多个:
减少所述训练数据集的单词向量空间维度;
减少所述训练数据集的字符向量空间维数;
使用较少内存消耗的数据方案代替所述训练数据集中的多维字符向量,来简化字符的数据表示。
2.根据权利要求1所述的方法,还包括:
如果所述第一阶段NER确定在所述输入文本中存在至少一个命名实体,则通过所述基于压缩命名实体识别NER模型的命名实体识别器,产生一个精确识别概率;
如果所述精确识别概率低于一个阈值,则通过所述基于规则的命名实体识别器,在所述输入文本上执行所述第二阶段NER,以生成所述第二阶段NER结果。
3.根据权利要求1所述的方法,其中对所述第一阶段NER结果和所述第二阶段NER结果进行合并,以生成所述最终NER结果是一个并行运行,包括:
如果所述第一阶段NER结果和所述第二阶段NER结果两者都非空,则从两者构建所述最终NER结果;
如果所述第二阶段NER结果为空,则从所述第一阶段NER结果构建所述最终NER结果;
如果所述第一阶段NER结果为空,则从所述第二阶段NER结果构建所述最终NER结果。
4.根据权利要求1所述的方法,其中对所述第一阶段NER结果和所述第二阶段NER结果进行积分以生成所述最终NER结果是一个选择选项,包括:
如果两者都非空,则从所述第二阶段NER结果构造所述最终NER结果;
如果所述第二阶段NER结果为空,则从所述第一阶段NER结果构造所述最终NER结果;
如果所述第一阶段NER结果为空,则从所述第二阶段NER结果构造所述最终NER结果。
5.根据权利要求1所述的方法,其中所述基于规则的命名实体识别器包括公共规则模块和特定规则模块;
其中所述公共规则模块是使用一个或多个共同特征来训练的NER分类器,所述一个或多个共同特征包括用于所述公共规则模块的训练数据集中的前N个最常使用的单词和每个单词的词性POS标记;其中所述共同特征是从所述公共规则模块的所述训练数据集中获得,通过:
将所述公共规则模块的所述训练数据集中的句子分成单个单词;提取最常出现在所述公共规则模块的所述训练数据集中的前N个单词作为所述前N个最常用单词;
为所述每个单词分配一个POS标记;
其中所述特定规则模块被配置为,通过对命名实体的类别或类型以及语言进行具体正则表达标识,在所述输入文本上执行NER,从而生成第二NER结果;
其中所述第一阶段NER结果和所述第二NER结果在合并运算中合并,
以产生所述生成的第二阶段NER结果。
6.根据权利要求1所述的方法,其中所述基于规则的命名实体识别器包括公共规则模块和特定规则模块;
其中所述公共规则模块是使用一个或多个共同特征来训练的NER分类器,所述一个或多个共同特征包括用于所述公共规则模块的训练数据集中的前N个最常使用的单词和每个单词的词性POS标记;其中所述共同特征是从所述公共规则模块的所述训练数据集中获得,通过:
将所述公共规则模块的所述训练数据集中的句子分成单个单词;提取最常出现在所述公共规则模块的所述训练数据集中的前N个单词作为所述前N个最常用单词;
为所述每个单词分配一个POS标记;
其中所述特定规则模块被配置为,通过对命名实体的类别或类型以及语言进行具体正则表达标识,在所述输入文本上执行NER;
其中所述公共规则模块和特定规则模块首先通过所述公共规则模块在所述输入文本上串行地执行相应的NER,以生成一个确定,确定所述输入文本是否包含至少一个命名实体;如果是这样,则由所述特定规则模块来生成所述第二阶段NER结果。
7.一种在自然语言输入文本处理中识别和提取命名实体的装置,包括:
基于压缩命名实体识别NER模型的命名实体识别器,其被配置为在所述输入文本上执行第一阶段NER,生成第一阶段确定,确定所述输入文本中是否存在至少一个命名实体,其中如果所述第一阶段NER确定所述输入文本中存在至少一个命名实体,则生成第一阶段NER结果,所述第一阶段NER结果包括一对或多对命名实体及其对应的类别或类型;
基于规则的命名实体识别器,其被配置为在所述输入文本执行第二阶段NER,以在所述第一阶段NER确定所述输入文本中不存在命名实体时生成第二阶段NER结果,其中如果所述第二阶段NER确定所述输入文本中存在至少一个命名实体,则生成第二阶段
NER结果,所述第二阶段NER结果包括一对或多对命名实体及其对应的类别或类型;
NER结果合并器,其被配置为对所述第一阶段NER结果和所述第二阶段NER结果进行合并,以生成一个最终NER结果;
其中所述基于压缩命名实体识别NER模型的命名实体识别器是使用一个压缩NER模型来训练的,所述压缩NER模型是从一个训练数据集生成的,
其中,所述训练数据集是被一个向量表优化而优化的;
其中所述向量表优化包括:
通过单词向量,将所述训练数据集中的句子聚类成一个可配置数量的群集;
从每个所述群集中选择语料库以包含在所述训练中,其中所选的语料库先前未被选择过用于所述训练数据集;
在所述训练中省略一部分所述训练数据集;
或者,所述训练数据集是被一个参数优化而优化的;
其中所述参数优化包括以下一个或多个:
减少所述训练数据集的单词向量空间维度;
减少所述训练数据集的字符向量空间维数;
使用较少内存消耗的数据方案代替所述训练数据集中的多维字符向量,来简化字符的数据表示。
8.根据权利要求7所述的装置:
其中所述基于压缩命名实体识别NER模型的命名实体识别器还被配置为,如果所述第一阶段NER确定所述输入文本中存在至少一个命名实体时产生一个精确识别概率;
其中所述基于规则的命名实体识别器还被配置为在所述输入文本上执行所述第二阶段NER,以在所述精确识别概率低于一个阈值时生成所述第二阶段NER结果。
9.根据权利要求7所述的装置,其中合并所述第一阶段NER结果和所述第二阶段NER结果产生所述最终NER结果是一个并行运算,包括:
如果所述第一阶段NER结果和所述第二阶段NER结果两者都非空,则从两者构建所述最终NER结果;
如果所述第二阶段NER结果为空,则从所述第一阶段NER结果构建所述最终NER结果;
如果所述第一阶段NER结果为空,则从所述第二阶段NER结果构建所述最终NER结果。
10.根据权利要求7所述的装置,其中合并所述第一阶段NER结果和所述第二阶段NER结果产生所述最终NER结果是一个选择运算,包括:
如果两者都非空,则从所述第二阶段NER结果构建所述最终NER结果;
如果所述第二阶段NER结果为空,则从所述第一阶段NER结果构建所述最终NER结果;
如果所述第一阶段NER结果为空,则从所述第二阶段NER结果构建所述最终NER结果。
11.根据权利要求7所述的装置,其中所述基于规则的命名实体识别器包括公共规则模块和特定规则模块;
其中所述公共规则模块是使用一个或多个共同特征来训练的NER分类器,所述一个或多个共同特征包括用于所述公共规则模块的训练数据集中的前N个最常使用的单词和每个单词的词性POS标记;其中所述共同特征是从所述公共规则模块的所述训练数据集中获得,通过:
将所述公共规则模块的所述训练数据集中的句子分成单个单词;提取最常出现在所述公共规则模块的所述训练数据集中的前N个单词作为所述前N个最常用单词;
为所述每个单词分配一个POS标记;
其中所述特定规则模块被配置为,通过对命名实体的类别或类型以及语言进行具体正则表达标识,以在所述输入文本上执行NER,从而生成第二NER结果;
其中所述第一和所述第二NER结果在合并运算中合并,以产生所述生成的第二阶段NER结果。
12.根据权利要求7所述的装置,其中所述基于规则的命名实体识别器包括公共规则模块和特定规则模块;
其中所述公共规则模块是使用一个或多个共同特征而训练的NER分类器,所述一个或多个共同特征包括用于所述公共规则模块的训练数据集中的前N个最常使用的单词和每个单词的词性POS标记;其中所述共同特征是从所述公共规则模块的所述训练数据集中获得,通过:
将所述公共规则模块的所述训练数据集中的句子分成单个单词;提取最常出现在所述公共规则模块的所述训练数据集中的前N个单词作为所述前N个最常用单词;
为所述每个单词分配一个POS标记;
其中所述特定规则模块被配置为,通过对命名实体的类别或类型以及语言进行具体正则表达标识,以在所述输入文本上执行NER;
其中所述公共规则模块和特定规则模块首先通过所述公共规则模块在所述输入文本上串行地执行相应的NER,以生成一个确定,确定所述输入文本是否包含至少一个命名实体;如果是这样,则由所述特定规则模块来生成所述第二阶段NER结果。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/219,887 US10853576B2 (en) | 2018-12-13 | 2018-12-13 | Efficient and accurate named entity recognition method and apparatus |
US16/219,887 | 2018-12-13 | ||
PCT/CN2018/121846 WO2020118741A1 (en) | 2018-12-13 | 2018-12-18 | Efficient and accurate named entity recognition method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109791570A CN109791570A (zh) | 2019-05-21 |
CN109791570B true CN109791570B (zh) | 2023-05-02 |
Family
ID=66500794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880002777.8A Active CN109791570B (zh) | 2018-12-13 | 2018-12-18 | 高效且精确的命名实体识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109791570B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210023A (zh) * | 2019-05-23 | 2019-09-06 | 竹间智能科技(上海)有限公司 | 一种实用有效的命名实体识别的计算方法 |
CN110399616A (zh) * | 2019-07-31 | 2019-11-01 | 国信优易数据有限公司 | 命名实体检测方法、装置、电子设备及可读存储介质 |
US11544477B2 (en) * | 2019-08-29 | 2023-01-03 | International Business Machines Corporation | System for identifying duplicate parties using entity resolution |
CN113366511B (zh) * | 2020-01-07 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | 利用遗传编程的命名实体识别和提取 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090019032A1 (en) * | 2007-07-13 | 2009-01-15 | Siemens Aktiengesellschaft | Method and a system for semantic relation extraction |
CN102103594A (zh) * | 2009-12-22 | 2011-06-22 | 北京大学 | 字符数据识别及处理的方法和装置 |
CN103164426B (zh) * | 2011-12-13 | 2015-10-28 | 北大方正集团有限公司 | 一种命名实体识别的方法及装置 |
US10535003B2 (en) * | 2013-09-20 | 2020-01-14 | Namesforlife, Llc | Establishing semantic equivalence between concepts |
US9721002B2 (en) * | 2013-11-29 | 2017-08-01 | Sap Se | Aggregating results from named entity recognition services |
CN106598950B (zh) * | 2016-12-23 | 2019-02-05 | 东北大学 | 一种基于混合层叠模型的命名实体识别方法 |
CN106933809A (zh) * | 2017-03-27 | 2017-07-07 | 三角兽(北京)科技有限公司 | 信息处理装置及信息处理方法 |
CN107330011B (zh) * | 2017-06-14 | 2019-03-26 | 北京神州泰岳软件股份有限公司 | 多策略融合的命名实体的识别方法及装置 |
CN107154261A (zh) * | 2017-07-21 | 2017-09-12 | 金鹏电子信息机器有限公司 | 一种基于bp神经网络的人工智能优化方法 |
-
2018
- 2018-12-18 CN CN201880002777.8A patent/CN109791570B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109791570A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10853576B2 (en) | Efficient and accurate named entity recognition method and apparatus | |
US11580763B2 (en) | Representative document hierarchy generation | |
US10915564B2 (en) | Leveraging corporal data for data parsing and predicting | |
CN109791570B (zh) | 高效且精确的命名实体识别方法和装置 | |
US9195646B2 (en) | Training data generation apparatus, characteristic expression extraction system, training data generation method, and computer-readable storage medium | |
CN113961685A (zh) | 信息抽取方法及装置 | |
US12223121B2 (en) | Artificial intelligence-based system and method for dynamically predicting and suggesting emojis for messages | |
CN105740236A (zh) | 结合写作特征和序列特征的中文情感新词识别方法和系统 | |
WO2021063089A1 (zh) | 规则匹配方法、规则匹配装置、存储介质及电子设备 | |
CN103853792B (zh) | 一种图片语义自动标注方法与系统 | |
CN117454220A (zh) | 数据分级分类方法、装置、设备及存储介质 | |
CN110046648B (zh) | 基于至少一个业务分类模型进行业务分类的方法及装置 | |
EP3928221A1 (en) | System and method for text categorization and sentiment analysis | |
CN114756675A (zh) | 文本分类方法、相关设备及可读存储介质 | |
CN108536666A (zh) | 一种短文本信息提取方法和装置 | |
CN113591476A (zh) | 一种基于机器学习的数据标签推荐方法 | |
KR102684423B1 (ko) | 데이터 검색 방법 및 시스템 | |
CN117113941B (zh) | 标点符号恢复方法、装置、电子设备及存储介质 | |
Zhang et al. | Number entities recognition in multiple rounds of dialogue systems | |
CN115618968B (zh) | 新意图发现方法、装置、电子设备及存储介质 | |
Al-Hadheri et al. | Text Classification in Arabic Natural Language Processing: A Review | |
CN111680513B (zh) | 特征信息的识别方法、装置及计算机可读存储介质 | |
CN114510565A (zh) | 短文自动化萃取分类及关键字方法及采用该方法的装置 | |
Ireson et al. | Pascal challenge the evaluation of machine learning for information extraction | |
CN116089604A (zh) | 信息识别方法、装置、计算机设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |