[go: up one dir, main page]

RU2750852C1 - Method for attribution of partially structured texts for formation of normative-reference information - Google Patents

Method for attribution of partially structured texts for formation of normative-reference information Download PDF

Info

Publication number
RU2750852C1
RU2750852C1 RU2020134145A RU2020134145A RU2750852C1 RU 2750852 C1 RU2750852 C1 RU 2750852C1 RU 2020134145 A RU2020134145 A RU 2020134145A RU 2020134145 A RU2020134145 A RU 2020134145A RU 2750852 C1 RU2750852 C1 RU 2750852C1
Authority
RU
Russia
Prior art keywords
tokens
texts
attributes
attribute
processor
Prior art date
Application number
RU2020134145A
Other languages
Russian (ru)
Inventor
Сергей Алексеевич Федосин
Наталья Павловна Плотникова
Владислав Александрович Мартынов
Константин Эдуардович Рыскин
Дмитрий Александрович Кузнецов
Александр Владимирович Денискин
Юлия Сергеевна Вечканова
Николай Алексеевич Федюшкин
Никита Сергеевич Циликов
Original Assignee
Федеральное государственное бюджетное образовательное учреждение высшего образования «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарёва»
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное образовательное учреждение высшего образования «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарёва» filed Critical Федеральное государственное бюджетное образовательное учреждение высшего образования «Национальный исследовательский Мордовский государственный университет им. Н.П. Огарёва»
Priority to RU2020134145A priority Critical patent/RU2750852C1/en
Application granted granted Critical
Publication of RU2750852C1 publication Critical patent/RU2750852C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

FIELD: computer technology.
SUBSTANCE: invention relates to computer technology. The method for attributing partially structured texts for generating normative-reference information includes selecting a training set of texts in the natural language of partially structured texts, extracting the appropriate set of features for each category of named entities, training a classification model using the training set of texts and sets of features for each category of named entities, performing training using attributes, obtaining a model for each named entity and checking attributes, extracting tokens from unmarked text by the processor, generating a marked-up representation by the processor of at least a part of the text based on at least one of the tokens classified by categories.
EFFECT: increased speed of data attribution processes.
1 cl, 2 dwg, 1 tbl

Description

Область техникиTechnology area

Изобретение относится к области извлечения именованных сущностей из текстов на естественном языке с помощью вычислительных систем, в частности к процессам нормализации нормативно-справочной информации (НСИ), которые включают нахождение и дифференциацию контекстных атрибутов сущностей из частично структурированных источников текста. Атрибуты используются для характеристики именованной сущности, ее валидации, дифференциации, и окончательного принятия решения по их включению в НСИ. The invention relates to the field of extracting named entities from natural language texts using computer systems, in particular to the processes of normative reference information (NSI) normalization, which include finding and differentiating contextual attributes of entities from partially structured text sources. Attributes are used to characterize a named entity, its validation, differentiation, and the final decision on their inclusion in the NSI.

Предшествующий уровень техникиPrior art

Основные данные представляют собой общие бизнес-объекты, распределенные между операционными и аналитическими системами, включающие информацию о клиентах, поставщиках, организационных подразделениях, а также НСИ, необходимую для функционирования предприятия. В состав НСИ входят словари, справочники и классификаторы, данные из которых используются при формировании новых документов. Словари, справочники и классификаторы в процессе функционирования могут пополняться, консолидироваться. Пополнение НСИ часто осуществляется из частично структурированных источников - csv-таблиц, таблиц баз данных, прайс-листов из Интернет источников и т.п. Главная сложность в управлении основными данными состоит в обеспечении их полноты, согласованности и непротиворечивости. В НСИ это достигается нормализацией, “вычисткой” записей справочников и словарей НСИ, в результате которых: Master data are general business objects distributed between operational and analytical systems, including information about customers, suppliers, organizational units, as well as reference data necessary for the operation of the enterprise. The NSI includes dictionaries, reference books and classifiers, the data from which are used in the formation of new documents. Dictionaries, reference books and classifiers in the process of functioning can be replenished, consolidated. The replenishment of the reference data is often carried out from partially structured sources - csv tables, database tables, price lists from Internet sources, etc. The main challenge in managing master data is ensuring that it is complete, consistent and consistent. In the NSI this is achieved by normalizing, "cleaning" records of reference books and dictionaries of the NSI, as a result of which:

- устраняются ошибки, неполнота и некорректность данных;- errors, incompleteness and incorrectness of data are eliminated;

- уточняются ключевые атрибуты, и производится унификация наименований элементов справочников. - the key attributes are specified, and the unification of the names of the elements of the directories is carried out.

Известные системы управления основными данными - 1C MDM, SAP MDM, Oracle MDM и IBM InfoSphere MDM, базой которых является классификатор, представляющий собой иерархию классов, описывающих основные бизнес-объекты отрасли. Сопоставляя описания объектов НСИ и поля классификатора, эксперт может понять, какие характеристики имеет тот или иной объект, найти дубликаты и заполнить значения недостающих характеристик. Внедрение автоматизированных подсистем, использующих алгоритмы, обрабатывающие текст на естественном языке, и выполняющих две основные операции - классификацию объектов НСИ относительно заданного классификатора и атрибутизацию (выделение значений характеристик объектов НСИ), позволяет существенно понизить требования к квалификации экспертов, занимающихся нормализацией.Well-known master data management systems are 1C MDM, SAP MDM, Oracle MDM and IBM InfoSphere MDM, which are based on a classifier, which is a hierarchy of classes that describe the main business objects of the industry. By comparing the descriptions of the reference data objects and the classifier fields, the expert can understand what characteristics a particular object has, find duplicates and fill in the values of the missing characteristics. The introduction of automated subsystems that use algorithms that process text in natural language and perform two main operations - classification of reference data objects with respect to a given classifier and attribution (highlighting the values of characteristics of reference data objects), can significantly reduce the qualification requirements of experts involved in normalization.

При классификации система должна получить от эксперта идентификаторы классификатора, относительно которого выполняется классификация, и объекта НСИ, и вернуть несколько наиболее вероятных классов с указанием степени уверенности системы в каждом ответе.When classifying, the system must receive from the expert the identifiers of the classifier, relative to which the classification is performed, and the reference data object, and return several most likely classes indicating the degree of confidence of the system in each answer.

При выделении значений характеристик (атрибутизации) система должна получить от эксперта идентификаторы класса, значения характеристик которого требуется выделить, и объекта НСИ, и вернуть наиболее вероятные возможные значения каждой из характеристик с указанием степени уверенности системы.When identifying the values of characteristics (attribution), the system must receive from the expert the identifiers of the class, the values of the characteristics of which are to be extracted, and the reference data object, and return the most probable possible values of each of the characteristics, indicating the degree of confidence of the system.

Частные подзадачи нормализации решались в разных областях обработки текстовой информации. Так, задачу классификации можно рассматривать как задачу выделения именованных сущностей из неструктурированного текста на естественном языке. Задача выделения значений характеристик объектов также предполагает применение методов машинного обучения для анализа текста.Particular subproblems of normalization were solved in different areas of text information processing. Thus, the classification problem can be viewed as the problem of extracting named entities from unstructured natural language text. The task of extracting the values of the characteristics of objects also involves the use of machine learning methods for text analysis.

В настоящее время используются ряд подходов, каждый из которых обладает своими преимуществами и недостатками.A number of approaches are currently used, each with its own advantages and disadvantages.

Известны система и процесс для анализа, квалифицирования и проглатывания источников неструктурированных данных посредством эмпирической атрибуции. В заявке описываются атрибуция источника данных в соответствии с правилами. Анализируют данные для идентификации характеристики запутанности в данных. Вычисляют качественную меру атрибута и, таким образом, выдают взвешенный атрибут. Вычисляют качественную меру характеристики запутанности и, таким образом, выдают взвешенную характеристику запутанности. Анализируют взвешенный атрибут и взвешенную характеристику запутанности, для создания диспозиции. Фильтруют данные в соответствии с диспозицией и, таким образом, выдают извлеченные данные (RU2674331, МПК G06F 17/22, G06F 17/30, опубл. 06.12.2018).A system and process are known for analyzing, qualifying, and ingesting unstructured data sources through empirical attribution. The application describes the attribution of the data source in accordance with the rules. Analyze the data to identify characteristics of entanglement in the data. The qualitative measure of the attribute is computed and thus a weighted attribute is produced. A qualitative measure of the entanglement characteristic is calculated and thus a weighted entanglement characteristic is provided. The weighted attribute and the weighted entanglement characterization are analyzed to create a disposition. Filter the data in accordance with the disposition and, thus, issue the extracted data (RU2674331, IPC G06F 17/22, G06F 17/30, publ. 06.12.2018).

Известны способ и система обработки естественного языка, в части распознавания сущностей (ERDS). В заявке описывается автоматическое определение того, к каким объектам относится текст, используя методы обработки естественного языка и анализ информации, полученной из контекстуальных данных в тексте (US20090144609, МПК G06F 17/00, G06F 17/30, опубл. 04.06.2009).The known method and system of natural language processing, in terms of entity recognition (ERDS). The application describes the automatic determination of which objects the text belongs to, using natural language processing methods and analysis of information obtained from contextual data in the text (US20090144609, IPC G06F 17/00, G06F 17/30, publ. 04.06.2009).

Известен способ обработки текста на естественном языке и, более конкретно, к методам автоматической идентификации значимых объектов в документах. Этот способ описывает идентификацию набора упоминаний сущностей в каждом абстрактном и каждом соответствующем документе на основе их соответствующих частей речи (POS) и анализе зависимостей (US9619457, МПК G06F 17/27, G06K 9/00, опубл. 11.04.2017).A known method of processing text in natural language and, more specifically, to methods of automatic identification of significant objects in documents. This method describes the identification of a set of references to entities in each abstract and each corresponding document based on their respective parts of speech (POS) and dependency analysis (US9619457, IPC G06F 17/27, G06K 9/00, publ. 11.04.2017).

Известен способ автоматического извлечения и организации информации устройством обработки из множества источников данных. Для источников данных применяется конвейер для извлечения информации об обработке естественного языка, который включает автоматическое обнаружение объектов. Информация об обнаруженных объектах идентифицируется путем анализа продуктов конвейера обработки естественного языка. Идентифицированная информация сгруппирована в классы эквивалентности, содержащие эквивалентную информацию. Создается хотя бы одно отображаемое представление классов эквивалентности. Вычисляется порядок, в котором отображается хотя бы одно отображаемое представление. Производится комбинированное представление классов эквивалентности, которое соответствует порядку отображения отображаемого представления (US20140195884, МПК G06F 17/21, G06F 17/30, опубл. 10.07.2014).A known method of automatically extracting and organizing information by a processing device from a variety of data sources. For data sources, a pipeline is used to retrieve natural language processing information, which enables automatic object detection. The information about the detected objects is identified by analyzing the products of the natural language processing pipeline. The identified information is grouped into equivalence classes containing equivalent information. At least one displayable representation of the equivalence classes is created. The order in which at least one rendered view is displayed is calculated. A combined representation of equivalence classes is produced, which corresponds to the display order of the displayed representation (US20140195884, IPC G06F 17/21, G06F 17/30, publ. 10.07.2014).

Известен способ распознавания именованных сущностей в текстах на естественном языке, основанный на использовании морфологических и семантических признаков, включающий, лексико-морфологический анализ с помощью вычислительной системы текста на естественном языке, содержащего множество токенов, определение на основе лексико-морфологического анализа одного или более лексических значений и грамматических значений, связанных с каждым токеном в множестве токенов; вычисление для каждого токена в множестве токенов одной или более функций классификатора с использованием лексических и грамматических значений, ассоциированных с токеном, отличающихся тем, что значение каждой функции классификатора указывает на оценку степени ассоциации токена с категорией именованных сущностей; интерпретация семантических структур с использованием набора продукционных правил для определения для одного или более токенов, входящих в выбранную часть текста на естественном языке, оценки степени ассоциации токена с категорией именованных сущностей (RU2619193, МПК G06F 17/28, опубл. 12.05.2017).There is a known method for recognizing named entities in natural language texts, based on the use of morphological and semantic features, including lexical and morphological analysis using a computing system of a natural language text containing many tokens, determining one or more lexical meanings based on lexical and morphological analysis and grammatical meanings associated with each token in the set of tokens; calculating, for each token in the plurality of tokens, one or more classifier functions using lexical and grammatical meanings associated with the token, characterized in that the value of each classifier function indicates an estimate of the degree of association of the token with a category of named entities; interpretation of semantic structures using a set of production rules to determine, for one or more tokens included in a selected part of a natural language text, an assessment of the degree of association of a token with a category of named entities (RU2619193, IPC G06F 17/28, publ. 05/12/2017).

Среди недостатков вышеуказанных аналогов можно отметить, что механизм поиска и определения токенов, ассоциированных с категорией именованных сущностей производится либо на основе анализа соответствующих частей речи (POS), либо на основе лексико-морфологического анализа текста на естественном языке, что исключает разметку и поиск численных характеристик, единиц измерений, аббревиатур, характерных для атрибутов НСИ.Among the shortcomings of the above analogs, it can be noted that the mechanism for searching and determining tokens associated with a category of named entities is made either based on the analysis of the corresponding parts of speech (POS), or based on the lexico-morphological analysis of the text in natural language, which excludes the markup and search for numerical characteristics , units of measurement, abbreviations typical for the attributes of the reference data.

Наиболее близким техническим решением к заявленному изобретению является средство распознавания именованных сущностей из неразмеченного текстового корпуса. Технический результат заключается в повышении эффективности распознавания и разметки именованных сущностей в текстах. Выбирают обучающий набор текстов на естественном языке. Извлекают процессором соответствующий набор признаков для каждой категории именованных сущностей. Обучают процессором модели классификации с использованием обучающего набора текстов и наборов признаков для каждой категории именованных сущностей. Извлекают процессором токены из неразмеченного текста. Формируют процессором набор атрибутов для каждого токена неразмеченного текста на основании, по меньшей мере, глубокого семантико-синтаксического анализа. Определяют возможные синтаксические связи, по меньшей мере, в одном предложении неразмеченного текста, включающее получение множества синтаксических атрибутов. Формируют независимую от языка семантическую структуру, включающую определение семантических связей и соответствующих семантических атрибутов каждого токена. Классифицируют процессором каждый токен, по меньшей мере, в одну из категорий на основании модели классификатора и набора атрибутов токена. Формируют процессором размеченное представление, по меньшей мере, части текста на основании, по меньшей мере, одного из токенов, классифицированных по категориям (RU 2665239, МПК G06F 17/27, опубл. 28.08.2018).The closest technical solution to the claimed invention is a means of recognizing named entities from an unlabeled text corpus. The technical result consists in increasing the efficiency of recognition and markup of named entities in texts. Choose a natural language training set. The processor retrieves the appropriate set of features for each category of named entities. The classification model is trained by the processor using a training set of texts and sets of features for each category of named entities. The processor retrieves tokens from the unmarked text. The processor generates a set of attributes for each unlabeled text token based on at least deep semantic-syntactic analysis. Possible syntactic links are determined in at least one sentence of unmarked text, including obtaining a plurality of syntactic attributes. A language-independent semantic structure is formed, including the definition of semantic links and the corresponding semantic attributes of each token. Each token is classified by the processor into at least one of the categories based on the classifier model and a set of token attributes. The processor forms a marked-up representation of at least a part of the text based on at least one of the tokens classified by categories (RU 2665239, IPC G06F 17/27, publ. 28.08.2018).

Недостатком прототипа является процедура выделения атрибутов именованных сущностей на основе семантических связей и синтаксического анализа, что является обоснованным для разметки неструктурированных тестов с высокой семантической нагрузкой и не подходит для частично-структурированных тестов - источников пополнения и консолидации НСИ, где атрибуты именованных сущностей очень часто являются комбинацией слов с численными характеристиками и единицами измерений. The disadvantage of the prototype is the procedure for identifying attributes of named entities based on semantic relationships and parsing, which is reasonable for marking up unstructured tests with a high semantic load and is not suitable for semi-structured tests - sources of replenishment and consolidation of reference data, where the attributes of named entities are very often a combination words with numerical characteristics and units of measurement.

Сущность изобретенияThe essence of the invention

Техническим результатом, достигаемом при использовании заявленного изобретения, является повышение скорости, обеспечение масштабируемости, гибкости и согласованности процессов атрибутизации данных.The technical result achieved when using the claimed invention is to increase the speed, provide scalability, flexibility and consistency of data attribution processes.

Сущность изобретения заключается в том, что способ атрибутизации частично структурированных текстов для формирования нормативно-справочной информации, включающий выбор обучающего набора текстов на естественном языке, извлечение процессором соответствующего набора признаков для каждой категории именованных сущностей, обучение процессором модели классификации с использованием обучающего набора текстов и наборов признаков для каждой категории именованных сущностей, извлечение процессором токенов из неразмеченного текста, формирование процессором размеченного представления, по меньшей мере, части текста на основании, по меньшей мере, одного из токенов, классифицированных по категориям. Для обучения модели классификации именованных сущностей выбраны частично структурированные тексты и выполнена их предобработка - лемматизация, стемминг, удаление стоп-слов, знаков пунктуации, а также векторизация слов с присвоением веса каждому слову наименования сущности в соответствии с оценкой важности слова в контексте документа. Для извлечения токенов неразмеченный текст размечается на обученной модели классификатора наименований, а наименования разбиваются на токены по заданному набору разделителей, после чего составляются все возможные комбинации из 1-5 последовательных токенов. Для извлечения атрибутов полученные комбинации токенов обрабатываются обученной на заданном наборе атрибутов класса моделью классификатора атрибутов, который возвращает для каждой комбинации вероятность того, что данная комбинация является тем или иным атрибутом из набора атрибутов заданного класса или не является атрибутом вообще, для каждого атрибута в качестве основного значения выбирается комбинация с наибольшей вероятностью и превышающей заданный порог.The essence of the invention lies in the fact that the method of attributing partially structured texts for the formation of normative and reference information, including the selection of a training set of texts in natural language, the processor extracting the corresponding set of features for each category of named entities, training the processor of the classification model using the training set of texts and sets features for each category of named entities, the processor extracts tokens from the unlabeled text, the processor generates a marked-up representation of at least a portion of the text based on at least one of the tokens classified by categories. To train the classification model for named entities, partially structured texts were selected and preprocessed - lemmatization, stemming, removal of stop words, punctuation marks, as well as vectorization of words with weight assignment to each word of the entity name in accordance with the assessment of the importance of the word in the context of the document. To extract tokens, the unlabeled text is marked up on the trained model of the name classifier, and the names are divided into tokens according to a given set of delimiters, after which all possible combinations of 1-5 consecutive tokens are compiled. To extract the attributes, the obtained combinations of tokens are processed by the attribute classifier model trained on a given set of class attributes, which returns for each combination the probability that this combination is one or another attribute from the set of attributes of a given class or is not an attribute at all, for each attribute as the main one. value, the combination with the highest probability and exceeding the specified threshold is selected.

Краткое описание чертежей изобретенияBRIEF DESCRIPTION OF THE DRAWINGS OF THE INVENTION

На фиг. 1 представлена схема процесса атрибутизации частично структурированных текстов, на фиг. 2 представлен прайс-лист в CSV-формате, как пример - частично структурированного текста. В табл. 1 показан пример распределения вероятностей отнесения комбинаций токенов к заданным атрибутам.FIG. 1 shows a diagram of the process of attributing partially structured texts; FIG. 2 shows a price list in CSV format, as an example - a partially structured text. Table 1 shows an example of the probability distribution of assigning combinations of tokens to given attributes.

Осуществление изобретенияImplementation of the invention

Частично структурированный текст (фиг. 1) после лемматизации и стеминга классифицируется обученным на размеченных наименованиях сущностей классификатором. Под наименованием сущности подразумевается собственно имя сущности (например, «доска пола») и контекст, который возможно содержит набор атрибутов. Для каждого наименования сущности классификатор выдает вероятность принадлежности некоторому классу. Каждому классу ставится в соответствие конкретный набор атрибутов. Partially structured text (Fig. 1), after lemmatization and stemming, is classified by a classifier trained on marked-up entity names. The name of an entity means the actual name of the entity (for example, "floor board") and the context, which may contain a set of attributes. For each entity name, the classifier gives the probability of belonging to a certain class. Each class is assigned a specific set of attributes.

Каждое наименование сущности разбивается на токены. Под токеном подразумевается часть наименования сущности между некоторыми символами-разделителями. Из полученных токенов составляются комбинации. Комбинации токенов подаются на обученный на размеченных атрибутах класса классификатор LightGBM [1]. Классификатор выдает массив вероятностей для каждой комбинации. Каждое значение вероятности определяет степень принадлежности комбинации к валидированным атрибутам. Эксперт на основе полученного массива вероятностей и значения комбинации токенов задает порог и принимает решение об отнесении комбинации к тому или иному атрибуту заданного класса.Each entity name is split into tokens. A token is a part of the entity name between some separator characters. Combinations are made from the received tokens. Combinations of tokens are submitted to the LightGBM classifier trained on the marked attributes of the class [1]. The classifier produces an array of probabilities for each combination. Each probability value determines the degree to which the combination belongs to the validated attributes. Based on the obtained array of probabilities and the value of the combination of tokens, the expert sets the threshold and decides to assign the combination to one or another attribute of a given class.

Более подробно процесс атрибутизации частично структурированных текстов для формирования НСИ выглядит следующим образом.In more detail, the process of attributing partially structured texts for the formation of the reference data is as follows.

1. Отнесение наименований сущностей из текста на естественном языке к классам по заданному классификатору.1. Assignment of the names of entities from the text in natural language to classes according to a given classifier.

1.1 Выполнение предобработки текста: лемматизации, стемминг, удаление стоп-слов и знаков пунктуации, векторизация.1.1 Performing text preprocessing: lemmatization, stemming, removal of stop words and punctuation marks, vectorization.

1.1.1 При выполнении этапа лемматизации осуществляется приведение слов в тексте к их первоначальной словарной форме (например, «пихтовые» - «пихтовый»). Данный этап реализуется с использованием словарей. При этом удаляются стоп-слова (предлоги и вспомогательные части речи, а также стоп-слова из специальных баз стоп-слов).1.1.1 When performing the lemmatization stage, the words in the text are reduced to their original vocabulary form (for example, "fir" - "fir"). This stage is implemented using dictionaries. This removes stop words (prepositions and auxiliary parts of speech, as well as stop words from special bases of stop words).

1.1.2 В процессе стэмминга происходит приведение слов к основе, а именно, отрезание окончания и формообразующего суффикса.1.1.2 In the process of stamming, words are brought to the stem, namely, the ending and the formative suffix are cut off.

1.1.3 Векторизация слов со схожим смысловым значением осуществляется с использованием метода word2vec. Обученный на поисковых запросах Word2Vec осуществляет кластеризацию слов на основе контекста и метода SKIP-грамм. Для присвоения веса каждому слову используется функция TF-IDF. Функция TF-IDF (TF — частота слова, IDF — обратная частота документа) - статистическая мера, используемая для оценки важности слова в контексте документа, являющегося частью коллекции документов или корпуса. Вес некоторого слова пропорционален частоте употребления этого слова в документе и обратно пропорционален частоте употребления слова во всех документах коллекции.1.1.3 Vectorization of words with a similar semantic meaning is carried out using the word2vec method. Word2Vec, trained on search queries, performs word clustering based on context and the SKIP gram method. The TF-IDF function is used to assign weight to each word. TF-IDF (TF - Word Frequency, IDF - Inverse Document Frequency) is a statistical measure used to assess the importance of a word in the context of a document that is part of a document collection or corpus. The weight of a word is proportional to the frequency of use of this word in a document and is inversely proportional to the frequency of use of a word in all documents of the collection.

1.2 Отнесение сущностей к конкретной категории (классу) осуществляется на основе алгоритмов машинного обучения с применением библиотек c открытым исходным кодом (Keras). В частности, используется сверточная искусственная нейронная сеть (Conovolution Neural Network, CNN) с одним Embedding- и двумя Convolution-слоями. Обучение нейронной сети осуществляется на наборе текстов, полученном из валидированной НСИ. Для обучения используются только наименования сущностей.1.2 The assignment of entities to a specific category (class) is based on machine learning algorithms using open source libraries (Keras). In particular, a convolutional artificial neural network (Conovolution Neural Network, CNN) with one Embedding and two Convolution layers is used. The neural network is trained on a set of texts obtained from a validated NSI. For training, only the names of entities are used.

2. Выделение значений атрибутов наименований сущностей2. Highlighting the values of the attributes of the names of entities

Второй этап атрибутизации показан на следующем примере:The second stage of attribution is shown in the following example:

Имеется некоторый прайс-лист в CSV-формате (фиг. 2), в котором столбцы имеют следующие значения:There is a certain price list in CSV format (Fig. 2), in which the columns have the following meanings:

- name_mtr - наименование товара (сущности)- name_mtr - product name (entity)

- id_class - идентификатор класса- id_class - class identifier

- name_atr - наименование атрибута- name_atr - attribute name

- val_atr - значение атрибута- val_atr - attribute value

Дальнейшая обработка осуществляется следующим образом.Further processing is carried out as follows.

2.1 По значению класса, полученному на предыдущем этапе, определяется, какие атрибуты встречаются внутри этого класса, и далее выделяются только эти атрибуты.2.1 Based on the value of the class obtained in the previous step, it is determined which attributes are found within this class, and then only these attributes are selected.

2.2 Для каждого возможного атрибута находится часть наименования, которая вероятнее всего является значением рассматриваемого атрибута. Для этого наименование разбивается на токены. Набор разделителей, разграничивающих токены, можно задавать. Для примера выбраны следующие разделители: « », «,», «;».2.2 For each possible attribute, there is a part of the name that is most likely the value of the attribute in question. For this, the name is divided into tokens. A set of delimiters that delimit tokens can be specified. For example, the following separators have been selected: "", ",", ";".

2.3 Далее составляются комбинации из подряд идущих токенов - все комбинации, которые состоят из 1-5 последовательных токенов, объединенных через заданные разделители. Для примера рассмотрим наименование «Брус клееный строганый, ель 100*200мм; 11,985 м; влажность 12+/-2%; класс GL 24h».2.3 Next, combinations of consecutive tokens are made - all combinations that consist of 1-5 consecutive tokens combined through specified separators. For example, consider the name “Glued planed timber, spruce 100 * 200mm; 11.985 m; humidity 12 +/- 2%; class GL 24h ".

Данное наименование разобьется на следующие токены: «Брус», «клееный», «строганый», «ель», «100*200мм», «11» и т. д. Из них будут составлены следующие комбинации: «Брус», «Брус клееный», «Брус, клееный», «Брус; клееный», «Брус клееный строганый», «Брус, клееный, строганый» и т. д.This name will be split into the following tokens: "Timber", "glued", "planed", "spruce", "100 * 200mm", "11", etc. The following combinations will be made of them: "Timber", "Timber" glued "," Glued beams "," Beams; glued "," Glued planed timber "," Glued, planed timber ", etc.

2.4 Каждая из полученных комбинаций обрабатывается обученным классификатором атрибутов. Данный классификатор возвращает для каждой комбинации вероятность того, что данная комбинация является тем или иным атрибутом из набора атрибутов заданного класса или не является атрибутом вообще. Другими словами, получают распределение вероятностей между атрибутами для рассматриваемой комбинации. 2.4 Each of the resulting combinations is processed by a trained attribute classifier. This classifier returns for each combination the probability that the given combination is one or another attribute from the set of attributes of a given class or is not an attribute at all. In other words, the probability distribution between the attributes for the considered combination is obtained.

Так как для каждого класса наименований есть свой набор атрибутов, то потребуется обучить отдельную модель для каждого класса. Для обучения классификатору требуются пары вида {значение атрибута, имя атрибута}, которые имеются в прайс-листе. Для каждой модели выбираются пары из соответствующего класса наименований. Перед подачей на вход классификатору значение атрибута нужно векторизовать. Для векторизации выбран метод на основе N-грамм CountVectorizer из библиотеки scikit-learn, так как смысловую нагрузку несут именно сочетания слов с учетом их последовательности.Since each class of names has its own set of attributes, it will be necessary to train a separate model for each class. For training the classifier requires pairs of the form {attribute value, attribute name}, which are available in the price list. For each model, pairs are selected from the corresponding class of names. The attribute value must be vectorized before being fed to the input to the classifier. For vectorization, a method based on the N-gram CountVectorizer from the scikit-learn library was chosen, since the semantic load is carried by combinations of words, taking into account their sequence.

Пример. Возьмем наименование из пункта 2.3. Для класса данного наименования («01.01.10.01 Клееный брус непрофилированный») имеем два атрибута: сечение и длина. Example. Let's take the name from paragraph 2.3. For the class of this name ("01.01.10.01 Non-profiled glued laminated timber") we have two attributes: section and length.

Распределение вероятностей для некоторых комбинаций приведены в табл. 1.The probability distribution for some combinations is shown in Table. one.

Для каждого атрибута в качестве основного значения выбирается комбинация, которая имеет наибольшую вероятность и превышает заданный порог. Для рассматриваемого примера при значении порога 0.6 в качестве основных значений будут выбраны следующие: для атрибута «Длина» - «11,985», для атрибута «Сечение» - «100*200мм».For each attribute, the combination that has the highest probability and exceeds the specified threshold is selected as the main value. For the considered example, with a threshold value of 0.6, the following will be selected as the main values: for the “Length” attribute - “11.985”, for the “Section” attribute - “100 * 200mm”.

Источники информацииInformation sources

1. LightGBM - gradient boosting framework. Режим доступа: https://lightgbm.readthedocs.io/en/latest/. Дата доступа: 15.10.2020 г.1. LightGBM - gradient boosting framework. Access mode: https://lightgbm.readthedocs.io/en/latest/. Access date: 15.10.

Таблица 1Table 1 КомбинацияCombination Вероятность принадлежности к атрибутуThe probability of belonging to an attribute «Сечение»"Section" «Длина»"Length" «Не атрибут»"Not an attribute" влажность 12+/-2%humidity 12 +/- 2% 0.030.03 0.0150.015 0.9550.955 100*200мм100 * 200mm 0.840.84 0.110.11 0.050.05 Брус, клееныйGlued timber 0.0120.012 0.01140.0114 0.97660.9766 11,98511.985 0.210.21 0.730.73 0.060.06

Claims (1)

Способ атрибутизации частично структурированных текстов для формирования нормативно-справочной информации, включающий выбор обучающего набора текстов на естественном языке, извлечение процессором соответствующего набора признаков для каждой категории именованных сущностей, обучение процессором модели классификации с использованием обучающего набора текстов и наборов признаков для каждой категории именованных сущностей, извлечение процессором токенов из неразмеченного текста, формирование процессором размеченного представления, по меньшей мере, части текста на основании, по меньшей мере, одного из токенов, классифицированных по категориям, отличающийся тем, что для обучения модели классификации именованных сущностей выбраны частично структурированные тексты и выполнена их предобработка – лемматизация, стемминг, удаление стоп-слов, знаков пунктуации, а также векторизация слов с присвоением веса каждому слову наименования сущности в соответствии с оценкой важности слова в контексте документа, для извлечения токенов неразмеченный текст размечается на обученной модели классификатора наименований, а наименования разбиваются на токены по заданному набору разделителей, после чего составляются все возможные комбинации из 1-5 последовательных токенов, для извлечения атрибутов полученные комбинации токенов обрабатываются обученной на заданном наборе атрибутов класса моделью классификатора атрибутов, который возвращает для каждой комбинации вероятность того, что данная комбинация является тем или иным атрибутом из набора атрибутов заданного класса или не является атрибутом вообще, для каждого атрибута в качестве основного значения выбирается комбинация с наибольшей вероятностью и превышающей заданный порог.A method for attributing semi-structured texts to form normative and reference information, including the selection of a training set of texts in natural language, the processor extracting the corresponding set of features for each category of named entities, training the processor of the classification model using the training set of texts and sets of features for each category of named entities, extraction by the processor of tokens from the unlabeled text, the formation by the processor of a marked-up representation of at least part of the text based on at least one of the tokens classified by categories, characterized in that semi-structured texts are selected for training the named entity classification model and executed preprocessing - lemmatization, stemming, removal of stop words, punctuation marks, as well as vectorization of words with weight assignment to each word of the entity name in accordance with the assessment of the importance of the word in the context of the document nta, to extract tokens, the unlabeled text is marked on the trained model of the classifier of names, and the names are divided into tokens according to a given set of delimiters, after which all possible combinations of 1-5 consecutive tokens are compiled, to extract attributes, the resulting combinations of tokens are processed by the trained one on a given set of class attributes the attribute classifier model, which returns for each combination the probability that a given combination is one or another attribute from a set of attributes of a given class or is not an attribute at all, for each attribute the combination with the highest probability and exceeding a given threshold is selected as the main value.
RU2020134145A 2020-10-19 2020-10-19 Method for attribution of partially structured texts for formation of normative-reference information RU2750852C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2020134145A RU2750852C1 (en) 2020-10-19 2020-10-19 Method for attribution of partially structured texts for formation of normative-reference information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2020134145A RU2750852C1 (en) 2020-10-19 2020-10-19 Method for attribution of partially structured texts for formation of normative-reference information

Publications (1)

Publication Number Publication Date
RU2750852C1 true RU2750852C1 (en) 2021-07-05

Family

ID=76755855

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2020134145A RU2750852C1 (en) 2020-10-19 2020-10-19 Method for attribution of partially structured texts for formation of normative-reference information

Country Status (1)

Country Link
RU (1) RU2750852C1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003488A1 (en) * 2021-07-22 2023-01-26 Общество С Ограниченной Ответственностью "Б152" Checking of a document for compliance with personal data requirements

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080263019A1 (en) * 2001-09-24 2008-10-23 Iac Search & Media, Inc. Natural language query processing
US20090144609A1 (en) * 2007-10-17 2009-06-04 Jisheng Liang NLP-based entity recognition and disambiguation
US20100082333A1 (en) * 2008-05-30 2010-04-01 Eiman Tamah Al-Shammari Lemmatizing, stemming, and query expansion method and system
US20140195884A1 (en) * 2012-06-11 2014-07-10 International Business Machines Corporation System and method for automatically detecting and interactively displaying information about entities, activities, and events from multiple-modality natural language sources
RU2665239C2 (en) * 2014-01-15 2018-08-28 Общество с ограниченной ответственностью "Аби Продакшн" Named entities from the text automatic extraction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080263019A1 (en) * 2001-09-24 2008-10-23 Iac Search & Media, Inc. Natural language query processing
US20090144609A1 (en) * 2007-10-17 2009-06-04 Jisheng Liang NLP-based entity recognition and disambiguation
US20100082333A1 (en) * 2008-05-30 2010-04-01 Eiman Tamah Al-Shammari Lemmatizing, stemming, and query expansion method and system
US20140195884A1 (en) * 2012-06-11 2014-07-10 International Business Machines Corporation System and method for automatically detecting and interactively displaying information about entities, activities, and events from multiple-modality natural language sources
RU2665239C2 (en) * 2014-01-15 2018-08-28 Общество с ограниченной ответственностью "Аби Продакшн" Named entities from the text automatic extraction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003488A1 (en) * 2021-07-22 2023-01-26 Общество С Ограниченной Ответственностью "Б152" Checking of a document for compliance with personal data requirements

Similar Documents

Publication Publication Date Title
CN111723215B (en) Device and method for establishing biotechnological information knowledge graph based on text mining
CN112487140A (en) Question-answer dialogue evaluating method, device, equipment and storage medium
US11074286B2 (en) Automated curation of documents in a corpus for a cognitive computing system
US11657076B2 (en) System for uniform structured summarization of customer chats
Abujar et al. A heuristic approach of text summarization for Bengali documentation
US20120303661A1 (en) Systems and methods for information extraction using contextual pattern discovery
US20190050478A1 (en) Discrepancy Handler for Document Ingestion into a Corpus for a Cognitive Computing System
RU2718978C1 (en) Automated legal advice system control method
CN112445894A (en) Business intelligent system based on artificial intelligence and analysis method thereof
CN114912435A (en) Method and device for power text knowledge discovery based on frequent itemset algorithm
Eke et al. The significance of global vectors representation in sarcasm analysis
Recupero et al. Frame-based detection of figurative language in tweets [application notes]
CN112380848B (en) Text generation method, device, equipment and storage medium
CN115794798A (en) Market supervision informationized standard management and dynamic maintenance system and method
CN113157860A (en) Electric power equipment maintenance knowledge graph construction method based on small-scale data
RU2750852C1 (en) Method for attribution of partially structured texts for formation of normative-reference information
KR102185733B1 (en) Server and method for automatically generating profile
Al-Ayyoub et al. Framework for Affective News Analysis of Arabic News: 2014 Gaza Attacks Case Study.
KR102661438B1 (en) Web crawler system that collect Internet articles and provides a summary service of issue article affecting the global value chain
Albarghothi et al. Automatic construction of e-government services ontology from Arabic webpages
Anggara et al. Analysis of Netizen Comments Sentiment on Public Official Statements on Instagram Social Media Accounts
CN115879901B (en) Intelligent personnel self-service platform
Sales et al. Assessing Media Bias in Cross-Linguistic and Cross-National Populations
Patrick et al. Developing SNOMED CT subsets from clinical notes for intensive care service
Dziczkowski et al. An autonomous system designed for automatic detection and rating of film reviews