[go: up one dir, main page]

JP7223469B1 - Utterance information documentation device - Google Patents

Utterance information documentation device Download PDF

Info

Publication number
JP7223469B1
JP7223469B1 JP2022142035A JP2022142035A JP7223469B1 JP 7223469 B1 JP7223469 B1 JP 7223469B1 JP 2022142035 A JP2022142035 A JP 2022142035A JP 2022142035 A JP2022142035 A JP 2022142035A JP 7223469 B1 JP7223469 B1 JP 7223469B1
Authority
JP
Japan
Prior art keywords
utterance
utterances
information
stage
summarizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022142035A
Other languages
Japanese (ja)
Other versions
JP2024037301A (en
Inventor
文丈 鈴木
佑典 野中
陸 荒川
浩一郎 田村
圭 阿久澤
静真 久保
Original Assignee
株式会社Aces
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Aces filed Critical 株式会社Aces
Priority to JP2022142035A priority Critical patent/JP7223469B1/en
Application granted granted Critical
Publication of JP7223469B1 publication Critical patent/JP7223469B1/en
Publication of JP2024037301A publication Critical patent/JP2024037301A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Figure 0007223469000001

【課題】発話における重要事項が容易に把握できる発話情報資料化装置を提供する。
【解決手段】発話情報資料化装置1は、ユーザ端末4と顧客端末5との間で行われたビデオ会議の音声を収録し、その映像を解析して複数の発話から重要な情報を抽出し、要約文を作成する。要約用発話32の抽出は、解析手段12によって、複数の発話に含まれる文言について予算や権限等の分類、又は、説明段階から質疑応答段階への切り替わり等があればその発話にポイントを付与する。累計ポイントの高い発話を所定数抽出して要約用発話32とする。要約手段13は、要約用発話32の前後の発話で、発言者が同一の場合は文章の接続詞で関連の有無を判定する(A)。発言者が異なる場合は文章の類似性で判定する(B)。要約用発話32に加えて、関係のある発話33を組合せると共に、短い文章に変換し、要約文35を作成する。
【選択図】図4

Figure 0007223469000001

A speech information documentation device is provided that allows easy grasp of important matters in speech.
SOLUTION: An utterance information documentation device 1 records voice of a video conference held between a user terminal 4 and a customer terminal 5, analyzes the video, and extracts important information from a plurality of utterances. , to create a summary sentence. Extraction of the summary utterance 32 is performed by the analysis means 12. If there is a classification of budget, authority, etc., or a switch from the explanation stage to the question-and-answer stage, etc., the analysis means 12 gives points to the utterance. . A predetermined number of utterances with high accumulated points are extracted and used as summary utterances 32 . The summarizing means 13 determines whether or not there is a relationship between the utterances before and after the utterance for summarization 32, if the same speaker is present (A). If the speakers are different, the sentence similarity is used for determination (B). In addition to summary utterances 32, related utterances 33 are combined and converted into short sentences to create a summary sentence 35. - 特許庁
[Selection drawing] Fig. 4

Description

特許法第30条第2項適用 (1)令和4年7月7日ソフトウェア(Ver.1.6.2)リリース (2)令和4年7月20日ソフトウェア(Ver.1.6.3)リリース (3)令和4年7月8日ソフトウェア(Ver.1.6.2)の記事をウェブ上で公開 (4)令和4年7月8日ソフトウェア(Ver.1.6.2)の記事をウェブ上で公開 (5)令和4年8月24日ソフトウェア(Ver.1.6.3)の内容を動画で公開 (6)令和4年8月25日ソフトウェア(Ver.1.6.3)の記事をウェブ上で公開 (7)令和4年8月24日~25日にDXPO(東京ビッグサイト)で展示Application of Article 30, Paragraph 2 of the Patent Law (1) July 7, 2020 software (Ver.1.6.2) release (2) July 20, 2020 software (Ver.1.6. 3) Release (3) July 8, 2020 Software (Ver.1.6.2) article published on the web (4) July 8, 2020 Software (Ver.1.6. 2) Article published on the web (5) August 24, 2020 Software (Ver.1.6.3) content released as video (6) August 25, 2020 Software (Ver. .1, 6, 3) will be published on the web (7) Exhibition at DXPO (Tokyo Big Sight) from August 24 to 25, 2022

本発明は、ビデオ会議、或いは講演会等の発話の内容を資料化する装置に関する。 TECHNICAL FIELD The present invention relates to a device for documenting the content of speech in a video conference, lecture, or the like.

近年では、テレワーク等の普及に伴い、ビデオ会議を利用する機会が増加している。また、営業活動においても、担当者が顧客を直接訪問して営業活動を行うだけでなく、ビデオ会議を利用して営業活動を行う機会が増加している。さらには、オンラインでの講演会等も頻繁に行われるようになっている。 In recent years, with the spread of telework and the like, opportunities to use video conferencing are increasing. Also, in sales activities, there are increasing opportunities for sales activities to be conducted not only by direct visits to customers by sales personnel, but also by using video conferences. Furthermore, online lectures and the like are being held frequently.

特許文献1には、電話を用いて営業活動を行う際に、通話先とユーザとの会話を録音し、録音データのうち、音声が存在する発話区間を検出して抽出し、抽出された音声データに基づいて、要素に基づく解析を行う営業支援装置が開示されている。 In Patent Document 1, when conducting business activities using a telephone, a conversation between a callee and a user is recorded, an utterance period in which voice exists is detected and extracted from the recorded data, and the extracted voice A sales support device is disclosed that performs element-based analysis based on data.

特許文献1の装置では、要素として、ユーザの音声と通話先の音声を区別すること、及び会話における抑揚の強弱や話の速さ等が開示されており、これらの要素を用いて電話営業の会話をデータ化している。 The apparatus of Patent Document 1 discloses, as elements, distinguishing between the voice of the user and the voice of the called party, the strength of intonation in conversation, the speed of speech, and the like. Conversation is digitized.

特許文献1の装置では、このようにして収集されたデータをビッグデータとして資産化し、AI(人工知能)を利用した処理にビッグデータを活用することができるとしている。例えば、通話中にリアルタイムでAIによるフィードバックを行い、営業の質を向上させることができるとしている。又は、解析データを管理者が見ることにより営業担当者の評価を行うことや、解析データを他の営業担当者の教育に利用することが開示されている。 The apparatus of Patent Literature 1 makes it possible to capitalize the data thus collected as big data and utilize the big data for processing using AI (artificial intelligence). For example, it is possible to improve the quality of sales by providing real-time AI feedback during a call. Alternatively, it is disclosed that the analysis data is viewed by the manager to evaluate the salesperson, or that the analysis data is used for training other salespersons.

特許第7053069号公報Japanese Patent No. 7053069

特許文献1に記載の技術では、電話営業において、誰がどのような理由で会議が不成立に終わったかの検証や、トラブル発生時の通話の確認、或いは営業成績のよい優秀な営業担当者の話術を他の営業担当者に学ばせることができる等の効果があるとされている。 In the technology described in Patent Document 1, in telemarketing, it is possible to verify who made the meeting unsuccessful and for what reason, confirm the call when a problem occurs, or examine the speaking skills of an excellent salesperson with good sales performance. It is said that there is an effect such as being able to make the sales representatives learn.

しかしながら、特許文献1の技術では、会議に対する検証等を行うことができるが、その会議における重要な会話がどの会話であったのか等、会議の要点を把握することは困難である。また、経験の少ない営業担当者に対する研修用の資料とした場合も、会話の要点が不明のため、どの会話が成約に結びついているか等を学習することは困難であった。 However, although the technology disclosed in Japanese Patent Laid-Open No. 2002-200311 can verify the conference, it is difficult to grasp the key points of the conference, such as which conversation was the most important conversation in the conference. Also, even if the material is used as a training material for inexperienced sales personnel, it is difficult to learn which conversation leads to a contract because the main point of the conversation is unclear.

本発明は、上記課題に鑑み、会議や講演会における発話の重要事項が容易に把握できる発話情報資料化装置を提供することを目的とする。また、本発明は、重要事項を明確にすることで、学習効果の高い研修用の資料の提供が可能な発話情報資料化装置を提供する。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide an utterance information documentation apparatus that enables users to easily grasp the important matters of utterances in conferences and lectures. Further, the present invention provides an utterance information documentation device capable of providing training materials with high learning effects by clarifying important matters.

上記目的を達成するために、本発明の発話情報資料化装置は、一以上の発話を資料化する装置であって、発話情報を入手する入手手段と、前記発話情報を解析する解析手段と、前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、少なくとも前記要約文を表示させる表示手段とを備え、前記解析手段は、前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、及び、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とすることを特徴とする。 In order to achieve the above object, an utterance information documentation apparatus of the present invention is an apparatus that compiles one or more utterances into materials, comprising acquisition means for obtaining utterance information, analysis means for analyzing the utterance information, Summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analysis means; and display means for displaying at least the summary sentence; Identifying which category it belongs to among categories, and identifying which stage the utterance belongs to among a plurality of stages of progress, and using information of at least one of the classification or the stage, a plurality of A summary utterance is extracted from the utterance, the summary means creates a summary sentence including the summary utterance, and the display means can display the summary sentence.

本発明の発話情報資料化装置は、会議や講演会等の音声を含む発話情報から所定の基準に従って一又は複数の発話を抽出し、この発話の中から要約用発話を抽出し、発話の内容を要約して資料化している。従って、発話が長い場合であっても、要約用発話を用いた要約文を見ることにより、その発話で何が重要かを容易に把握することができる。ここで、発話における分類とは、発話の内容を種類別に分けることをいう。例えば、会議であれば、商談における予算や権限、技術打合せであれば製品の性能や生産技術等が該当する。講演会であれば講義を行う内容に関する分類となる。また、本発明において、解析手段が分類又は段階を特定するとは、分類及び段階の双方を特定する場合も含む。 The speech information documentation device of the present invention extracts one or more speeches according to a predetermined standard from speech information including voices of conferences, lectures, etc., extracts summary speeches from the speeches, are summarized and documented. Therefore, even if the utterance is long, it is possible to easily grasp what is important in the utterance by looking at the summary using the summary utterance. Here, the classification of utterances means classifying the contents of utterances according to types. For example, in the case of a meeting, the budget and authority in business negotiations correspond, and in the case of technical meetings, product performance, production technology, and the like. In the case of a lecture, the classification is related to the content of the lecture. Further, in the present invention, the analysis means specifying the classification or the stage includes the case where both the classification and the stage are specified.

本発明において、要約用発話とは、その発話における目的、又は成果等に関連性がある事項を含む発話であり、その発話の要点を知るために重要な役割を果たす発話を含み、発話の分類又は段階の情報を用いて導かれる。本発明において、発話とは、複数人がオンライン(ビデオ会議)又はオフライン(面会)で会話を行う会議を含む。また、会議という名称のみならず、ミーティング或いは打合せと呼ばれるものも含む。また、会議には、互いにパーソナルコンピュータ(タブレット端末等を含む)を解して会話を行う場合の他、電話を用いた会話も含まれる。さらに、本発明において発話とは、一又は複数の発話者(講師等)がオンライン又はオフラインで話をする講演会又はプレゼンテーション等を含む。 In the present invention, a summary utterance is an utterance that includes matters related to the purpose or outcome of the utterance, and includes utterances that play an important role in understanding the main points of the utterance, and is a classification of utterances. or guided using step information. In the present invention, an utterance includes a conference where multiple people have a conversation online (video conference) or offline (face-to-face). In addition, it includes not only the name "conference" but also what is called "meeting" or "meeting". Further, the conference includes a conversation using a telephone as well as a case of having a conversation through a personal computer (including a tablet terminal, etc.). Furthermore, in the present invention, utterances include lectures, presentations, etc. in which one or more speakers (lecturers, etc.) speak online or offline.

本発明の発話情報資料化装置において、前記分類は、予算、権限、必要性、導入時期、競合、及びネクストアクションを含んでいる。これらの分類は、商談に関するものであり、それぞれ、費用に関する予算であり、商談の決裁者等に関係のある権限であり、商談における顧客側のニーズ等に関する必要性であり、商談における商材等の導入時期であり、事業を行う上での競合他社であり、次に何を行うかのネクストアクションである。発話にこのような分類に関する文言が含まれている場合、その発話は重要事項を含む発話であると認められる。また、このように発話を分類分けすることにより、その発話がどの分類において重要であるかを明らかにすることができる。 In the speech information documentation device of the present invention, the classification includes budget, authority, necessity, time of introduction, competition, and next action. These classifications are related to business negotiations, each of which is a budget related to expenses, authority related to the approver of business negotiations, needs related to customer needs, etc. in business negotiations, and products, etc. in business negotiations. It is the time to introduce the , the competitors in doing business, and the next action of what to do next. If an utterance contains wording related to such classification, the utterance is recognized as an utterance containing important matters. Moreover, by classifying the utterances in this way, it is possible to clarify in which classification the utterances are important.

本発明の発話情報資料化装置において、前記段階は、導入段階、説明段階、質疑応答段階、及びまとめ段階を含んでいる。本発明では、前記段階を、それぞれ、発話の導入に関する導入段階(アイスブレイクとも呼ばれる)、主に営業を行うユーザが行う説明段階、ユーザと顧客が話を進める質疑応答段階、及び発話をまとめるまとめ段階(クロージングとも呼ばれる)に分けることができる。このように段階を分けることにより、ある段階から他の段階へ移行するきっかけとなった発話には重要事項が含まれている可能性が高いことが予想される。また、その発話がどの段階において重要であるかを明らかにすることができる。 In the speech information documentation apparatus of the present invention, the steps include an introduction step, an explanation step, a question-and-answer step, and a summary step . In the present invention, the above stages are respectively divided into an introductory stage (also called ice-breaking) relating to the introduction of utterances, an explanation stage mainly carried out by sales users, a question-and-answer stage in which users and customers proceed to talk, and a summary of utterances. It can be divided into stages (also called closing). By dividing the stages in this way, it is expected that there is a high possibility that the utterance that triggered the transition from one stage to another contains important matters. In addition, it is possible to clarify at what stage the utterance is important.

本発明の発話情報資料化装置において、前記要約手段は、前記要約用発話を英訳すると共に英訳された発話を和訳し、和訳された発話を用いて前記要約文を作成してもよい。発話は話し言葉であり、日本語においては曖昧な表現が多い傾向にある。従って、発話を一度英訳し、曖昧さの少ない文章にした後、再度和訳を行うことにより、発話における曖昧な表現が削減され、短い文章とすることができる。 In the utterance information documentation apparatus of the present invention, the summarizing means may translate the utterance for summary into English, translate the English-translated utterance into Japanese, and create the summary sentence using the Japanese-translated utterance. Speech is spoken language, and Japanese tends to have many ambiguous expressions. Therefore, by translating the utterance into English once to make sentences with less ambiguity, and then translating into Japanese again, ambiguous expressions in the utterance can be reduced and sentences can be shortened.

本発明の発話情報資料化装置において、前記解析手段は、前記発話の前記分類又は前記段階に応じてポイントを付与して前記発話ごとに前記ポイントを集計し、前記ポイントの合計が高い前記要約用発話を一又は複数抽出するようにしてもよい。 In the utterance information documentation apparatus of the present invention, the analysis means assigns points according to the classification or the stage of the utterance, totals the points for each utterance, and collects the points for each utterance for summary. One or a plurality of utterances may be extracted.

また、本発明の発話情報資料化装置において、前記解析手段は、前記発話において、数値又は日付に関する情報を含む言語情報と、話者に関する情報である話者情報を認識し、前記発話における前記言語情報及び前記話者情報に応じてポイントを付与して前記発話ごとに前記ポイントを集計し、前記ポイントの合計が高い前記要約用発話を一又は複数抽出するようにしてもよい。 Further, in the utterance information documentation apparatus of the present invention, the analysis means recognizes linguistic information including information about numerical values or dates and speaker information, which is information about a speaker, in the utterance, and recognizes the language in the utterance. Points may be given according to the information and the speaker information, the points may be totaled for each of the utterances, and one or more of the summarization utterances with the highest total points may be extracted.

本発明の発話情報資料化装置によれば、各発話について、発話の分類又は段階、或いは言語情報又は話者情報に応じてポイントが付与され、ポイントの高い発話を抽出し、抽出された発話から要約文が形成されるので、要約文は発話にとって重要度が高い発話により形成される。従って、ユーザが要約文を読むことにより、発話における重要事項について把握することが容易となる。 According to the utterance information documentation device of the present invention, points are given to each utterance according to the classification or stage of the utterance, or the linguistic information or speaker information, and the utterances with high points are extracted, and from the extracted utterances Since a summary sentence is formed, the summary sentence is formed by utterances with high importance for the utterance. Therefore, by reading the summary sentence, the user can easily grasp important matters in the utterance.

本発明の発話情報資料化装置において、前記要約手段は、前記要約用発話の直前の発話、又は直後の発話の少なくとも一方又は双方について、前記要約用発話との関連の有無を判定し、関連ありと判定された発話を追加用発話としてもよい。当該処理により、要約用発話と関連のある発話を要約文に加えることができるので、より要約文の内容を充実させることができる。 In the utterance information documentation apparatus of the present invention, the summarizing means determines whether or not at least one or both of an utterance immediately before the utterance for summary and an utterance immediately after the utterance for summary are related to the utterance for summary. The utterance determined to be the additional utterance may be used as the additional utterance. By this processing, an utterance related to the utterance for summary can be added to the summary sentence, so that the content of the summary sentence can be further enriched.

このとき、前記解析手段は、前記発話情報から複数の発言者が行った複数の発話について、前記発話と前記発言者とを関連付けて記憶し、前記要約用発話と、前記直前の発話、又は前記直後の発話が、同一人物による発話であるときは、前記関連の有無は、隣接する前記発話に含まれる接続詞から、隣接する前記発話の関連性を判定するようにしてもよい。 At this time, the analysis means stores a plurality of utterances made by a plurality of speakers from the utterance information in association with the utterances and the speakers, and stores the summary utterance, the immediately preceding utterance, or the When the immediately following utterances are utterances by the same person, whether or not there is a relationship may be determined by judging the relevance of the adjacent utterances from conjunctions included in the adjacent utterances.

また、前記解析手段は、前記発話情報から複数の発言者が行った複数の発話について、前記発話と前記発言者とを関連付けて記憶し、前記要約用発話と、前記直前の発話、又は前記直後の発話が、異なる人物による発話であるときは、前記関連の有無は、隣接する前記発話の文言の類似性から、隣接する前記発話の関連性を判定するようにしてもよい。 Further, the analysis means stores a plurality of utterances made by a plurality of speakers from the utterance information in association with the utterances and the speakers, and stores the summary utterance and the immediately preceding utterance or the immediately following utterance. When the utterances are utterances by different persons, the presence or absence of the relationship may determine the relevance of the adjacent utterances from the similarity of the wording of the adjacent utterances.

本実施形態の発話情報資料化装置の概要を示す説明図。Explanatory drawing which shows the outline|summary of the speech information documentation apparatus of this embodiment. (A)及び(B)は発話情報資料化装置における準備画面を示す説明図。(A) and (B) are explanatory diagrams showing preparation screens in the speech information documentation device. 発話情報資料化装置における会議画面を示す説明図。Explanatory drawing which shows the conference screen in an utterance information documentation apparatus. 要約手段における要約文の作成時の作動を示す説明図。FIG. 4 is an explanatory diagram showing the operation of the summarizing means when creating a summary sentence; 資料化された会議の利用画面である一覧管理画面を示す説明図。FIG. 4 is an explanatory diagram showing a list management screen, which is a screen for using conferences documented.

次に、図1~図5を参照して、本発明の実施形態である発話情報資料化装置について、商談に関する会議を一例として説明する。本実施形態の発話情報資料化装置1は、図1に示すように、サーバ2内に記憶されたプログラム及びサーバ2のハードウエアにより構成される各機能部によって実現される装置であり、ネットワーク3を解してユーザ端末4に接続されている。また、ネットワーク3には、ユーザの顧客が使用する顧客端末5が接続されている。 Next, with reference to FIGS. 1 to 5, a speech information documentation apparatus according to an embodiment of the present invention will be described by taking a conference related to business negotiations as an example. As shown in FIG. 1, the utterance information documentation device 1 of the present embodiment is a device realized by each functional unit configured by a program stored in the server 2 and the hardware of the server 2. is connected to the user terminal 4 via the . A customer terminal 5 used by a customer of the user is also connected to the network 3 .

本実施形態の発話情報資料化装置1は、一例として、ユーザ端末4と顧客端末5との間で行われたビデオ会議の映像及び音声を収録し、収録された音声を解析して、複数の発話から重要な情報を抽出し、要約文を作成するものである。 As an example, the speech information documentation device 1 of the present embodiment records the video and audio of a video conference held between the user terminal 4 and the customer terminal 5, analyzes the recorded audio, It extracts important information from utterances and creates a summary sentence.

本実施形態の発話情報資料化装置1は、機能的構成として、サーバ2内に、会議における音声を含む発話情報を入手する入手手段11と、入手された発話情報を解析する解析手段12と、解析手段12の解析結果を基に発話情報の要約文35(図4(C)参照)を作成する要約手段13と、各種画面及び要約文35を表示させる表示手段14を備えている。発話情報には、会議における音声の他、映像、日時、出席者、及びユーザ端末4や顧客端末5の位置情報等の情報を含んでいてもよい。 The utterance information documentation device 1 of the present embodiment has, as a functional configuration, an acquisition means 11 for acquiring utterance information including speech in a meeting, an analysis means 12 for analyzing the acquired utterance information, and an analysis means 12 for analyzing the acquired utterance information. It comprises a summarizing means 13 for creating a summary 35 (see FIG. 4C) of utterance information based on the analysis result of the analyzing means 12, and a display means 14 for displaying various screens and the summary 35. FIG. The utterance information may include information such as video, date and time, attendees, and location information of the user terminal 4 and the customer terminal 5, in addition to the audio in the conference.

サーバ2は、CPU(中央演算処理装置)、ハードディスク、メモリ等の記憶手段、及び各種ネットワークとの接続手段等を備えたコンピュータシステム(いずれも図示省略)を備えており、ハードディスク内には、コンピュータを本実施形態の発話情報資料化装置1として実行するためのコンピュータプログラム等が記憶されている。このコンピュータプログラムは、CPUによって実行され、以下に説明する各種の処理が行われる。なお、コンピュータシステムには、いわゆるクラウドコンピューティングが含まれる。また、コンピュータプログラムは、サーバ2内に記憶されたプログラムのみならず、API(Application Programming Interface)連携を利用したプログラムも含む概念である。 The server 2 includes a computer system (not shown) including a CPU (Central Processing Unit), hard disk, storage means such as memory, and means for connecting to various networks. is stored as the speech information documentation device 1 of the present embodiment. This computer program is executed by the CPU, and various processes described below are performed. The computer system includes so-called cloud computing. A computer program is a concept that includes not only programs stored in the server 2 but also programs using API (Application Programming Interface) linkage.

解析手段12は、発話情報を解析する機能部である。具体的には、発話情報から複数の発言者が行った複数の発話を抽出し、発話と発言者とを関連付けて記憶する。発言者は、ユーザである営業担当者と、ユーザの顧客が含まれる。ユーザ及び顧客は、それぞれ一人の場合もあり、複数人の場合もある。 The analysis means 12 is a functional unit that analyzes speech information. Specifically, a plurality of utterances made by a plurality of speakers are extracted from the utterance information, and the utterances and the speakers are stored in association with each other. Speakers include the salesperson who is the user and the customer of the user. There may be one user and one customer each, or there may be multiple users.

また、解析手段12は、発話が会議の内容におけるどの分類に属するかの分類分けを行う。具体的には、複数の発話について、予算、権限、必要性、導入時期、競合、及びネクストアクションに関する文言が含まれる場合、その発話にこれらの予算等の分類を付すことにより行う。 In addition, the analysis means 12 classifies the speech to which class it belongs in the content of the conference. Specifically, when multiple utterances include words related to budget, authority, necessity, time of introduction, competition, and next action, the utterances are classified by these budgets and the like.

予算は、費用や投資額等の金額に関係がある文言を有する発話が該当する。権限は、その会議において予算執行や導入時期等を決定する決定権等に関する文言を有する発話が該当する。必要性は、その会議における顧客のニーズを中心とした文言を有する発話が該当する。導入時期は、会議における商材等の導入時期を含む文言を有する発話が該当する。競合は、ユーザ及び顧客の所属する会社以外の会社名や、コンペティター等の競合に関する文言を含む発話が該当する。ネクストアクションは、処置や実行等の会議後に行われる行動に関する文言を含む発話が該当する。 A budget corresponds to an utterance having a wording related to an amount such as an expense or an investment amount. The authority corresponds to an utterance having wording related to the decision-making power to decide budget execution, introduction timing, etc. at the meeting. A need corresponds to an utterance having wording centered on the customer's needs at the meeting. The time of introduction corresponds to an utterance having a phrase including the time of introduction of a product or the like in a meeting. A competition corresponds to an utterance including the name of a company other than the company to which the user or customer belongs, or words related to competition such as a competitor. The next action corresponds to an utterance containing words related to action to be taken after the meeting, such as treatment or execution.

また、解析手段12は、発話が会議における進捗状況の複数の段階のどの段階に該当するかを特定する。段階としては、導入段階、説明段階、質疑応答段階、及びまとめ段階が含まれる。 In addition, the analysis unit 12 identifies which of the stages of progress in the conference the utterance corresponds to. The stages include an introduction stage, an explanation stage, a Q&A stage, and a summary stage.

導入段階は、会議の前半に行われる挨拶や自己紹介等を行っている段階である。説明段階は、主にユーザが自社の商品或いはサービスの説明を行い、主にユーザの発話が連続して行われる段階である。この説明段階は、導入段階の後の段階で行われることが多い。質疑応答段階は、ユーザによる発話と顧客による発話が交互に行われている段階であり、説明段階の後の段階で行われることが多い。また、質疑応答段階は、ユーザ及び顧客の双方から疑問文が発せられることが多いのも特徴である。まとめ段階は、商談の決定等、会議におけるまとめに関する段階であり、会議の後半で行われることが多い。 The introductory stage is the stage in which greetings and self-introductions are performed in the first half of the meeting. The explanation stage is a stage in which the user mainly explains the company's products or services, and the user's utterances are mainly performed continuously. This explanation step is often done after the introduction step. The question-and-answer stage is a stage in which utterances by the user and utterances by the customer are alternately performed, and is often performed after the explanation stage. In addition, the Q&A stage is characterized in that both the user and the customer often ask questions. The closing stage is a stage related to the closing of the meeting, such as deciding on business negotiations, and is often held in the second half of the meeting.

要約手段13は、解析手段12によって抽出された要約用発話32を用いて要約文35を形成し、表示手段14によりユーザ端末4に要約文35を表示可能とする機能部である。表示手段14は、ユーザ端末4等に、図2に示す準備画面21等の各種画面や、要約文35等を表示させることができる。 The summarizing means 13 is a functional unit that forms a summary sentence 35 using the summary utterances 32 extracted by the analyzing means 12 and enables the display means 14 to display the summary sentence 35 on the user terminal 4 . The display unit 14 can display various screens such as the preparation screen 21 shown in FIG.

ネットワーク3は、インターネットに代表される通信網であり、電話回線等も含む概念である。ユーザ端末4及び顧客端末5は、パーソナルコンピュータ等のように画面表示が可能であればよく、デスクトップ型のコンピュータ、ノートブック型のコンピュータ、タブレット端末、或いはスマートフォン等のような端末であってもよい。 The network 3 is a communication network represented by the Internet, and is a concept including telephone lines and the like. The user terminal 4 and the customer terminal 5 may be a personal computer or the like as long as it can display a screen, and may be a terminal such as a desktop computer, a notebook computer, a tablet terminal, or a smartphone. .

次に、本実施形態の発話情報資料化装置1によって会議における発話の資料化を行う方法について説明する。本実施形態における会議は、ユーザが商品又はサービスの提供を顧客に対して行う企業の営業担当者であり、顧客に対してビデオ会議で商談を行う場合の会議を例として説明する。 Next, a method of documenting utterances in a conference by means of the utterance information documenting device 1 of the present embodiment will be described. The conference in the present embodiment will be described as an example where the user is a sales representative of a company that provides products or services to customers and conducts business negotiations with the customers via video conference.

まず、ユーザは、顧客との会議の前に、図2に示す準備画面21を用いて準備作業を行う。準備作業は、一例として、図2(A)に示す準備画面21において、ビデオ会議の設定、会議のタイトルの入力、会議の日時の入力、顧客の会社名の入力の他、会議の参加者の情報を入力する。 First, the user performs preparation work using the preparation screen 21 shown in FIG. 2 before the meeting with the customer. As an example of the preparation work, on the preparation screen 21 shown in FIG. Enter your information.

また、図2(B)に示す第2準備画面22において、会議の目的と、顧客に確認すべき事項を入力することができる。会議の目的は、会議において心がけておくべき内容や、資料化した際に目的別検索を行うことを考慮して入力する。この入力は、入力欄に直接入力してもよく、入力欄をクリックすることにより表示されるポップアップメニューから選択するようにしてもよい。 Also, on the second preparation screen 22 shown in FIG. 2B, the purpose of the meeting and items to be confirmed with the customer can be input. The purpose of the meeting is entered in consideration of the content to be kept in mind at the meeting and the possibility of searching by purpose when documenting. This input may be directly entered in the input field, or may be selected from a pop-up menu displayed by clicking the input field.

次に、実際の会議において、ユーザ端末4に表示される画面について、図3を参照して説明する。ユーザ端末4に表示される会議画面23は、左上部の情報表示欄24に、会議のタイトル、日時、顧客情報、ユーザ名、及び顧客の担当者名等が表示される。 Next, screens displayed on the user terminal 4 in an actual conference will be described with reference to FIG. On the conference screen 23 displayed on the user terminal 4, the title of the conference, the date and time, customer information, the user name, the name of the person in charge of the customer, etc. are displayed in the information display column 24 at the upper left.

図3では、一例として、参加者が4名である場合の顔表示画面25と、会議における発話の音声を文字情報に書き起こした会話文を表示させる会話文表示画面26と、会議の目的を表示する目的画面27と、会議で確認すべき事項を記載した確認事項画面28と、会議において重要と思われる発話を表示するハイライト表示29が表示された画面を示している。 In FIG. 3, as an example, a face display screen 25 when there are four participants, a conversation sentence display screen 26 for displaying conversation sentences in which voices spoken in the conference are transcribed into character information, and a conference purpose are shown. A purpose screen 27 to be displayed, a confirmation item screen 28 describing items to be confirmed in the conference, and a screen on which a highlight display 29 displaying utterances considered to be important in the conference are displayed.

顔表示画面25では、会議における各担当者の表情をリアルタイムで表示させることができ、同時に音声の録音と映像の録画も行われている。会話文表示画面26では、ユーザ及び顧客が発言を行う度にその発言内容が発話31として文字情報となって表示される。表示される文字情報には、発言を行った時刻が表示され、発話31を行った発言者の情報が関連付けられてサーバ2に記憶される。 On the face display screen 25, facial expressions of each person in charge in the conference can be displayed in real time, and voice recording and video recording are also performed at the same time. On the dialogue display screen 26, every time a user or a customer makes a statement, the content of the statement is displayed as character information as an utterance 31. FIG. The displayed character information displays the time when the speech was made, and is stored in the server 2 in association with the information of the speaker who made the speech 31 .

目的画面27は、準備画面21において入力された会議の目的等の項目が表示される。このように、会議中にその会議の目的を画面上に表示させておくことで、ユーザは、会議の内容を本筋からそらすことなく進めることができる。 The purpose screen 27 displays the items such as the purpose of the meeting input on the preparation screen 21 . In this way, by displaying the purpose of the meeting on the screen during the meeting, the user can proceed without deviating from the main topic of the meeting.

確認事項画面28は、例えば、図3に示すように、ニーズ28a、競合28b、及び決裁者28cに関する内容等を表示させる。ニーズ28aには、今回の会議を行うに至った背景や課題等を問い合わせる質問や、今回の会議で話し合う商談のオペレーション、或いは、顧客の担当者の役割等を問い合わせる質問等が含まれる。 For example, as shown in FIG. 3, the confirmation item screen 28 displays the contents of a need 28a, a competition 28b, and an authorizer 28c. The needs 28a include questions about the background and issues leading up to the current meeting, questions about the operation of negotiations to be discussed in the current meeting, and questions about the role of the person in charge of the customer.

競合28bには、顧客が他社のツール(他社製品)の導入を検討しているか否かの質問や、他社のツールと自社のツールとの比較点等を問い合わせる質問が含まれる。決裁者28cには、今回の会議の商談を決定する権限を有する決裁者を問い合わせる質問等が含まれる。その他、確認事項画面28では、会議における分類に関する質問として、予算、導入時期、又はネクストアクションに関する質問を表示させることができる。 The competition 28b includes a question as to whether or not the customer is considering introducing another company's tool (other company's product), a question inquiring about points of comparison between the other company's tool and the company's own tool, and the like. The approver 28c includes a question or the like for inquiring about the approver who has the authority to decide the business negotiations of this conference. In addition, on the confirmation item screen 28, questions regarding the budget, introduction timing, or next action can be displayed as questions regarding classification in the meeting.

ハイライト表示29は、例えばニーズ28aに関する顧客の回答で、会議における重要事項を含むと判定された発話31aを表示させることができる。 Highlighting 29 may display utterances 31a that are determined to include important matters in the meeting, for example, the customer's response to need 28a.

実際に会議を行う際には、会議画面23に上記各表示を行いながら、ユーザと顧客との間で話を進める。会議が終了すると、サーバ2は、入手手段11によって、ユーザ端末4において取得された会議の音声を含む発話情報を入手して、サーバ2内の記憶手段に記憶する。 When actually holding a meeting, the user and the customer proceed to talk while the above displays are made on the meeting screen 23 . When the conference ends, the server 2 obtains the speech information including the voice of the conference obtained by the user terminal 4 by the obtaining means 11 and stores it in the storage means within the server 2 .

次に、解析手段12は、発話情報の音声データから、ユーザや顧客の複数の発話を抽出する。発話の抽出処理は、発言者の音声の周波数に基づいてどの話者がどの発言を行ったかで切り分ける方法、又は、無音区間を区切りとして切り分ける方法等、公知の方法を用いて行う。 Next, the analysis means 12 extracts a plurality of utterances of the user or the customer from the voice data of the utterance information. The utterance extraction process is performed using a known method such as a method of separating which speaker made which utterance based on the frequency of the voice of the speaker, or a method of separating with silent intervals as delimiters.

また、解析手段12は、複数の発話が、会議の内容におけるどの分類に属するかの分類分けを行う。分類としては、上述の予算、権限、必要性、導入時期、競合、及びネクストアクションが挙げられる。この分類分けは、各発話の音声から、各分類に特有の文言(キーワード)が含まれているかどうかを判断して行う。例えば、発話の中に「○○円」という表現が含まれていた場合、その文言を含む発話は予算に関する発話であると判断する。 In addition, the analysis means 12 classifies which category the plurality of utterances belong to in the content of the conference. Classifications include budget, authority, necessity, time of introduction, competition, and next action as described above. This classification is performed by judging from the voice of each utterance whether or not words (keywords) peculiar to each classification are included. For example, if the utterance includes the expression "○○ yen", it is determined that the utterance including that phrase is the utterance about the budget.

また、解析手段12は、複数の発話が会議の進捗状況のどの段階で発せられたものかを特定する。段階としては、上述の導入段階、説明段階、質疑応答段階、及びまとめ段階が挙げられる。この段階の特定は、各発話の音声が誰の音声であるか等、話者の情報も使用して行われる。 In addition, the analysis unit 12 identifies at what stage of the progress of the conference the plurality of utterances were uttered. The stages include the introduction stage, explanation stage, question-and-answer stage, and summary stage described above. Identification at this stage is also done using speaker information, such as whose voice each utterance is.

例えば、会議において、数値などの固有表現が繰り返し使用されているときは、商品の具体的な話をしていることが予想されるため、説明段階、或いは質疑応答段階であると特定される。また、その際、ユーザによる発話が連続して行われているときは、説明段階であると特定される。また、会議の中盤で、ユーザと顧客との会話のやりとりが行われているときは、質疑応答段階であると特定される。 For example, when specific expressions such as numerical values are used repeatedly in a meeting, it is assumed that the discussion is about specific products, so it is identified as being in the explanation stage or question-and-answer stage. Also, at that time, when the user continues to speak, it is identified as being in the explanation stage. Also, when the user and the customer are having conversations in the middle of the meeting, it is identified as the question-and-answer stage.

次に、解析手段12は、複数の発話の中から要約用発話32を抽出する。要約用発話32とは、その会議における目的、又は成果等に関連性がある事項を含む発話であり、その会議の要点を知るために重要な役割を果たす発話である。 Next, the analysis means 12 extracts a summary utterance 32 from among the multiple utterances. The summary utterances 32 are utterances that include items related to the purpose or results of the meeting, and play an important role in understanding the main points of the meeting.

本実施形態の発話情報資料化装置1においては、要約用発話32の抽出は以下のように行われる。まず、複数の発話に含まれる文言について、予算、権限等のいずれかの分類が付されている場合は文言ごとに分類ポイントを付与する。また、複数の発話について、段階の切り替わり、例えば、説明段階から質疑応答段階に切り替わったときの説明段階の最後の発話と、質疑応答段階の最初の発話にそれぞれ段階ポイントを付与する。 In the utterance information documentation device 1 of the present embodiment, the abstract utterance 32 is extracted as follows. First, when wordings included in a plurality of utterances are classified into any one of budget, authority, etc., classification points are given to each wording. Also, for a plurality of utterances, stage points are given to each of the stage switching, for example, the last utterance in the explanation stage when switching from the explanation stage to the question and answer stage and the first utterance in the question and answer stage.

解析手段12は、上述のように各発話にポイント付けを行い、集計を行った複数の発話の中から、ポイントの合計が高い発話を上位から所定数抽出する。この抽出数は、要約文の用途等に応じて適宜選択することができ、一又は複数抽出することができる。一般に、1時間程度の会議においては、その会議の重要事項を知るために10~30程度の抽出数とすることができる。一方で、その会議の重要事項を知るために、抽出数を1つに絞ることも可能である。 The analysis means 12 assigns points to each utterance as described above, and extracts a predetermined number of utterances with the highest total points from among the aggregated utterances. The number of extractions can be appropriately selected according to the purpose of the abstract, and one or more can be extracted. In general, in a meeting of about one hour, the number of extractions can be set to about 10 to 30 in order to know the important matters of the meeting. On the other hand, it is also possible to narrow down the number of extractions to one in order to know the important matters of the meeting.

また、本実施形態の発話情報資料化装置1において、各発話にポイント付けをする際に、各発話において数値や日付を含む言語情報に言語ポイントを付与してもよい。発話において、具体的な数値が含まれていれば、その発話は重要な発話である可能性が高い。また、日付についても同様である。この言語情報は、数値及び日付の他に、製品名や企業名等、その会議における重要事項が含まれる。 In addition, in the utterance information documentation device 1 of the present embodiment, when giving points to each utterance, language points may be given to linguistic information including numerical values and dates in each utterance. If a specific numerical value is included in an utterance, it is highly likely that the utterance is an important utterance. The same applies to dates. This linguistic information includes not only numerical values and dates, but also important matters in the meeting, such as product names and company names.

また、本実施形態の発話情報資料化装置1において、各発話にポイント付けをする際に、各発話において、話者に応じてポイントを付与する話者ポイントを設けてもよい。話者は、ユーザ、及び顧客が主要な話者であるが、ユーザ側の上司や、顧客側の上司等が会議に参加する場合がある。 Further, in the utterance information documentation device 1 of the present embodiment, when giving points to each utterance, in each utterance, speaker points may be provided for giving points according to the speaker. Users and customers are the main speakers, but there are cases where the user's boss, the customer's boss, or the like participates in the conference.

上記分類ポイント、段階ポイント、言語ポイント、及び話者ポイントは、それぞれ任意の点数とすることができ、例えば、分類ポイント及び段階ポイントは1ポイントとする。話者ポイントは、ユーザの発話の場合は0ポイント、顧客の発話の場合は2ポイント、ユーザ側の上司の場合は1ポイント、顧客側の上司の場合は3ポイントというように、各ポイントに重み付けを付与するようにしてもよい。同様に、言語ポイントにおいては、数値や日付が1ポイント、製品名等の固有名詞が2ポイントというように、ポイントを付与してもよい。 The classification points, grade points, language points, and speaker points can each be arbitrary points, and for example, the classification points and grade points are 1 point. Speaker points are weighted to each point, such as 0 points for user's utterance, 2 points for customer's utterance, 1 point for user's boss, and 3 points for customer's boss. may be given. Similarly, language points may be given such that one point is given to numerical values and dates, and two points are given to proper nouns such as product names.

このように、会議において重要度の高い要約用発話32が所定数抽出されると、要約手段13によって要約文35の作成が行われる。まず、ポイントの高い要約用発話32について、その前後の発話との関連の有無を判定する。 In this way, when a predetermined number of summary utterances 32 of high importance are extracted in the meeting, the summary section 13 creates a summary sentence 35 . First, it is determined whether or not the summary utterance 32 with a high score is related to the utterances before and after it.

例えば、図4(A)に示すように、抽出された要約用発話32とその直前の発話33について、発言者が同一人物の場合、文章に含まれる接続詞を解析し、隣接する発話が接続詞から連続した発話であると判定された場合、それらの発話は関連有りと判定することができる。要約用発話32とその直後の発話34についても同様である For example, as shown in FIG. 4A, if the speaker of the extracted summary utterance 32 and the immediately preceding utterance 33 are the same person, the conjunctions included in the sentences are analyzed, and the adjacent utterances are extracted from the conjunctions . If the utterances are determined to be consecutive utterances, the utterances may be determined to be related. The same applies to the summary utterance 32 and the utterance 34 immediately following it .

発言者が同一人物の場合に、接続詞を用いて判定するのは、同一人物の発話が連続している場合は、高い確率で同様の内容についての発話であることが予想されるが、接続詞が「しかし」等であれば、その発話は前後の発話と異なる内容であることが予想されるためである。 When the speaker is the same person, the judgment is made using the conjunction . This is because, if the utterance is "but" or the like, it is expected that the utterance has a different content from the preceding and following utterances.

一方で、図4(B)に示すように、要約用発話32とその直前の発話33について、発言者が異なる人物の場合、これらの発話の類似性を判定し、所定の閾値以上の類似性がある場合にそれらの発話は関連ありとすることができる。要約用発話32とその直後の発話34についても同様である。この類似性の判定は、例えば、各発話に言語学的に語彙の共通度が高い文言が含まれている場合、類似度が高いと判定することができる。 On the other hand, as shown in FIG. 4B, if the summary utterance 32 and the utterance 33 immediately preceding it are different people, the similarity between these utterances is determined, and if the similarity is equal to or greater than a predetermined threshold, Those utterances can be relevant if there is The same applies to the summary utterance 32 and the utterance 34 immediately following it. For this similarity determination, for example, when each utterance includes a phrase with a high degree of common vocabulary linguistically, it can be determined that the degree of similarity is high.

このように、発言者が異なる人物の場合は、接続詞が介在する可能性が低いため、内容的に類似するか否かを判定している。この場合の判定は、言語学における語彙の共通度等の公知の判断基準を用いて、共通度の任意の閾値で類似しているか否かを判定すればよい。 In this way, when the speakers are different persons, it is unlikely that a conjunction will intervene, so it is determined whether or not the content is similar. In this case, it is sufficient to determine whether or not there is similarity with an arbitrary threshold of the degree of commonality, using known judgment criteria such as the degree of commonality of vocabulary in linguistics.

本実施形態では、要約手段13が重要事項を含む発話を要約用発話として抽出し、その要約用発話の前後の発話について関連する発話を追加用発話として抽出し、これらの要約用発話と追加用発話を用いて要約文を作成している。 In this embodiment, the summarizing means 13 extracts an utterance containing important matters as an utterance for summarization, extracts utterances related to the utterances before and after the utterance for summarization as utterances for addition, and extracts these utterances for summary and the utterance for addition. A summary sentence is created using the utterance.

要約文35の作成は、図4(C)に示すように、要約用発話32の前後の発話を含めて抽出された発話32,33について、短い文章に変換することにより行う。このとき、発話内の文言について、話し言葉を書き言葉に変換することにより行い、話し言葉における余分な文章(図4(C)における点線部分)を削除してもよい。また、この変換は、ディープラーニングを行ったモデルを用いて行ってもよい。 As shown in FIG. 4C, the summary sentence 35 is created by converting the extracted utterances 32 and 33 including the utterances before and after the summary utterance 32 into short sentences. At this time, the sentences in the utterance may be converted from spoken words to written words, and redundant sentences (dotted lines in FIG. 4(C)) in the spoken words may be deleted. Alternatively, this conversion may be performed using a deep-learned model.

また、抽出された発話32,33について、短い文章に変換する際には、発話32,33を英訳し、英訳された発話をさらに和訳するいわゆる二重翻訳を行ってもよい。発話32,33は話し言葉により構成されており、日本語においては曖昧な表現が多い傾向にある。日本語の発話を英訳する場合、翻訳エンジンが日本語の曖昧な表現を考慮してシンプルな英文にするので、英訳後の発話は短くなることが多い。従って、この短くなった英文をさらに和訳することにより、曖昧な表現が削除されたシンプルな短い文章に変換することができる。 Moreover, when converting the extracted utterances 32 and 33 into short sentences, so-called double translation may be performed in which the utterances 32 and 33 are translated into English and the English-translated utterances are further translated into Japanese. The utterances 32 and 33 are composed of spoken words, and Japanese tends to have many ambiguous expressions. When translating a Japanese utterance into English, the translation engine converts the utterance into simple English in consideration of ambiguous expressions in Japanese, so the utterance after English translation is often short. Therefore, by further translating this shortened English sentence into Japanese, it is possible to convert it into a simple short sentence in which ambiguous expressions are deleted.

このようにして作成された要約文35は、会議の重要事項を含む文としてその会議に関連付けられてサーバ2に保存され、図5に示す一覧管理画面41によって閲覧が可能となる。図5において、ステータス欄42でビデオアイコン43が有効になっているものは、その会異議の動画が閲覧可能である。また、ステータス欄42で、書類アイコン44が有効になっているものは、要約文35の閲覧が可能である。 The summary sentence 35 created in this way is stored in the server 2 as a sentence containing important matters of the meeting in association with the meeting, and can be viewed on the list management screen 41 shown in FIG. In FIG. 5, when the video icon 43 is enabled in the status column 42, the video of the meeting objection can be browsed. In addition, in the status column 42, when the document icon 44 is valid, the abstract 35 can be browsed.

この一覧管理画面41を、ユーザが所属する企業内で閲覧可能とすることで、その企業内において、商談に関する重要な情報を共有することができる。例えば、会議を行った担当者が優秀な営業担当である場合は、その優秀な営業担当の発話のうち、解析手段12によって重要な発話が抽出され、重要な発話が要約手段13によって読みやすい文章となっているため、経験の浅い営業担当者がその要約文35を閲覧することで、高い学習効果を得ることができる。 By enabling this list management screen 41 to be browsed within the company to which the user belongs, it is possible to share important information regarding business negotiations within the company. For example, if the person in charge of the meeting is an excellent salesperson, the analysis means 12 extracts important utterances from the excellent salesperson's utterances, and the summary means 13 extracts the important utterances as easy-to-read sentences. Therefore, an inexperienced salesperson can obtain a high learning effect by browsing the summary sentence 35 .

なお、上記実施形態においては、解析手段12によって、発話を分類分けし、且つ段階の特定を行っているが、これに限らず、分類分けのみで抽出を行ってもよく、段階の特定のみで抽出を行ってもよい。 In the above-described embodiment, the analysis means 12 classifies the utterances and specifies the stage. Extraction may be performed.

また、上記実施形態では、分類について、予算、権限、必要性、導入時期、競合、及びネクストアクションを例にして説明したが、これに限らず、製品の性能、サービスの形態等、他の項目を分類としてもよい。同様に、段階について、導入段階、説明段階、質疑応答段階、及びまとめ段階を例にして説明したが、これに限らず、顧客要望聴取段階等、他の段階を設けてもよい。 In addition, in the above-described embodiment, classification was explained by taking budget, authority, necessity, time of introduction, competition, and next action as examples, but not limited to these, other items such as product performance, service form, etc. can be classified. Similarly, although the stages are described as an introduction stage, an explanation stage, a question-and-answer stage, and a summary stage, other stages such as a customer request listening stage may be provided.

また、上記実施形態では、段階ポイントとして、段階の切り替わりを目安にポイントを付与しているが、これに限らず、各段階にそれぞれ予めポイントを定めておき、その段階であると判定された発話については、当該ポイントを付与するようにしてもよい。 In the above-described embodiment, as the stage points, points are given based on the switching of stages as a guide, but this is not limiting, and points are set in advance for each stage, and the utterance determined to be at that stage , the points may be given.

また、上記実施形態では、発話について、会議を一例として説明したが、これに限らず、一又は複数の話者が聴衆に対して話を行う講演会やプレゼンテーションにも適用することが可能である。この場合、分類としては、講演会であれば講義を行う内容に関する分類訳を行えばよい。また、段階としては、上記実施形態と同様に、導入段階、説明段階、まとめ段階とすればよく、質疑応答があれば質疑応答段階を追加すればよい。 Further, in the above-described embodiment, the utterance is explained by taking a meeting as an example, but it is not limited to this, and can be applied to lectures and presentations in which one or more speakers speak to an audience. . In this case, as for the classification, if it is a lecture meeting, the contents of the lecture may be classified and translated. As for the stages, similar to the above embodiment, the introduction stage, the explanation stage, and the summary stage may be used.

1…発話情報資料化装置
2…サーバ
3…ネットワーク
4…ユーザ端末
5…顧客端末
11…入手手段
12…解析手段
13…要約手段
14…表示手段
21…準備画面
22…第2準備画面
23…会議画面
24…情報表示欄
25…顔表示画面
26…会話文表示画面
27…目的画面
28…確認事項画面
29…ハイライト表示
31…発話
32…要約用発話
35…要約文
41…一覧管理画面

1 Speech information documentation device 2 Server 3 Network 4 User terminal 5 Customer terminal 11 Acquisition means 12 Analysis means 13 Summary means 14 Display means 21 Preparation screen 22 Second preparation screen 23 Conference Screen 24... Information display column 25... Face display screen 26... Conversation sentence display screen 27... Purpose screen 28... Confirmation item screen 29... Highlight display 31... Utterance 32... Utterance for summary 35... Summary sentence 41... List management screen

Claims (7)

一以上の発話を資料化する装置であって、
発話情報を入手する入手手段と、
前記発話情報を解析する解析手段と、
前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、
少なくとも前記要約文を表示させる表示手段とを備え、
前記解析手段は、
前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、及び、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、
前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、
前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とし、
前記分類は、予算、権限、必要性、導入時期、競合、及びネクストアクションを含み、
前記段階は、導入段階、説明段階、質疑応答段階、及びまとめ段階を含むことを特徴とする発話情報資料化装置。
A device for documenting one or more utterances,
an acquisition means for acquiring utterance information;
analysis means for analyzing the speech information;
summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analyzing means;
Display means for displaying at least the summary,
The analysis means is
Identifying which category the utterance belongs to among a plurality of preset categories, and identifying which stage the utterance belongs to among a plurality of stages of progress,
Extracting a summary utterance from among the plurality of utterances using at least one information of the classification or the stage;
The summarizing means creates a summary sentence including the summary utterance, and enables the display means to display the summary sentence,
The categories include budget, authority, necessity, time of introduction, competition, and next action;
A speech information documentation apparatus , wherein the steps include an introduction step, an explanation step, a question-and-answer step, and a summary step .
一以上の発話を資料化する装置であって、
発話情報を入手する入手手段と、
前記発話情報を解析する解析手段と、
前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、
少なくとも前記要約文を表示させる表示手段とを備え、
前記解析手段は、
前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、又は、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、
前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、
前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とし、
前記要約手段は、前記要約用発話を英訳すると共に英訳された発話を和訳し、和訳された発話を用いて前記要約文を作成することを特徴とする発話情報資料化装置。
A device for documenting one or more utterances,
an acquisition means for acquiring utterance information;
analysis means for analyzing the speech information;
summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analyzing means;
Display means for displaying at least the summary,
The analysis means is
Identifying which category the utterance belongs to among a plurality of preset categories, or identifying which stage the utterance belongs to among a plurality of stages of progress,
Extracting a summary utterance from among the plurality of utterances using at least one information of the classification or the stage;
The summarizing means creates a summary sentence including the summary utterance, and enables the display means to display the summary sentence,
An utterance information documenting apparatus, wherein the summarizing means translates the utterance for summary into English, translates the English translated utterance into Japanese, and creates the summary sentence using the Japanese-translated utterance.
一以上の発話を資料化する装置であって、
発話情報を入手する入手手段と、
前記発話情報を解析する解析手段と、
前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、
少なくとも前記要約文を表示させる表示手段とを備え、
前記解析手段は、
前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、又は、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、
前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、
前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とし、
前記解析手段は、前記発話において、数値又は日付に関する情報を含む言語情報と、話者に関する情報である話者情報を認識し、
前記発話における前記言語情報及び前記話者情報に応じてポイントを付与して前記発話ごとに前記ポイントを集計し、
前記ポイントの合計が高い前記要約用発話を一又は複数抽出すること特徴とする発話情報資料化装置。
A device for documenting one or more utterances,
an acquisition means for acquiring utterance information;
analysis means for analyzing the speech information;
summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analyzing means;
Display means for displaying at least the summary,
The analysis means is
Identifying which category the utterance belongs to among a plurality of preset categories, or identifying which stage the utterance belongs to among a plurality of stages of progress,
Extracting a summary utterance from among the plurality of utterances using at least one information of the classification or the stage;
The summarizing means creates a summary sentence including the summary utterance, and enables the display means to display the summary sentence,
The analysis means recognizes, in the utterance, linguistic information including information about numerical values or dates, and speaker information that is information about a speaker,
giving points according to the linguistic information and the speaker information in the utterance, and totaling the points for each utterance;
An utterance information documentation device, characterized by extracting one or more of the utterances for summarization having a high total point.
請求項に記載の発話情報資料化装置であって、
前記要約手段は、前記要約用発話の直前の発話、又は直後の発話の少なくとも一方又は双方について、前記要約用発話との関連の有無を判定し、関連ありと判定された発話を追加用発話とし、
前記解析手段は、前記発話情報から複数の発言者が行った複数の発話について、前記発話と前記発言者とを関連付けて記憶し、
前記要約用発話と、前記直前の発話、又は前記直後の発話が、同一人物による発話であるときは、前記関連の有無は、隣接する前記発話に含まれる接続詞から、隣接する前記発話の関連性を判定することを特徴とする発話情報資料化装置。
The speech information documentation device according to claim 3 ,
The summarizing means determines whether or not at least one or both of an utterance immediately before the utterance for summary and an utterance immediately after the utterance for summary are related to the utterance for summary, and the utterance determined to be related is taken as an additional utterance. ,
The analysis means stores a plurality of utterances made by a plurality of speakers from the utterance information in association with the utterances and the speakers;
When the summary utterance and the utterance immediately before or the utterance immediately after are utterances by the same person, the presence or absence of the relationship is determined from the conjunctions included in the adjacent utterances, and the relevance of the adjacent utterances. An utterance information documentation device characterized by determining
一以上の発話を資料化する装置であって、
発話情報を入手する入手手段と、
前記発話情報を解析する解析手段と、
前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、
少なくとも前記要約文を表示させる表示手段とを備え、
前記解析手段は、
前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、又は、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、
前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、
前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とし、
前記発話の前記分類又は前記段階に応じてポイントを付与して前記発話ごとに前記ポイントを集計し、
前記ポイントの合計が高い前記要約用発話を一又は複数抽出し、
前記要約用発話の直前の発話、又は直後の発話の少なくとも一方又は双方について、前記要約用発話との関連の有無を判定し、関連ありと判定された発話を追加用発話とし、
前記解析手段は、前記発話情報から複数の発言者が行った複数の発話について、前記発話と前記発言者とを関連付けて記憶し、
前記要約用発話と、前記直前の発話、又は前記直後の発話が、同一人物による発話であるときは、前記関連の有無は、隣接する前記発話に含まれる接続詞から、隣接する前記発話の関連性を判定することを特徴とする発話情報資料化装置。
A device for documenting one or more utterances,
an acquisition means for acquiring utterance information;
analysis means for analyzing the speech information;
summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analyzing means;
Display means for displaying at least the summary,
The analysis means is
Identifying which category the utterance belongs to among a plurality of preset categories, or identifying which stage the utterance belongs to among a plurality of stages of progress,
Extracting a summary utterance from among the plurality of utterances using at least one information of the classification or the stage;
The summarizing means creates a summary sentence including the summary utterance, and enables the display means to display the summary sentence,
giving points according to the classification or stage of the utterance and totaling the points for each utterance;
extracting one or more of the summarizing utterances with a high total point;
Determining whether or not at least one or both of the utterance immediately before the summary utterance and the utterance immediately after the summary utterance are related to the summary utterance, and the utterance determined to be related is used as an additional utterance,
The analysis means stores a plurality of utterances made by a plurality of speakers from the utterance information in association with the utterances and the speakers;
When the summary utterance and the utterance immediately before or the utterance immediately after are utterances by the same person, the presence or absence of the relationship is determined from the conjunctions included in the adjacent utterances, and the relevance of the adjacent utterances. An utterance information documentation device characterized by determining
一以上の発話を資料化する装置であって、
発話情報を入手する入手手段と、
前記発話情報を解析する解析手段と、
前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、
少なくとも前記要約文を表示させる表示手段とを備え、
前記解析手段は、
前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、又は、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、
前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、
前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とし、
前記解析手段は、前記発話の前記分類又は前記段階に応じてポイントを付与して前記発話ごとに前記ポイントを集計し、
前記ポイントの合計が高い前記要約用発話を一又は複数抽出し、
前記要約手段は、前記要約用発話の直前の発話、又は直後の発話の少なくとも一方又は双方について、前記要約用発話との関連の有無を判定し、関連ありと判定された発話を追加用発話とし、
前記解析手段は、前記発話情報から複数の発言者が行った複数の発話について、前記発話と前記発言者とを関連付けて記憶し、
前記要約用発話と、前記直前の発話、又は前記直後の発話が、異なる人物による発話であるときは、前記関連の有無は、隣接する前記発話の文言の類似性から、隣接する前記発話の関連性を判定することを特徴とする発話情報資料化装置。
A device for documenting one or more utterances,
an acquisition means for acquiring utterance information;
analysis means for analyzing the speech information;
summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analyzing means;
Display means for displaying at least the summary,
The analysis means is
Identifying which category the utterance belongs to among a plurality of preset categories, or identifying which stage the utterance belongs to among a plurality of stages of progress,
Extracting a summary utterance from among the plurality of utterances using at least one information of the classification or the stage;
The summarizing means creates a summary sentence including the summary utterance, and enables the display means to display the summary sentence,
The analysis means gives points according to the classification or the stage of the utterance and aggregates the points for each utterance;
extracting one or more of the summarizing utterances with a high total point;
The summarizing means determines whether or not at least one or both of an utterance immediately before the utterance for summary and an utterance immediately after the utterance for summary are related to the utterance for summary, and the utterance determined to be related is taken as an additional utterance. ,
The analysis means stores a plurality of utterances made by a plurality of speakers from the utterance information in association with the utterances and the speakers;
When the summary utterance and the utterance immediately before or the utterance immediately after are utterances by different people, the presence or absence of the relationship is determined by the similarity of the wording of the adjacent utterances. An utterance information documentation device characterized by judging gender.
一以上の発話を資料化する装置であって、
発話情報を入手する入手手段と、
前記発話情報を解析する解析手段と、
前記解析手段の解析結果を基に前記発話情報の要約文を作成する要約手段と、
少なくとも前記要約文を表示させる表示手段とを備え、
前記解析手段は、
前記発話が、予め設けられた複数の分類のうちいずれの分類に属するか特定し、又は、前記発話が進捗状況の複数の段階のうちいずれの段階に属するか特定し、
前記分類又は前記段階の少なくとも一方の情報を用いて、複数の前記発話の中から要約用発話を抽出し、
前記要約手段は、前記要約用発話を含む要約文を作成し、前記表示手段により前記要約文を表示可能とし、
前記発話において、数値又は日付に関する情報を含む言語情報と、話者に関する情報である話者情報を認識し、
前記発話における前記言語情報又は前記話者情報に応じてポイントを付与して前記発話ごとに前記ポイントを集計し、
前記ポイントの合計が高い前記要約用発話を一又は複数抽出し、
前記要約手段は、前記要約用発話の直前の発話、又は直後の発話の少なくとも一方又は双方について、前記要約用発話との関連の有無を判定し、関連ありと判定された発話を追加用発話とし、
前記解析手段は、前記発話情報から複数の発言者が行った複数の発話について、前記発話と前記発言者とを関連付けて記憶し、
前記要約用発話と、前記直前の発話、又は前記直後の発話が、異なる人物による発話であるときは、前記関連の有無は、隣接する前記発話の文言の類似性から、隣接する前記発話の関連性を判定することを特徴とする発話情報資料化装置。
A device for documenting one or more utterances,
an acquisition means for acquiring utterance information;
analysis means for analyzing the speech information;
summarizing means for creating a summary sentence of the utterance information based on the analysis result of the analyzing means;
Display means for displaying at least the summary,
The analysis means is
Identifying which category the utterance belongs to among a plurality of preset categories, or identifying which stage the utterance belongs to among a plurality of stages of progress,
Extracting a summary utterance from among the plurality of utterances using at least one information of the classification or the stage;
The summarizing means creates a summary sentence including the summary utterance, and enables the display means to display the summary sentence,
recognizing linguistic information including information about numerical values or dates and speaker information that is information about a speaker in the utterance;
giving points according to the linguistic information or the speaker information in the utterance and totaling the points for each utterance;
extracting one or more of the summarizing utterances with a high total point;
The summarizing means determines whether or not at least one or both of an utterance immediately before the utterance for summary and an utterance immediately after the utterance for summary are related to the utterance for summary, and the utterance determined to be related is taken as an additional utterance. ,
The analysis means stores a plurality of utterances made by a plurality of speakers from the utterance information in association with the utterances and the speakers;
When the summary utterance and the utterance immediately before or the utterance immediately after are utterances by different people, the presence or absence of the relationship is determined by the similarity of the wording of the adjacent utterances. An utterance information documentation device characterized by judging gender.
JP2022142035A 2022-09-07 2022-09-07 Utterance information documentation device Active JP7223469B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022142035A JP7223469B1 (en) 2022-09-07 2022-09-07 Utterance information documentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022142035A JP7223469B1 (en) 2022-09-07 2022-09-07 Utterance information documentation device

Publications (2)

Publication Number Publication Date
JP7223469B1 true JP7223469B1 (en) 2023-02-16
JP2024037301A JP2024037301A (en) 2024-03-19

Family

ID=85224926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022142035A Active JP7223469B1 (en) 2022-09-07 2022-09-07 Utterance information documentation device

Country Status (1)

Country Link
JP (1) JP7223469B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213260A (en) 2002-12-27 2004-07-29 Csk Corp Speech sentence acquiring system and program, attribute giving device and program, document generating device and program, and information processing method
JP2013120547A (en) 2011-12-08 2013-06-17 Nomura Research Institute Ltd Discourse summary template creation system and discourse summary template creation program
JP2017016566A (en) 2015-07-06 2017-01-19 ソニー株式会社 Information processing device, information processing method and program
JP2020067710A (en) 2018-10-22 2020-04-30 株式会社ひらめき Program, information processing method and information processing device
CN111460132A (en) 2020-03-10 2020-07-28 哈尔滨工业大学 Generation type conference abstract method based on graph convolution neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213260A (en) 2002-12-27 2004-07-29 Csk Corp Speech sentence acquiring system and program, attribute giving device and program, document generating device and program, and information processing method
JP2013120547A (en) 2011-12-08 2013-06-17 Nomura Research Institute Ltd Discourse summary template creation system and discourse summary template creation program
JP2017016566A (en) 2015-07-06 2017-01-19 ソニー株式会社 Information processing device, information processing method and program
JP2020067710A (en) 2018-10-22 2020-04-30 株式会社ひらめき Program, information processing method and information processing device
CN111460132A (en) 2020-03-10 2020-07-28 哈尔滨工业大学 Generation type conference abstract method based on graph convolution neural network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岩崎 礼次郎,荒木 健治,コールセンターにおける対話データを用いた営業日報の自動生成,第22回 ことば工学研究会資料 (SIG-LSE-A503),日本,社団法人人工知能学会 ことば工学事務局,2006年03月10日,【ISSN】1346-3551,p.87-p.94

Also Published As

Publication number Publication date
JP2024037301A (en) 2024-03-19

Similar Documents

Publication Publication Date Title
EP3893477B1 (en) Human-in-the-loop voice communication system and method
US8407049B2 (en) Systems and methods for conversation enhancement
Parent et al. Speaking to the Crowd: Looking at Past Achievements in Using Crowdsourcing for Speech and Predicting Future Challenges.
US8145482B2 (en) Enhancing analysis of test key phrases from acoustic sources with key phrase training models
O’Keeffe 23. Corpus-based function-to-form approaches
EP1901283A2 (en) Automatic generation of statistical laguage models for interactive voice response applacation
US20120209606A1 (en) Method and apparatus for information extraction from interactions
CN110633912A (en) Method and system for monitoring service quality of service personnel
Dubiel et al. Investigating how conversational search agents affect user's behaviour, performance and search experience
CN113505606B (en) Training information acquisition method and device, electronic equipment and storage medium
JP4441782B2 (en) Information presentation method and information presentation apparatus
CN111797599A (en) Conference record extraction and PPT insertion method and system
Chmiel et al. Fluency parameters in the polish interpreting corpus (PINC)
WO2023235580A1 (en) Video-based chapter generation for a communication session
JP5574842B2 (en) FAQ candidate extraction system and FAQ candidate extraction program
US20230230589A1 (en) Extracting engaging questions from a communication session
US20250087212A1 (en) Intelligent response recommendation system and method for real-time voice counseling support
Pickering et al. An introduction to the ANAWC: The AAC and non-AAC workplace corpus
JP7223469B1 (en) Utterance information documentation device
Dewi et al. Maxim violation done by Emily in Emily in Paris Movie
US20230230586A1 (en) Extracting next step sentences from a communication session
Silber-Varod Is human-human spoken interaction manageable? The emergence of the concept:‘Conversation Intelligence’
Seto Fillers in the Hong Kong corpus of spoken English (HKCSE)
Suendermann et al. Crowdsourcing for industrial spoken dialog systems
US20240153398A1 (en) Virtual meeting coaching with dynamically extracted content

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7223469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150