[go: up one dir, main page]

WO2011036769A1 - 翻訳装置、及びプログラム - Google Patents

翻訳装置、及びプログラム Download PDF

Info

Publication number
WO2011036769A1
WO2011036769A1 PCT/JP2009/066677 JP2009066677W WO2011036769A1 WO 2011036769 A1 WO2011036769 A1 WO 2011036769A1 JP 2009066677 W JP2009066677 W JP 2009066677W WO 2011036769 A1 WO2011036769 A1 WO 2011036769A1
Authority
WO
WIPO (PCT)
Prior art keywords
sentence
language
unit
translation
next utterance
Prior art date
Application number
PCT/JP2009/066677
Other languages
English (en)
French (fr)
Inventor
一男 住田
康顕 有賀
哲朗 知野
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2009/066677 priority Critical patent/WO2011036769A1/ja
Priority to JP2011532847A priority patent/JP5221768B2/ja
Publication of WO2011036769A1 publication Critical patent/WO2011036769A1/ja
Priority to US13/413,791 priority patent/US8583417B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment

Definitions

  • the present invention relates to a translation apparatus and a program.
  • Patent Document 1 discloses a technique for storing a user's past conversation history in a database, predicting and presenting the user's next utterance with reference to the conversation history.
  • the present invention has been made in view of the above, and an object thereof is to provide a translation apparatus and a program that can predict a user's next utterance at low cost.
  • the translation apparatus is selected with a parallel translation storage unit that stores a plurality of correspondence translations in which a sentence in a first language and a sentence in a second language having the same meaning are associated with each other, and an ID of the translation.
  • a translation unit that translates the first sentence of the first language into the second language using the parallel translation; and the sentence of the first language included in the parallel translation indicated by the ID having the ID
  • From the parallel translation storage unit the first sentence, the first sentence A translation result and a display unit for displaying the next utterance candidate; and a selection receiving unit for accepting selection of the next utterance
  • the user's next utterance can be predicted at low cost.
  • FIGS. 1 and 2 First, an overview of the translation apparatus according to the first embodiment will be described with reference to FIGS. 1 and 2.
  • a user J who uses Japanese as a native language and a user E who uses English as a native language communicate with each other using the translation device 1.
  • a Japanese sentence 15 which is a voice recognition result of the voice input from the microphone 11 and selected as the next utterance by the touch pen 13 is displayed, and Japanese sentences 16 to 16 are selected as candidates for the next utterance of the Japanese sentence 15. 18 is displayed. Thereafter, the user J selects one of the Japanese sentences 16 to 18 displayed on the display 12 with the touch pen 13 or makes a new utterance and inputs a voice from the microphone 11 to perform the next utterance. When the next utterance is made by the user E, the translation result is output as voice from the speaker 14.
  • the display 22 displays an English sentence 25 that is a translation result of the Japanese sentence 15, and also displays English sentences 26 to 28 as candidates for the next utterance of the Japanese sentence 15.
  • the translation result of the Japanese sentence 15 is also output as voice from the speaker 24. Thereafter, the user E selects one of the English sentences 26 to 28 displayed on the display 22 with the touch pen 23 or makes a new utterance and inputs a voice from the microphone 21 to perform the next utterance.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the translation apparatus 1 according to the first embodiment.
  • the translation device 1 includes a display unit 10, a selection unit 20, an input unit 30, a voice output unit 40, a storage unit 50, a selection reception unit 60, an update unit 65, a translation unit Unit 70, acquisition unit 75, output control unit 80, input reception unit 85, recognition unit 90, and search unit 95.
  • the display unit 10 displays a translation result, a candidate for the next utterance, a voice recognition result, and the like according to an instruction from the output control unit 80 to be described later. This can be realized by an existing display device. Moreover, the display part 10 will display an initial screen, if the translation apparatus 1 is started.
  • FIG. 4 is a diagram showing an example of the initial screen.
  • a Japanese greeting or the like that is likely to be spoken by the user J first is displayed as a candidate in the candidate display area 110 of the Japanese display screen 100.
  • the candidate display area 210 of the English display screen 200 an English greeting or the like that is likely to be spoken first by the user E is displayed as a candidate.
  • the Japanese display screen 100 is a screen displayed on the display 12 shown in FIG. 1
  • the English display screen 200 is a screen displayed on the display 22 shown in FIG.
  • the selection unit 20 selects the next utterance from the candidates displayed on the display unit 10 and can be realized by an existing input device such as a touch panel display or a pointing device. Note that the display unit 10 and the selection unit 20 may be integrally realized by a touch panel display or the like.
  • the input unit 30 is for inputting a voice spoken by the user J or the user E, and can be realized by an existing voice input device such as a microphone.
  • the voice output unit 40 outputs a translation result by voice according to an instruction from the output control unit 80 described later, and can be realized by an existing voice output device such as a speaker.
  • the storage unit 50 stores various programs executed by the translation apparatus 1, information used for various processes performed by the translation apparatus 1, and the like.
  • the storage unit 50 is, for example, magnetic (optical disk) such as HDD (Hard Disk Drive), SSD (Solid State Drive), memory card, optical disk, ROM (Read Only Memory), RAM (Random Access Memory), or electrical. It can be realized by an existing storage device that can store the data.
  • the storage unit 50 includes a parallel translation storage unit 52 and a next utterance table storage unit 54.
  • the parallel translation storage unit 52 stores a plurality of parallel translations in which Japanese sentences and English sentences having the same meaning are associated with each other, and a parallel translation ID.
  • FIG. 5 is a diagram illustrating an example of parallel translations stored in the parallel translation storage unit 52.
  • the parallel translation storage unit 52 includes an ID for identifying a parallel translation, a Japanese sentence constituting the parallel translation, a usage frequency of the Japanese sentence, an English sentence constituting the parallel translation, and a usage frequency of the English sentence. It is stored in association.
  • the parallel translation with ID 00001 the Japanese sentence is the Japanese sentence 120, the Japanese sentence 120 is used 390 times, the English sentence is the English sentence 220, and the English sentence 220 is used 238 times.
  • the Japanese sentence is Japanese sentence 121
  • the Japanese sentence 121 is used 0 times
  • the English sentence is English sentence 221, and the English sentence 221 is used 115 times. Yes.
  • next utterance table storage unit 54 identifies the ID and first identification information for identifying whether the sentence in the first language or the sentence in the second language constituting the parallel translation indicated by the ID, and the first identification information Is stored as the next utterance of the sentence indicated by the second utterance table associated with the second identification information for identifying the sentence previously selected from the parallel translation storage unit 52.
  • FIG. 6 is a diagram illustrating an example of the next utterance table stored in the next utterance table storage unit 54.
  • the next utterance table storage unit 54 stores a next utterance table in which first identification information, second identification information, and frequency information are associated with each other.
  • the frequency information is information indicating the frequency with which the sentence indicated by the second identification information is selected as the next utterance of the sentence indicated by the first identification information, and includes the selection frequency and the total frequency.
  • the selection frequency represents the number of times the sentence indicated by the second identification information is selected as the next utterance of the sentence indicated by the first identification information, and the total frequency is the second identification information as the next utterance of the sentence indicated by the first identification information.
  • the first identification information includes ID1 for identifying the parallel translation stored in the parallel translation storage unit 52 and the language type 1 indicating the language of the parallel translation, and the second identification information is stored in the parallel translation storage unit 52.
  • ID 2 that identifies the parallel translation and language type 2 that indicates the language of the translation are included.
  • the entry 130 on the first line of the parallel translation table shown in FIG. 6 has ID1 of 00001, language type 1 of J, ID2 of 00001, language type 2 of E, selection frequency of 49 times, and total frequency of 255 times.
  • the Japanese sentence whose bilingual ID is 00001 is the Japanese sentence 120
  • the English sentence whose bilingual ID is 00001 is the English sentence 220. Therefore, in the entry 130, the number of times that the English sentence 220 is selected as the next utterance of the Japanese sentence 120 is 49 times, and the number of times that an English sentence is selected as the next utterance of the Japanese sentence 120 is 255 times. Represents.
  • the entry 131 on the sixth line of the parallel translation table shown in FIG. 6 has ID1 of 00004, language type 1 of J, ID2 of 00009, language type 2 of E, selection frequency of 30 times, and total frequency of 229 times.
  • the Japanese sentence with the translation ID “00004” is the Japanese sentence 112
  • the English sentence with the parallel translation ID “00009” is the English sentence 221. Therefore, in the entry 131, the number of times the English sentence 221 is selected as the next utterance of the Japanese sentence 112 is 30 times, and the number of times that an English sentence is selected as the next utterance of the Japanese sentence 112 is 229 times. Represents.
  • the selection receiving unit 60 receives a selection from the selecting unit 20. For example, in FIG. 4, when the Japanese sentence 112 is selected as the next utterance by the selection unit 20, the selection receiving unit 60 receives the selection of the Japanese sentence 112.
  • the updating unit 65 refers to the next utterance table, and updates the frequency information associated with the first identification information of the sentence that has received the previous selection and the second identification information of the sentence that has received the current selection. Specifically, the update unit 65 increments the selection frequency and the total frequency of the frequency information associated with the first identification information of the sentence that has received the previous selection and the second identification information of the sentence that has received the current selection. To do. Further, the update unit 65 increments the total frequency of the frequency information associated with the first identification information of the sentence that has received the previous selection and the second identification information of the sentence in the same language as the sentence that has received the current selection. . Furthermore, the update unit 65 refers to the parallel translation stored in the parallel translation storage unit 52 and increments the usage frequency of the sentence that has received the current selection.
  • the updating unit 65 when the selection unit 20 selects the Japanese sentence 112 as the next utterance, the updating unit 65 refers to the parallel translation shown in FIG. To do. In FIG. 4, since there is no sentence for which the previous selection has been accepted, the updating unit 65 does not update the selection frequency and the total frequency of the next utterance table shown in FIG.
  • the translation unit 70 translates the sentence whose selection has been received by the selection reception unit 60 using the parallel translation stored in the parallel translation storage unit 52. Specifically, when selection of a Japanese sentence is received by the selection receiving unit 60, the translation unit 70 translates the Japanese sentence into English. When the selection accepting unit 60 accepts selection of an English sentence, the translation unit 70 translates the English sentence into Japanese. If the recognition result recognized by the recognition unit 90 described later does not exist in the parallel translation, the translation unit 70 performs machine translation of the recognition result.
  • the acquisition unit 75 refers to the next utterance table stored in the next utterance table storage unit 54, and a plurality of second identification information associated with the first identification information of the sentence whose selection is received by the selection receiving unit 60.
  • the Japanese and English sentences indicated by each are acquired from the parallel translation storage unit 52.
  • the acquisition unit 75 refers to the next utterance table, and determines the Japanese sentence indicated by each of the plurality of second identification information associated with the first identification information of the sentence that has been selected by the selection receiving unit 60.
  • the information is acquired from the parallel translation storage unit 52 within a predetermined number of ranges in descending order of frequency indicated by the frequency information.
  • the acquisition unit 75 refers to the next utterance table and uses the frequency of the English sentence indicated by each of the plurality of second identification information associated with the first identification information of the sentence whose selection has been received by the selection receiving unit 60.
  • the information is acquired from the parallel translation storage unit 52 within a predetermined number of ranges in descending order of the frequency indicated by the information.
  • the acquisition unit 75 when selection of the Japanese sentence 112 is received by the selection receiving unit 60, the acquisition unit 75 refers to the next utterance table and stores the second sentence associated with the first identification information indicating the Japanese sentence 112. Of the identification information, the score of the entry whose language type 2 is J is obtained using Equation (1). And the acquisition part 75 acquires the sentence which 2nd identification information shows from the parallel translation memory
  • the acquisition unit 75 obtains the score of the entry 133 in which ID1 is 00004, language type 1 is J, ID2 is 00008, and language type 2 is J, ID1 is 00004, language type 1 is J, ID2 is 00439, And the score of the entry 134 whose language type 2 is J. Then, the acquisition unit 75 acquires the Japanese sentence with ID 00008 and the Japanese sentence with ID 00439 from the parallel translation storage unit 52 in this order, and adds them to the candidate for the next utterance of the Japanese sentence. In FIG. 4, when selection of the Japanese sentence 112 is received by the selection receiving unit 60, the acquisition unit 75 selects the language type 2 of the second identification information associated with the first identification information indicating the Japanese sentence 112. The same processing is performed for the entry whose E is E, and it is added to the candidate for the next utterance of the English sentence.
  • (S i , l i ) indicates ID2 and language type 2
  • (s j , l j ) indicates ID1 and language type 1
  • Freq ((s j , l j )) indicates the total frequency
  • Freq ( (S i , l i ) and (s j , l j )) indicate the selection frequency. That is, in Formula (1), the ratio of the selection frequency to the total frequency is obtained.
  • the acquisition unit 75 further obtains the score of the parallel Japanese sentence stored in the parallel translation storage unit 52 using the mathematical formula (2).
  • the Japanese sentence indicated by the second identification information is acquired from the parallel translation storage unit 52 within a predetermined number of ranges in descending order of the calculated score.
  • the acquisition unit 75 does not acquire the sentence indicated by the already acquired second identification information.
  • the acquisition unit 75 acquires the Japanese sentence with ID 00001, the Japanese sentence with ID 00005, the Japanese sentence with ID 00006, and the Japanese sentence with ID 00007 from the parallel translation storage unit 52 and adds them to the candidates. Note that the acquisition unit 75 performs the same processing even when the number of acquired English sentences is less than the predetermined number, and adds them to candidates that are candidates for the next utterance of English sentences.
  • Sm is the minimum value of the score obtained by Equation (1) (provided that there is no target entry and no score is obtained using Equation (1)), and b is a coefficient.
  • Max (Freq ((s i , l i ))) indicates the maximum value of the usage frequency
  • Freq ((s i , l i )) indicates the usage frequency.
  • the value of the coefficient b is preferably set to a value less than 1 (for example, 0) so as not to exceed the minimum score obtained by Equation (1).
  • FIG. 7 is a diagram illustrating an example of a candidate for the next utterance of a Japanese sentence acquired by the acquisition unit 75.
  • the score is Japanese sentence with ID 00008, Japanese sentence with ID 00439, Japanese sentence with ID 00001, Japanese sentence with ID 00005, Japanese sentence with ID 00006, and Japanese sentence with ID 00007. It has been added to the candidates in descending order.
  • the score of the Japanese sentence with ID 00001 and the Japanese sentence with ID 00005 are obtained by Equation (1), and the scores of other Japanese sentences are obtained by Equation (2). .
  • FIG. 8 is a diagram illustrating an example of a candidate for the next utterance of an English sentence acquired by the acquisition unit 75.
  • the English sentence with ID 00009, the English sentence with ID 00010, the English sentence with ID 00091, the English sentence with ID 01219, the English sentence with ID 000006, and the English sentence with ID 02055 It has been added to the candidates in descending order.
  • the score of any English sentence is obtained by the formula (1).
  • the output control unit 80 performs display control on the display unit 10 and audio control on the audio output unit 40, and includes a display control unit 82 and an audio control unit 84. Note that the output control unit 80 may switch display output and audio output described below as necessary, or may use them together.
  • the display control unit 82 causes the display unit 10 to display the sentence whose selection is received by the selection receiving unit 60 and the translation result of the sentence whose selection is received by the selection receiving unit 60. Further, the display control unit 82 causes the display unit 10 to display the Japanese sentence acquired by the acquisition unit 75 as a candidate for the next Japanese utterance, and the English sentence acquired by the acquisition unit 75 as the candidate for the next English utterance. It is displayed on the display unit 10. The display control unit 82 also displays a recognition result of the recognition unit 90 described later on the display unit 10, which will be described in detail later.
  • FIG. 9 is a diagram illustrating an example of a screen on which the sentence acquired by the acquisition unit 75 is displayed as a candidate for the next utterance.
  • the Japanese sentence 112 is displayed in the dialog history display area 140 of the Japanese display screen 100, and the Japanese sentence shown in FIG. 7 is displayed as a candidate for the next Japanese utterance in the candidate display area 110.
  • the English sentence 212 which is the translation result of the Japanese sentence 112 is displayed in the dialog history display area 240 of the English display screen 200, and the English sentence shown in FIG. 8 is displayed as a candidate for the next English utterance in the candidate display area 210.
  • the voice control unit 84 causes the voice output unit 40 to output a translation result of the sentence whose selection is received by the selection receiving unit 60. Specifically, the voice control unit 84 performs a voice synthesis process for converting the translation result into a voice signal, DA-converts the voice signal generated by the voice synthesis process, and causes the voice output unit 40 to output the voice.
  • the input receiving unit 85 receives input of Japanese or English voice from the input unit 30. Specifically, the input reception unit 85 performs sampling on the audio analog signal input from the input unit 30 and converts the signal into a stereo digital signal. For the conversion to a digital signal, for example, an existing technique such as AD conversion can be used.
  • the recognition unit 90 recognizes the voice received by the input receiving unit 85 and generates a character string of the recognized voice. For example, when the voice received by the input reception unit 85 is Japanese, the recognition unit 90 recognizes the voice to generate a Japanese character string, and when the voice received by the input reception unit 85 is English, The recognition unit 90 recognizes speech and generates an English character string. Specifically, the recognition unit 90 extracts, in a time series, feature quantities indicating acoustic features for determining phonemes constituting speech from the digital signal converted by the input reception unit 85. And the recognition part 90 produces
  • the search unit 95 searches the parallel translation storage unit 52 for a sentence similar to the sentence recognized by the recognition unit 90. Specifically, when the speech received by the input receiving unit 85 is in Japanese, the search unit 95 searches the bilingual storage unit 52 for a Japanese sentence similar to the Japanese character string generated by the recognition unit 90. . When the voice received by the input receiving unit 85 is in English, the search unit 95 searches the parallel translation storage unit 52 for an English sentence similar to the English character string generated by the recognition unit 90. For example, the search unit 95 calculates the similarity between sentences using the Dice coefficient shown in Formula (3), the Jaccard coefficient shown in Formula (4), or the cosine coefficient shown in Formula (5).
  • ⁇ (s x , s y ) represents the similarity between the sentence s x and the sentence s y
  • x i and y i are the sentence s x and sentence respectively. It indicates the presence or absence of the word s y .
  • x i If there is the i-th word sentences s x is 1, if there x i is set to 0, If the i-th word exists in the sentence s y , y i is set to 1, and if not, y i is set to 0.
  • auxiliary words such as particles and auxiliary verbs for Japanese words, and to use independent words excluding articles and prepositions for English words.
  • the definition is such that the similarity ⁇ increases as the same word is included in the sentences to be compared, and differences in word meaning and part of speech are not taken into account. However, the similarity between sentences may be calculated in consideration of these differences.
  • the display control unit 82 causes the display unit 10 to display the sentence recognized by the recognition unit 90 and the similar sentence searched by the search unit 95 as candidates for the next utterance. Specifically, when the speech received by the input receiving unit 85 is in Japanese, the display control unit 82 displays the Japanese character string generated by the recognition unit 90 and the Japanese sentence searched by the search unit 95. It is displayed on the display unit 10 as a candidate for the next Japanese utterance. Similarly, when the voice received by the input receiving unit 85 is in English, the display control unit 82 uses the English character string generated by the recognition unit 90 and the English sentence searched by the search unit 95 as the next utterance in English. Are displayed on the display unit 10 as candidates.
  • FIG. 10 is a diagram showing an example of a screen on which the sentence searched by the search unit 95 is displayed as a candidate for the next utterance.
  • the user E presses the Peak button 260. It shows the state after inputting English speech.
  • the speech recognition result input by the user E is displayed in the recognition result display area 250 of the English display screen 200, and the English sentence 252 that is the speech recognition result and the search are displayed in the candidate display area 210.
  • a plurality of English sentences similar to the English sentence 252 searched by the unit 95 are displayed as candidates for the next English utterance.
  • FIG. 11 is a flowchart showing an example of the flow of processing performed by the translation apparatus 1 of the first embodiment.
  • the display control unit 82 displays an initial screen on the display unit 10 (step S100).
  • the display control unit 82 displays an initial screen as shown in FIG.
  • the input receiving unit 85 checks whether or not a voice is input from the input unit 30 (step S102).
  • the selection receiving unit 60 checks whether or not the next utterance has been selected from the candidates displayed on the display unit 10 (step S104). For example, in FIG. 4, when the Japanese sentence 112 is selected as the next utterance, the selection receiving unit 60 confirms the selection of the Japanese sentence 112. If the next utterance is not selected (No in step S104), the process returns to step S102.
  • the update unit 65 refers to the next utterance table, and first identification information of the sentence that has received the previous selection and second identification information of the sentence that has received the current selection.
  • the frequency information associated with is updated (step S106).
  • the translation unit 70 translates the sentence whose selection has been received by the selection reception unit 60 using the parallel translation stored in the parallel translation storage unit 52 (step S108). For example, the translation unit 70 translates the Japanese sentence 112 into the English sentence 212.
  • the acquisition unit 75 refers to the next utterance table, and each of the plurality of second identification information associated with the first identification information of the sentence whose selection has been received by the selection reception unit 60 is indicated in Japanese and English.
  • a sentence is acquired from the parallel translation storage unit 52 (step S110). Details of the next utterance candidate acquisition process by the acquisition unit 75 will be described later.
  • step S112 the display control unit 82, the sentence whose selection has been received by the selection receiving unit 60, the translation result of the sentence whose selection has been received by the selection receiving unit 60, the candidate for the next utterance of the Japanese sentence, and the next utterance of the English sentence Are displayed on the display unit 10 (step S112).
  • the display control unit 82 displays a screen as shown in FIG. 9 on the display unit 10.
  • step S112 ends, the process returns to step S102.
  • step S102 when a voice is input in step S102 (Yes in step S102), the recognition unit 90 recognizes the voice received by the input reception unit 85 and generates a character string of the recognized voice (step S114). .
  • the search unit 95 searches the parallel translation storage unit 52 for a sentence similar to the sentence recognized by the recognition unit 90 (step S116).
  • the display control unit 82 displays the recognition result of the recognition unit 90 and the similar sentence searched by the search unit 95 on the display unit 10 (step S118). For example, the display control unit 82 causes the display unit 10 to display a screen as illustrated in FIG. 10.
  • the selection receiving unit 60 waits for selection of the next utterance from the candidates displayed on the display unit 10 (No in Step S120), and when the selection is confirmed (Yes in Step S120), the process proceeds to Step S106. move on.
  • FIG. 12 is a flowchart illustrating an example of the flow of the next utterance candidate acquisition process performed by the translation apparatus 1 according to the first embodiment.
  • the acquisition unit 75 checks whether or not the sentence selected by the selection receiving unit 60 is stored in the parallel translation storage unit 52 (step S200).
  • the acquisition unit 75 sets the selected sentence as the previous utterance sentence (Step S202).
  • the search unit 95 searches the parallel translation storage unit 52 for a sentence having the highest similarity to the selected sentence.
  • the retrieved sentence is set as the previous utterance sentence (step S204).
  • the acquiring unit 75 associates the sentence selected by the selection receiving unit 60 with the translation result of the sentence selected by the selection receiving unit 60 and adds it as a parallel translation to the parallel translation storage unit 52 (step S206).
  • the acquisition unit 75 refers to the next utterance table and acquires a sentence in the same language as the previous utterance sentence indicated by each of the plurality of second identification information associated with the first identification information of the previous utterance sentence. That is, the acquisition unit 75 converts the ID2 sentence in which the ID1 and the language type 1 match the previous utterance sentence and the language type 1 and the language type 2 match within a predetermined number of ranges in descending order of frequency. 52 and is added to candidate 1 (step S208).
  • the acquisition unit 75 refers to the next utterance table and acquires a sentence in a language different from the previous utterance sentence indicated by each of the plurality of second identification information associated with the first identification information of the previous utterance sentence.
  • the acquiring unit 75 translates ID2 sentences whose ID1 and language type 1 match the previous utterance sentence and whose language type 1 and language type 2 are different from each other within a predetermined number of ranges in descending order of frequency. And added to candidate 2 (step S210).
  • the acquisition unit 75 acquires sentences having the same language as the previous utterance sentence from the parallel storage unit 52 in the descending order of frequency. , Added to candidate 1 (step S212).
  • the acquiring unit 75 acquires sentences having different languages from the previous utterance sentence from the parallel storage unit 52 until the predetermined number of ranges in descending order of frequency, It adds to the candidate 2 (step S214).
  • the first identification information for identifying the sentences in the first language and the second language constituting the parallel translation and the next utterance of the sentence indicated by the first identification information from the previous translation A candidate for the next utterance is acquired using the next utterance table associated with the second identification information for identifying the selected sentence. Therefore, according to the first embodiment, even if the translation device 1 is used repeatedly, the data amount of the conversation history does not increase, so that the user's next utterance can be predicted at low cost.
  • candidates for the next utterance are acquired in descending order of the frequency of selection of the sentence indicated by the second identification information as the next utterance of the sentence indicated by the first identification information. It is possible to preferentially display what has a high possibility.
  • FIG. 13 is a block diagram showing an example of the configuration of the translation apparatus 1001 of the second embodiment.
  • the translation device 1001 shown in FIG. 13 includes the translation device according to the first embodiment in that the storage unit 1050 includes the semantic category dictionary storage unit 1056, the processing content of the search unit 1095, and the parallel translation stored in the parallel translation storage unit 1052. 1 and different.
  • FIG. 14 is a diagram showing an example of the semantic category dictionary stored in the semantic category dictionary storage unit 1056.
  • the semantic category dictionary storage unit 1056 stores a semantic category dictionary in which a word is associated with a semantic category of the word.
  • the search unit 1095 searches the parallel translation storage unit 1052 for a sentence similar to the character string recognized by the recognition unit 90 with reference to the semantic category dictionary.
  • FIG. 15 is a flowchart showing details of search by the search unit 1095 of the second embodiment.
  • the search unit 1095 refers to the semantic category dictionary and divides the character string recognized by the recognition unit 90 into a plurality of words (step S300). That is, the search unit 1095 performs morphological analysis of the character string recognized by the recognition unit 90.
  • the search unit 1095 obtains a semantic category for each of the divided words (step S302). Specifically, when the speech received by the input receiving unit 85 is Japanese, the semantic category dictionary is obtained with reference to the semantic category dictionary to obtain the semantic category of each word obtained by dividing the Japanese character string recognized by the recognition unit 90. . Similarly, when the speech received by the input receiving unit 85 is in English, the semantic category of each word obtained by dividing the English character string recognized by the recognition unit 90 is obtained by referring to the semantic category dictionary.
  • the parallel translation storage unit 1052 stores a semantic category associated with each of the Japanese sentences and English sentences constituting the parallel translation.
  • FIG. 16 is a diagram illustrating an example of a Japanese sentence constituting a parallel translation stored in the parallel translation storage unit 1052. In the example shown in FIG. 16, a semantic category is associated with each Japanese sentence constituting the parallel translation.
  • FIG. 17 is a diagram illustrating an example of an English sentence constituting a parallel translation stored in the parallel translation storage unit 1052. In the example shown in FIG. 17, a semantic category is associated with each English sentence constituting the parallel translation. For example, in FIG. 16 and FIG.
  • the Japanese sentence 120 and the English sentence 220 are associated with a semantic category of “greeting”, and the Japanese word 161 and the English word 261 have a semantic category of “clothing”. It is associated.
  • the assignment of semantic categories to Japanese sentences and English sentences constituting the parallel translation can be performed by the processes in steps S300 and S302 of the flowchart shown in FIG.
  • the search unit 1095 compares the semantic categories of the divided words with the semantic categories of the plurality of words constituting the sentence stored in the parallel translation storage unit 1052, and recognizes the recognition unit.
  • a sentence similar to the character string recognized by 90 is searched (step S304). Specifically, when the speech received by the input receiving unit 85 is in Japanese, the search unit 1095 includes a semantic category of each word obtained by dividing a Japanese character string, and a bilingual storage unit as shown in FIG.
  • a Japanese sentence similar to the Japanese character string recognized by the recognition unit 90 is searched by comparing the semantic categories of the plurality of words constituting the Japanese sentence stored in 1052.
  • the search unit 1095 stores the semantic category of each word obtained by dividing the English character string and the bilingual storage unit 1052 as shown in FIG.
  • the English sentence similar to the English character string recognized by the recognition unit 90 is searched by comparing the semantic categories of each of the plurality of words constituting the existing English sentence.
  • the search unit 1095 calculates the degree of similarity between sentences using the Dice coefficient shown in Formula (3), the Jaccard coefficient shown in Formula (4), or the cosine coefficient shown in Formula (5).
  • the Japanese sentence 171 shown in FIG. 16 is associated with the semantic categories of “head / eye / nose / face” and “consciousness / sense”, and the Japanese sentence 172 has “head / eye / nose / face” and “consciousness / sense / face”.
  • the sense category “sense” is associated, and the Japanese sentence 173 is associated with the meaning categories “clothes” and “inclusion”.
  • the similarity between the Japanese sentence 171 and the Japanese sentence 172 and the similarity between the Japanese sentence 171 and the Japanese sentence 173 are calculated as follows using the formula (3).
  • Japanese sentence 171 is sentence 1
  • Japanese sentence 172 is sentence 2
  • Japanese sentence 173 is sentence 3.
  • ⁇ (sentence 1, sentence 2) 1, the Japanese sentence 171 and the Japanese sentence 172 are similar.
  • ⁇ (sentence 1, sentence 3) 0, the Japanese sentence 171 and the Japanese sentence 173 are not similar.
  • e (x, s) is a function that outputs 1 when the semantic category x exists in the sentence s and 0 when it does not exist.
  • similar sentences can be searched using a semantic category dictionary. Note that information on whether the sentence is questionable or affirmative is also important in calculating the similarity of the sentence, so that the degree of similarity may be calculated using such information.
  • FIG. 18 is a block diagram illustrating an example of a hardware configuration of the translation apparatuses 1 and 1001 according to the first and second embodiments.
  • the translation apparatuses 1 and 1001 according to the first and second embodiments include a CPU 901, a storage device 902 such as a ROM, a RAM, and an HDD, a microphone 909 that inputs a user's voice, and an input An AD device 908 for AD-converting the generated voice, a DA device 910 for converting a translation result into voice, a speaker 911 for outputting voice, an input device 905 such as a keyboard, mouse, or pen, and an input device 905
  • An input controller 904 for controlling, a display device 907 such as a display, an output controller 906 for controlling the display device 907, and a bus 903 for connecting each module, and a hardware configuration using a normal computer. ing.
  • the translation programs executed by the translation apparatuses 1 and 1001 of the first and second embodiments are files in an installable format or executable format, and are CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile).
  • the program is recorded on a computer-readable recording medium such as a disk) and provided as a computer program product.
  • the translation program executed by the translation apparatuses 1 and 1001 according to the first and second embodiments has a module configuration for realizing the above-described units on a computer.
  • the CPU reads the translation program from the HDD onto the RAM and executes it, so that the above-described units are realized on the computer.
  • the search units 95 and 1095 search for similar sentences
  • the sentence acquired by the acquisition unit 75 as the next utterance candidate among the sentences stored in the parallel translation storage units 52 and 1052 may be given priority. desirable. Therefore, the search units 95 and 1095 are parallel translation storage units 52 and 1052, respectively.
  • the priority of the sentence acquired by the acquisition unit 75 among the sentences stored in the database is increased, and a sentence similar to the character string recognized by the recognition unit 90 is searched from the parallel translation storage units 52 and 1052. Good.
  • the search units 95 and 1095 are the Japanese acquired by the acquiring unit 75 among the Japanese sentences stored in the bilingual storage units 52 and 1052.
  • the Japanese sentence similar to the Japanese character string is searched from the parallel translation storage units 52 and 1052 by increasing the priority of the sentence.
  • the search units 95 and 1095 prioritize the English sentence acquired by the acquiring unit 75 among the English sentences stored in the parallel translation storage units 52 and 1052.
  • the English storage similar to the English character string is searched from the parallel translation storage units 52 and 1052 at a higher degree.
  • the sentence acquired as the next utterance candidate can be prioritized by using Equation (6).
  • the translation apparatus and program according to the present invention are useful for supporting communication between users whose native languages are different languages.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

 対訳記憶部52は、第1言語及び第2言語の文を対応付けた対訳とIDとを対応付けて記憶する。翻訳部70は、対訳を用いて第1文を第2言語に翻訳する。次発話テーブル記憶部54は、IDを有し、IDが示す対訳に含まれる第1言語の文か第2言語の文かを識別する第1識別情報と、第1識別情報が示す文の次発話として過去に対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する。取得部75は、次発話テーブルを参照し、第1文の第1識別情報に対応付けられた第2識別情報が示す文である次発話候補を対訳記憶部から取得する。表示部10は、第1文、第1文の翻訳結果、及び次発話候補を表示する。選択受付部60は、次発話候補の選択を受け付ける。翻訳部は、選択された次発話候補が第1言語の場合、第2言語に翻訳し、選択された次発話候補が第2言語の場合、第1言語に翻訳する。

Description

翻訳装置、及びプログラム
 本発明は、翻訳装置、及びプログラムに関する。
 近年、文化や経済のグローバル化に伴い、異なる言語を母語とする人同士のコミュニケーションを支援する翻訳装置への期待が高まっている。例えば特許文献1には、利用者の過去の対話履歴をデータベースに格納し、この対話履歴を参照して利用者の次発話を予測し、提示する技術が開示されている。
特許第3962766号公報
 しかしながら、特許文献1に開示された技術では、対話支援装置の使用回数に比例して対話履歴のデータ量が増大するため、大容量の記憶装置が必要となり、コストの増大を招いてしまう。
 本発明は、上記に鑑みてなされたものであり、低コストで利用者の次発話を予測することができる翻訳装置、及びプログラムを提供することを目的とする。
 本発明の翻訳装置は、意味内容が同義の第1言語の文及び第2言語の文を対応付けた対訳と、前記対訳のIDとを、対応付けて複数記憶する対訳記憶部と、選択された前記第1言語の第1文を、前記対訳を用いて前記第2言語に翻訳する翻訳部と、前記IDを有し、前記IDが示す前記対訳に含まれる前記第1言語の文か前記第2言語の文かを識別する第1識別情報と、前記第1識別情報が示す文の次発話として過去に前記対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する次発話テーブル記憶部と、前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた前記第2識別情報が示す文である次発話候補を前記対訳記憶部から取得する取得部と、前記第1文、前記第1文の翻訳結果、及び前記次発話候補を表示する表示部と、前記次発話候補の選択を受け付ける選択受付部と、を備え、前記翻訳部は、選択された前記次発話候補が前記第1言語の場合、前記対訳を用いて前記第2言語に翻訳し、選択された前記次発話候補が前記第2言語の場合、前記対訳を用いて前記第1言語に翻訳することを特徴とする。
 本発明によれば、低コストで利用者の次発話を予測することができるという効果を奏する。
第1実施形態の翻訳装置の概要の説明図。 第1実施形態の翻訳装置の概要の説明図。 第1実施形態の翻訳装置を示すブロック図。 初期画面例を示す図。 第1実施形態の対訳の例を示す図。 次発話テーブルの例を示す図。 次発話の候補例を示す図。 次発話の候補例を示す図。 次発話の候補の画面表示例を示す図。 次発話の候補の画面表示例を示す図。 第1実施形態の翻訳装置の処理例を示すフローチャート。 第1実施形態の翻訳装置の次発話候補取得処理例を示すフローチャート。 第2実施形態の翻訳装置を示すブロック図。 意味カテゴリ辞書の例を示す図。 第2実施形態の検索処理例を示すフローチャート。 第2実施形態の対訳の例を示す図。 第2実施形態の対訳の例を示す図。 第1、2実施形態の翻訳装置のハードウェア構成図。
 以下、添付図面を参照しながら、本発明の翻訳装置、及びプログラムの実施形態を詳細に説明する。なお、以下の各実施形態では、第1言語に日本語を用い、第2言語に英語を用いた場合を例にとり説明するが、翻訳形態はこれに限定されるものではなく、あらゆる言語間での翻訳に適用することができる。
(第1実施形態)
 まず、図1及び図2を参照しながら、第1の実施形態の翻訳装置の概要を説明する。図1及び図2に示す例では、日本語を母語とするユーザJと英語を母語とするユーザEとが翻訳装置1を利用してコミュニケーションを行う様子を示しており、詳細には、日本語を母語とするユーザJがマイク11から音声を入力し、音声認識結果を次発話として選択した後の状態を示している。
 ディスプレイ12には、マイク11から入力された音声の音声認識結果であってタッチペン13により次発話として選択された日本語文15が表示されるとともに、日本語文15の次発話の候補として日本語文16~18が表示されている。この後、ユーザJは、ディスプレイ12に表示された日本語文16~18のいずれかをタッチペン13で選択したり、新たな発話を行ってマイク11から音声を入力することにより、次発話を行う。なお、ユーザEにより次発話が行われた場合には、その翻訳結果がスピーカ14から音声出力される。
 ディスプレイ22には、日本語文15の翻訳結果である英語文25が表示されるとともに、日本語文15の次発話の候補として英語文26~28が表示されている。なお、日本語文15の翻訳結果は、スピーカ24からも音声出力される。この後、ユーザEは、ディスプレイ22に表示された英語文26~28のいずれかをタッチペン23で選択したり、新たな発話を行ってマイク21から音声を入力することにより、次発話を行う。
 次に、第1の実施形態の翻訳装置の構成を説明する。
 図3は、第1実施形態の翻訳装置1の構成の一例を示すブロック図である。図3に示すように、翻訳装置1は、表示部10と、選択部20と、入力部30と、音声出力部40と、記憶部50と、選択受付部60と、更新部65と、翻訳部70と、取得部75と、出力制御部80と、入力受付部85と、認識部90と、検索部95とを備える。
 表示部10は、後述する出力制御部80の指示により、翻訳結果、次発話の候補、及び音声認識結果などを表示するものであり、例えば、タッチパネル式ディスプレイ、液晶ディスプレイ、又は有機ELディスプレイなどの既存の表示装置により実現できる。また、表示部10は、翻訳装置1が起動されると、初期画面を表示する。
 図4は、初期画面の一例を示す図である。図4に示す例では、日本語表示画面100の候補表示エリア110に、ユーザJにより最初に発話される可能性の高い日本語の挨拶文などが候補として表示されている。同様に、英語表示画面200の候補表示エリア210に、ユーザEにより最初に発話される可能性の高い英語の挨拶文などが候補として表示されている。なお、日本語表示画面100は、図1に示すディスプレイ12に表示される画面であり、英語表示画面200は、図2に示すディスプレイ22に表示される画面である。
 図3に戻り、選択部20は、表示部10に表示された候補の中から次発話を選択するものであり、タッチパネル式ディスプレイ、又はポインティングデバイスなどの既存の入力装置により実現できる。なお、表示部10及び選択部20は、タッチパネル式ディスプレイなどにより一体的に実現してもよい。
 入力部30は、ユーザJやユーザEが発話する音声などを入力するものであり、例えば、マイクなどの既存の音声入力装置により実現できる。
 音声出力部40は、後述する出力制御部80の指示により、翻訳結果などを音声出力するものであり、スピーカなどの既存の音声出力装置により実現できる。
 記憶部50は、翻訳装置1で実行される各種プログラムや翻訳装置1で行われる各種処理に使用される情報などを記憶するものである。記憶部50は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、ROM(Read Only Memory)、RAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な既存の記憶装置により実現できる。そして、記憶部50は、対訳記憶部52と、次発話テーブル記憶部54とを含む。
 対訳記憶部52は、意味内容が同義の日本語文及び英語文を対応付けた対訳と、対訳のIDとを、対応付けて複数記憶する。図5は、対訳記憶部52に記憶されている対訳の一例を示す図である。図5に示す例では、対訳記憶部52は、対訳を特定するIDと、対訳を構成する日本語文と、日本語文の使用頻度と、対訳を構成する英語文と、英語文の使用頻度とを対応付けて記憶している。例えば、IDが00001の対訳の場合、日本語文が日本語文120、日本語文120の使用頻度が390回、英語文が英語文220、英語文220の使用頻度が238回であることを表している。同様に、IDが00009の対訳の場合、日本語文が日本語文121、日本語文121の使用頻度が0回、英語文が英語文221、英語文221の使用頻度が115回であることを表している。
 図3に戻り、次発話テーブル記憶部54は、IDを識別するとともにIDが示す対訳を構成する第1言語の文か第2言語の文かを識別する第1識別情報と、第1識別情報が示す文の次発話として過去に対訳記憶部52から選択された文を識別する第2識別情報とを対応付けた次発話テーブルを記憶する。
 図6は、次発話テーブル記憶部54に記憶されている次発話テーブルの一例を示す図である。図6に示す例では、次発話テーブル記憶部54は、第1識別情報と、第2識別情報と、頻度情報とを対応付けた次発話テーブルを記憶している。頻度情報は、第1識別情報が示す文の次発話として第2識別情報が示す文が選択された頻度を示す情報であり、選択頻度と、合計頻度とを含む。選択頻度は、第1識別情報が示す文の次発話として第2識別情報が示す文が選択された回数を表し、合計頻度は、第1識別情報が示す文の次発話として第2識別情報が示す文と同じ言語の文が選択された回数を表す。なお、第1識別情報には、対訳記憶部52に記憶されている対訳を特定するID1と対訳の言語を示す言語種別1が含まれ、第2識別情報には、対訳記憶部52に記憶されている対訳を特定するID2と対訳の言語を示す言語種別2が含まれている。
 例えば、図6に示す対訳テーブルの1行目のエントリ130は、ID1が00001、言語種別1がJ、ID2が00001、言語種別2がE、選択頻度が49回、合計頻度が255回である。そして、図5に示すように、対訳のIDが00001の日本語文は日本語文120であり、対訳のIDが00001の英語文は英語文220である。従って、エントリ130は、日本語文120の次発話として英語文220が選択された回数が49回であること、及び日本語文120の次発話として何らかの英語文が選択された回数が255回であることを表している。
 また、図6に示す対訳テーブルの6行目のエントリ131は、ID1が00004、言語種別1がJ、ID2が00009、言語種別2がE、選択頻度が30回、合計頻度が229回である。そして、図5に示すように、対訳のIDが00004の日本語文は日本語文112であり、対訳のIDが00009の英語文は英語文221である。従って、エントリ131は、日本語文112の次発話として英語文221が選択された回数が30回であること、及び日本語文112の次発話として何らかの英語文が選択された回数が229回であることを表している。
 図3に戻り、選択受付部60は、選択部20からの選択を受け付ける。例えば、図4において、選択部20により日本語文112が次発話として選択された場合、選択受付部60は、日本語文112の選択を受け付ける。
 更新部65は、次発話テーブルを参照して、前回選択を受け付けた文の第1識別情報と今回選択を受け付けた文の第2識別情報とに対応付けられた頻度情報を更新する。具体的には、更新部65は、前回選択を受け付けた文の第1識別情報と今回選択を受け付けた文の第2識別情報とに対応付けられた頻度情報の選択頻度と合計頻度とをインクリメントする。また更新部65は、前回選択を受け付けた文の第1識別情報と、今回選択を受け付けた文と同じ言語の文の第2識別情報と、に対応付けられた頻度情報の合計頻度をインクリメントする。更に、更新部65は、対訳記憶部52に記憶されている対訳を参照して、今回選択を受け付けた文の使用頻度をインクリメントする。
 例えば、図4において、選択部20により日本語文112が次発話として選択された場合、更新部65は、図5に示す対訳を参照して、今回選択を受け付けた日本語文112の使用頻度をインクリメントする。なお、図4では、前回選択を受け付けた文が存在しないため、更新部65は、図6に示す次発話テーブルの選択頻度及び合計頻度を更新しない。
 翻訳部70は、対訳記憶部52に記憶されている対訳を用いて、選択受付部60により選択が受け付けられた文を翻訳する。具体的には、選択受付部60により日本語文の選択が受け付けられた場合、翻訳部70は、日本語文を英語に翻訳する。また、選択受付部60により英語文の選択が受け付けられた場合、翻訳部70は、英語文を日本語に翻訳する。なお、後述の認識部90により音声認識された認識結果が対訳中に存在しない場合には、翻訳部70は、認識結果を機械翻訳する。
 取得部75は、次発話テーブル記憶部54に記憶されている次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す日本語及び英語の文を対訳記憶部52から取得する。具体的には、取得部75は、次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す日本語文を、頻度情報が示す頻度が高い順に所定数の範囲内で対訳記憶部52から取得する。同様に、取得部75は、次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す英語文を、頻度情報が示す頻度が高い順に所定数の範囲内で対訳記憶部52から取得する。
 例えば、図4において、選択受付部60により日本語文112の選択が受け付けられた場合、取得部75は、次発話テーブルを参照し、日本語文112を示す第1識別情報に対応付けられた第2識別情報のうち言語種別2がJであるエントリのスコアを、数式(1)を用いて求める。そして、取得部75は、算出されたスコア(頻度)が高い順に所定数の範囲内で対訳記憶部52から第2識別情報が示す文を取得する。この場合、取得部75は、ID1が00004、言語種別1がJ、ID2が00008、及び言語種別2がJであるエントリ133のスコアと、ID1が00004、言語種別1がJ、ID2が00439、及び言語種別2がJであるエントリ134のスコアとを求める。そして、取得部75は、対訳記憶部52からIDが00008の日本語文、IDが00439の日本語文の順に取得し、日本語文の次発話の候補に追加する。なお、図4において、選択受付部60により日本語文112の選択が受け付けられた場合、取得部75は、日本語文112を示す第1識別情報に対応付けられた第2識別情報のうち言語種別2がEであるエントリについても同様の処理を行い、英語文の次発話の候補に追加する。
Figure JPOXMLDOC01-appb-M000001
 (s,l)はID2及び言語種別2を示し、(s,l)はID1及び言語種別1を示し、Freq((s,l))は合計頻度を示し、Freq((s,l),(s,l))は選択頻度を示す。つまり、数式(1)では、合計頻度に対する選択頻度の割合を求める。
 また、取得部75は、取得した日本語文の数が所定数に満たない場合には、更に、数式(2)を用いて、対訳記憶部52に記憶されている対訳の日本語文のスコアを求め、算出されたスコアが高い順に所定数の範囲内で対訳記憶部52から第2識別情報が示す日本語文を取得する。但し、取得部75は、既に取得済みの第2識別情報が示す文については取得しない。ここでは取得部75は、対訳記憶部52からIDが00001の日本語文、IDが00005の日本語文、IDが00006の日本語文、IDが00007の日本語文の順に取得し、候補に追加する。なお、取得部75は、取得した英語文の数が所定数に満たない場合にも同様の処理を行い、英語文の次発話の候補である候補に追加する。
Figure JPOXMLDOC01-appb-M000002
 Smは、数式(1)で求めたスコアの最小値であり(但し、対象となるエントリが存在せず、数式(1)を用いてスコアが求められなかった場合は、1)、bは係数であり、max(Freq((s,l)))は使用頻度の最大値を示し、Freq((s,l))は使用頻度を示す。なお、係数bの値は、数式(1)で求めたスコアの最小値を超えないようにするため、1未満の値(例えば、0)にすることが望ましい。
 このようにして次発話の候補を取得することにより、次発話テーブルから求めた文に矛盾せず、使用頻度の高い文を次発話の候補に追加することができる。
 図7は、取得部75により取得された日本語文の次発話の候補の一例を示す図である。図7に示す例では、IDが00008の日本語文、IDが00439の日本語文、IDが00001の日本語文、IDが00005の日本語文、IDが00006の日本語文、IDが00007の日本語文というスコアの高い順に候補に追加されている。なお、図7に示す例では、IDが00001の日本語文、及びIDが00005の日本語文のスコアは数式(1)で求められ、他の日本語文のスコアは数式(2)で求められている。
 図8は、取得部75により取得された英語文の次発話の候補の一例を示す図である。図8に示す例では、IDが00009の英語文、IDが00010の英語文、IDが00921の英語文、IDが01219の英語文、IDが00086の英語文、IDが02055の英語文というスコアの高い順に候補に追加されている。なお、図8に示す例では、いずれの英語文のスコアも数式(1)で求められている。
 図3に戻り、出力制御部80は、表示部10に対する表示制御や音声出力部40に対する音声制御を行うものであり、表示制御部82と、音声制御部84とを含む。なお、出力制御部80は、以下で説明する表示出力及び音声出力を必要に応じて切り替えるようにしてもよいし、併用するようにしてもよい。
 表示制御部82は、選択受付部60により選択が受け付けられた文、選択受付部60により選択が受け付けられた文の翻訳結果を表示部10に表示させる。また、表示制御部82は、取得部75により取得された日本語文を日本語の次発話の候補として表示部10に表示させ、取得部75により取得された英語文を英語の次発話の候補として表示部10に表示させる。また、表示制御部82は、後述の認識部90の認識結果等も表示部10に表示させるが、詳細は後述する。
 図9は、取得部75により取得された文を次発話の候補として表示した画面の一例を示す図である。図9に示す例では、日本語表示画面100の対話履歴表示エリア140に日本語文112が表示され、候補表示エリア110に、図7に示す日本語文が日本語の次発話の候補として表示されている。同様に、英語表示画面200の対話履歴表示エリア240に日本語文112の翻訳結果である英語文212が表示され、候補表示エリア210に、図8に示す英語文が英語の次発話の候補として表示されている。
 図3に戻り、音声制御部84は、選択受付部60により選択が受け付けられた文の翻訳結果などを音声出力部40に出力させる。具体的には、音声制御部84は、翻訳結果を音声信号に変換する音声合成処理を行い、音声合成処理により生成した音声信号をDA変換して音声出力部40に音声出力させる。
 入力受付部85は、入力部30から日本語又は英語の音声の入力を受け付ける。具体的には、入力受付部85は、入力部30から入力された音声のアナログ信号に対してサンプリングを行って、ステレオのデジタル信号に変換する。なお、デジタル信号への変換には、例えば、AD変換など既存の技術を用いることができる。
 認識部90は、入力受付部85により受け付けられた音声を認識し、認識した音声の文字列を生成する。例えば、入力受付部85により受け付けられた音声が日本語の場合、認識部90は、音声を認識して日本語の文字列を生成し、入力受付部85により受け付けられた音声が英語の場合、認識部90は、音声を認識して英語の文字列を生成する。具体的には、認識部90は、入力受付部85により変換されたデジタル信号から、音声を構成する音素を判別するための音響的な特徴を示す特徴量を時系列で抽出する。そして認識部90は、抽出した特徴量の時系列に基づいて、入力受付部85により受け付けられた音声に対して確からしい文字列や単語列を生成する。
 なお、特徴量の抽出には、FFT(高速フーリエ変換)に基づく周波数スペクトル分析、線形予測分析、又はケプストラム分析などの既存の手法を用いることができる。これらの手法では、連続する音声波形の短い時間区間を切り出し処理することにより、分析対象とした時間区間における特徴量を抽出でき、分析の時間区間を順次シフトさせていくことにより、特徴量を時系列で抽出できる。特徴量の抽出、及び文字列や単語列の生成の詳細な手法については、例えば、「鹿野清宏他編、“音声認識システム”、オーム社出版局、2001」などで開示されている方法を用いることができる。
 検索部95は、認識部90に認識された文と類似する文を対訳記憶部52から検索する。具体的には、入力受付部85により受け付けられた音声が日本語の場合、検索部95は、認識部90により生成された日本語の文字列に類似する日本語文を対訳記憶部52から検索する。また、入力受付部85により受け付けられた音声が英語の場合、検索部95は、認識部90により生成された英語の文字列に類似する英語文を対訳記憶部52から検索する。例えば、検索部95は、数式(3)に示すDice係数、数式(4)に示すJaccard係数、又は数式(5)に示すコサイン係数などを用いて、文同士の類似度を算出する。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 なお、数式(3)~数式(5)において、σ(s,s)は、文sと文sとの類似度を表し、x、yは、それぞれ文s、文sの単語の有無を表す。文s又は文sに含まれる1番目からT番目までの単語に対し、文sにi番目の単語が存在すればxは1、存在しなければxは0に設定され、文sにi番目の単語が存在すればyは1、存在しなければyは0に設定される。なお、日本語の単語には、助詞や助動詞などの付属語を用い、英語の単語には、冠詞や前置詞を除いた自立語を用いることが好ましい。
 数式(3)~数式(5)では、比較する文同士で同じ単語が多く含まれているほど類似度σが大きくなる定義になっており、単語の意味や品詞などの違いは考慮していないが、これらの違いを考慮して文同士の類似度を算出してもよい。
 ここで、表示制御部82による認識結果等の表示手法について説明する。表示制御部82は、認識部90に認識された文、検索部95により検索された類似文を次発話の候補として表示部10に表示させる。具体的には、入力受付部85により受け付けられた音声が日本語の場合、表示制御部82は、認識部90により生成された日本語の文字列、及び検索部95により検索された日本語文を日本語の次発話の候補として表示部10に表示させる。同様に、入力受付部85により受け付けられた音声が英語の場合、表示制御部82は、認識部90により生成された英語の文字列、及び検索部95により検索された英語文を英語の次発話の候補として表示部10に表示させる。
 図10は、検索部95により検索された文を次発話の候補として表示した画面の一例を示す図であり、詳細には、図9に示す状態において、ユーザEがSpeakボタン260を押下して英語の音声を入力した後の状態を示している。図10に示す例では、英語表示画面200の認識結果表示エリア250にユーザEにより入力された音声の認識結果が表示され、候補表示エリア210に、音声の認識結果である英語文252と、検索部95により検索された英語文252に類似する複数の英語文が英語の次発話の候補として表示されている。
 次に、第1の実施形態の翻訳装置の動作を説明する。
 図11は、第1実施形態の翻訳装置1で行われる処理の流れの一例を示すフローチャートである。
 まず、表示制御部82は、初期画面を表示部10に表示させる(ステップS100)。表示制御部82は、例えば、図4に示すような初期画面を表示部10に表示させる。
 続いて、入力受付部85は、入力部30から音声が入力されたか否かを確認する(ステップS102)。
 音声が入力されなかった場合(ステップS102でNo)、選択受付部60は、表示部10に表示されている候補の中から次発話が選択されたか否かを確認する(ステップS104)。例えば図4において、日本語文112が次発話として選択された場合、選択受付部60は、日本語文112の選択を確認する。なお、次発話が選択されなかった場合(ステップS104でNo)、ステップS102に戻る。
 次発話が選択された場合(ステップS104でYes)、更新部65は、次発話テーブルを参照して、前回選択を受け付けた文の第1識別情報と今回選択を受け付けた文の第2識別情報とに対応付けられた頻度情報を更新する(ステップS106)。
 続いて、翻訳部70は、対訳記憶部52に記憶されている対訳を用いて、選択受付部60により選択が受け付けられた文を翻訳する(ステップS108)。翻訳部70は、例えば、日本語文112を英語文212に翻訳する。
 続いて、取得部75は、次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す日本語及び英語の文を対訳記憶部52から取得する(ステップS110)。なお、取得部75による次発話候補取得処理の詳細は、後述する。
 続いて、表示制御部82は、選択受付部60により選択が受け付けられた文、選択受付部60により選択が受け付けられた文の翻訳結果、日本語文の次発話の候補、及び英語文の次発話の候補を表示部10に表示させる(ステップS112)。表示制御部82は、例えば、図9に示すような画面を表示部10に表示させる。そして、ステップS112が終了すると、ステップS102へ戻る。
 一方、ステップS102において、音声が入力された場合(ステップS102でYes)、認識部90は、入力受付部85により受け付けられた音声を認識し、認識した音声の文字列を生成する(ステップS114)。
 続いて、検索部95は、認識部90に認識された文と類似する文を対訳記憶部52から検索する(ステップS116)。
 続いて、表示制御部82は、認識部90の認識結果、及び検索部95により検索された類似文を表示部10に表示させる(ステップS118)。表示制御部82は、例えば、図10に示すような画面を表示部10に表示させる。
 続いて、選択受付部60は、表示部10に表示されている候補の中から次発話の選択を待ち(ステップS120でNo)、選択が確認されると(ステップS120でYes)、ステップS106へ進む。
 図12は、第1実施形態の翻訳装置1で行われる次発話候補取得処理の流れの一例を示すフローチャートである。
 まず、取得部75は、選択受付部60により選択された文が対訳記憶部52に記憶されているか否か確認する(ステップS200)。
 選択された文が対訳記憶部52に記憶されている場合(ステップS200でYes)、取得部75は、選択された文を前発話文に設定する(ステップS202)。
 一方、選択された文が対訳記憶部52に記憶されていない場合(ステップS200でNo)、検索部95は、選択された文との類似度が最も高い文を対訳記憶部52から検索し、検索された文を前発話文に設定する(ステップS204)。
 続いて、取得部75は、選択受付部60により選択された文と、選択受付部60により選択された文の翻訳結果とを対応付けて対訳記憶部52に対訳として追加する(ステップS206)。
 続いて、取得部75は、次発話テーブルを参照し、前発話文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す前発話文と同一言語の文を取得する。即ち、取得部75は、ID1及び言語種別1が前発話文に一致し、かつ言語種別1と言語種別2とが一致するID2の文を、頻度が高い順に所定数の範囲内で対訳記憶部52から取得し、候補1に追加する(ステップS208)。
 続いて、取得部75は、次発話テーブルを参照し、前発話文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す前発話文と異なる言語の文を取得する。即ち、取得部75は、ID1及び言語種別1が前発話文に一致し、かつ言語種別1と言語種別2とが異なるID2の文を、頻度が高い順に所定数の範囲内で対訳記憶部52から取得し、候補2に追加する(ステップS210)。
 続いて、取得部75は、候補1に追加した文が所定数に満たない場合、前発話文と言語が一致する文を頻度が高い順に所定数の範囲になるまで対訳記憶部52から取得し、候補1に追加する(ステップS212)。
 続いて、取得部75は、候補2に追加した文が所定数に満たない場合、前発話文と言語が異なる文を頻度が高い順に所定数の範囲になるまで対訳記憶部52から取得し、候補2に追加する(ステップS214)。
 以上のように第1実施形態では、対訳を構成する複数の第1言語及び第2言語の文をそれぞれ識別する第1識別情報と、第1識別情報が示す文の次発話として過去に対訳から選択された文を識別する第2識別情報とを対応付けた次発話テーブルを用いて、次発話の候補を取得する。従って第1実施形態によれば、翻訳装置1の使用を重ねても対話履歴のデータ量などは増加しないため、低コストで利用者の次発話を予測することができる。
 特に第1実施形態では、第1識別情報が示す文の次発話として第2識別情報が示す文の選択された頻度が高い順に次発話の候補を取得するため、次発話としてユーザに選択される可能性の高いものを優先的に表示することができる。
(第2実施形態)
 第2実施形態では、意味カテゴリ辞書を用いて類似文を検索する例について説明する。以下では、第1実施形態との相違点の説明を主に行い、同様の機能を有する構成要素については、同様の名称・符号を付し、その説明を省略する。
 図13は、第2実施形態の翻訳装置1001の構成の一例を示すブロック図である。図13に示す翻訳装置1001は、記憶部1050に意味カテゴリ辞書記憶部1056が含まれる点、検索部1095の処理内容、及び対訳記憶部1052に記憶されている対訳が第1実施形態の翻訳装置1と相違する。
 図14は、意味カテゴリ辞書記憶部1056に記憶されている意味カテゴリ辞書の一例を示す図である。図14に示すように、意味カテゴリ辞書記憶部1056は、単語と当該単語の意味カテゴリとを対応付けた意味カテゴリ辞書を記憶する。
 図13に戻り、検索部1095は、意味カテゴリ辞書を参照して、認識部90により認識された文字列に類似する文を対訳記憶部1052から検索する。
 図15は、第2実施形態の検索部1095の検索の詳細を示すフローチャートである。
 検索部1095は、意味カテゴリ辞書を参照して、認識部90により認識された文字列を複数の単語に分割する(ステップS300)。つまり、検索部1095は、認識部90により認識された文字列の形態素解析を行う。
 続いて、検索部1095は、分割した単語それぞれの意味カテゴリを求める(ステップS302)。具体的には、入力受付部85により受け付けられた音声が日本語の場合、意味カテゴリ辞書を参照して、認識部90により認識された日本語の文字列を分割した単語それぞれの意味カテゴリを求める。同様に、入力受付部85により受け付けられた音声が
英語の場合、意味カテゴリ辞書を参照して、認識部90により認識された英語の文字列を分割した単語それぞれの意味カテゴリを求める。
 ここで、対訳記憶部1052について説明する。対訳記憶部1052は、対訳を構成する日本語文、英語文それぞれに意味カテゴリを対応付けて記憶する。図16は、対訳記憶部1052に記憶されている対訳を構成する日本語文の一例を示す図である。図16に示す例では、対訳を構成する日本語文それぞれに意味カテゴリが対応付けられている。図17は、対訳記憶部1052に記憶されている対訳を構成する英語文の一例を示す図である。図17に示す例では、対訳を構成する英語文それぞれに意味カテゴリが対応付けられている。例えば、図16及び図17において、日本語文120や英語文220には、「挨拶」という意味カテゴリが対応付けられ、日本語の単語161や英語の単語261には、「衣服」という意味カテゴリが対応付けられている。なお、対訳を構成する日本語文、英語文への意味カテゴリの付与は、図15に示すフローチャートのステップS300、S302の処理により行うことができる。
 図15に戻り、続いて、検索部1095は、分割した単語それぞれの意味カテゴリと、対訳記憶部1052に記憶されている文を構成する複数の単語それぞれの意味カテゴリとを比較して、認識部90により認識された文字列に類似する文を検索する(ステップS304)。具体的には、入力受付部85により受け付けられた音声が日本語の場合、検索部1095は、日本語の文字列を分割した単語それぞれの意味カテゴリと、図16に示すような、対訳記憶部1052に記憶されている日本語文を構成する複数の単語それぞれの意味カテゴリとを比較して、認識部90により認識された日本語の文字列に類似する日本語文を検索する。同様に、入力受付部85により受け付けられた音声が英語の場合、検索部1095は、英語の文字列を分割した単語それぞれの意味カテゴリと、図17に示すような、対訳記憶部1052に記憶されている英語文を構成する複数の単語それぞれの意味カテゴリとを比較して、認識部90により認識された英語の文字列に類似する英語文を検索する。例えば、検索部1095は、数式(3)に示すDice係数、数式(4)に示すJaccard係数、又は数式(5)に示すコサイン係数などを用いて、文同士の類似度を算出する。
 例えば、図16に示す日本語文171には、「頭・目鼻・顔」と「意識・感覚」という意味カテゴリが対応付けられ、日本語文172には、「頭・目鼻・顔」と「意識・感覚」という意味カテゴリが対応付けられ、日本語文173には、「衣服」と「包摂」という意味カテゴリが対応付けられている。
 この場合、日本語文171と日本語文172の類似度、及び日本語文171と日本語文173の類似度は、数式(3)を用いて計算すると、以下の通りである。なお以下では、日本語文171を文1、日本語文172を文2、日本語文173を文3としている。
 σ(文1,文2)=2*(e(頭・目鼻・顔,文1)*e(頭・目鼻・顔,文2)+e(意識・感覚,文1)*e(意識・感覚,文2))/((e(頭・目鼻・顔,文1)+e(意識・感覚,文1))+(e(頭・目鼻・顔,文2)+e(意識・感覚,文2)))=2*(1*1+1*1)/((1+1)+(1+1))=1
 σ(文1,文3)=2*(e(頭・目鼻・顔,文1)*e(頭・目鼻・顔,文2) +e(意識・感覚,文1)*e(意識・感覚,文2)+e(衣服,文1)*e(衣服,文2)+e(包摂,文1)*e(包摂,文2))/((e(頭・目鼻・顔,文1))+e(意識・感覚,文1))+(e(衣服,文2)+e(包摂,文2)))=2*(1*0+1*0+0*1+0*1)/((1+1)+(1+1))=0
 この結果、σ(文1,文2)=1であるため、日本語文171と日本語文172とは類似する。一方、σ(文1,文3)=0であるため、日本語文171と日本語文173とは類似しない。なお、e(x,s)は、文sに意味カテゴリxが存在する場合に1、存在しない場合に0を出力する関数である。
 以上のように、意味カテゴリ辞書を用いても類似文を検索することができる。なお、文が疑問か肯定かという情報も文の類似度を算出する上で重要であるため、このような情報を用いて、類似度計算を行うようにしてもよい。
(ハードウェア構成)
 図18は、第1、2実施形態の翻訳装置1、1001のハードウェア構成の一例を示すブロック図である。図18に示すように、第1、2の実施の形態の翻訳装置1、1001は、CPU901と、ROM、RAM、及びHDDなどの記憶装置902と、ユーザの音声を入力するマイク909と、入力された音声をAD変換するAD装置908と、翻訳結果などを音声に変換するDA装置910と、音声を出力するスピーカ911と、キーボード、マウス、又はペンなどの入力装置905と、入力装置905を制御する入力コントローラ904と、ディスプレイなどの表示装置907と、表示装置907を制御する出力コントローラ906と、各モジュールを接続するバス903とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
 第1、2実施形態の翻訳装置1、1001で実行される翻訳プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。また、第1、2実施形態の翻訳装置1、1001で実行される翻訳プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
 第1、2実施形態の翻訳装置1、1001で実行される翻訳プログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、CPUがHDDから翻訳プログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
(変形例)
 なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
 例えば、検索部95、1095が類似文を検索する場合、一般的に、対訳記憶部52、1052に記憶されている文のうち次発話候補として取得部75により取得された文を優先することが望ましい。このため、検索部95、1095は、対訳記憶部52、1052
に記憶されている文のうち取得部75により取得された文の優先度を上げて、認識部90に認識された文字列に類似する文を対訳記憶部52、1052から検索するようにしてもよい。
 具体的には、入力受付部85により受け付けられた音声が日本語の場合、検索部95、1095は、対訳記憶部52、1052に記憶されている日本語文のうち取得部75により取得された日本語文の優先度を上げて、日本語の文字列に類似する日本語文を対訳記憶部52、1052から検索する。同様に、入力受付部85により受け付けられた音声が英語の場合、検索部95、1095は、対訳記憶部52、1052に記憶されている英語文のうち取得部75により取得された英語文の優先度を上げて、英語の文字列に類似する英語文を対訳記憶部52、1052から検索する。
 なお、例えば、数式(6)を用いることで、次発話候補として取得された文を優先することができる。
Figure JPOXMLDOC01-appb-M000006
 但し、0<α<1である。
 以上のように、本発明にかかる翻訳装置、及びプログラムは、異なる言語を母語とするユーザ同士のコミュニケーションの支援に有用である。
 1、1001 翻訳装置
 10 表示部
 11、21 マイク
 12、22 ディスプレイ
 13、23 タッチペン
 14、24 スピーカ
 20 選択部
 30 入力部
 40 音声出力部
 50、1050 記憶部
 52、1052 対訳記憶部
 54 次発話テーブル記憶部
 60 選択受付部
 65 更新部
 70 翻訳部
 75 取得部
 80 出力制御部
 82 表示制御部
 84 音声制御部
 85 入力受付部
 90 認識部
 95、1095 検索部
 901 CPU
 902 記憶装置
 903 バス
 904 入力コントローラ
 905 入力装置
 906 出力コントローラ
 907 表示装置
 908 AD装置
 909 マイク
 910 DA装置
 911 スピーカ
 1056 意味カテゴリ辞書記憶部

Claims (6)

  1.  意味内容が同義の第1言語の文及び第2言語の文を対応付けた対訳と、前記対訳のIDとを、対応付けて複数記憶する対訳記憶部と、
     選択された前記第1言語の第1文を、前記対訳を用いて前記第2言語に翻訳する翻訳部と、
     前記IDを有し、前記IDが示す前記対訳に含まれる前記第1言語の文か前記第2言語の文かを識別する第1識別情報と、前記第1識別情報が示す文の次発話として過去に前記対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する次発話テーブル記憶部と、
     前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた前記第2識別情報が示す文である次発話候補を前記対訳記憶部から取得する取得部と、
     前記第1文、前記第1文の翻訳結果、及び前記次発話候補を表示する表示部と、
     前記次発話候補の選択を受け付ける選択受付部と、
     を備え、
     前記翻訳部は、選択された前記次発話候補が前記第1言語の場合、前記対訳を用いて前記第2言語に翻訳し、選択された前記次発話候補が前記第2言語の場合、前記対訳を用いて前記第1言語に翻訳することを特徴とする翻訳装置。
  2.  前記次発話テーブル記憶部は、更に、前記第1識別情報が示す文の次発話として前記第2識別情報が示す文が選択された頻度を示す頻度情報を前記次発話テーブルに対応付けて記憶し、
     前回選択を受け付けた文の前記第1識別情報と前記第1文の前記第2識別情報とに対応付けられた前記頻度情報を更新する更新部を更に備え、
     前記取得部は、前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた複数の前記第2識別情報それぞれが示す前記第1言語の文である前記第1言語の次発話候補を前記頻度情報が示す頻度が高い順に所定数の範囲内で前記対訳記憶部から取得するとともに、前記第1文の前記第1識別情報に対応付けられた複数の前記第2識別情報それぞれが示す前記第2言語の文である前記第2言語の次発話候補を前記頻度情報が示す頻度が高い順に所定数の範囲内で前記対訳記憶部から取得することを特徴とする請求項1に記載の翻訳装置。
  3.  前記第1言語又は前記第2言語の発話の音声の入力を受け付ける入力受付部と、
     前記音声が前記第1言語の場合、前記音声を認識して前記第1言語の第1文字列を生成し、前記音声が前記第2言語の場合、前記音声を認識して前記第2言語の第2文字列を生成する認識部と、
     前記音声が前記第1言語の場合、前記第1文字列に類似する前記第1言語の文を前記対訳記憶部から検索し、前記音声が前記第2言語の場合、前記第2文字列に類似する前記第2言語の文を前記対訳記憶部から検索する検索部と、を更に備え、
     前記表示部は、前記音声が前記第1言語の場合、前記第1文字列及び検索された前記第1言語の文を前記第1文の前記第1言語の次発話候補として表示し、前記音声が前記第2言語の場合、前記第2文字列及び検索された前記第2言語の文を前記第1文の前記第2言語の次発話候補として表示することを特徴とする請求項1に記載の翻訳装置。
  4.  単語と前記単語の意味カテゴリとを対応付けた意味カテゴリ辞書を記憶する意味カテゴリ辞書記憶部を更に備え、
     前記検索部は、前記音声が前記第1言語の場合、前記第1文字列を構成する複数の単語それぞれの意味カテゴリと、前記対訳記憶部に記憶されている前記第1言語の文を構成する複数の単語それぞれの意味カテゴリとを比較して、前記第1文字列に類似する前記第1言語の文を検索し、前記音声が前記第2言語の場合、前記第2文字列を構成する複数の単語それぞれの意味カテゴリと、前記対訳記憶部に記憶されている前記第2言語の文を構成する複数の単語それぞれの意味カテゴリとを比較して、前記第2文字列に類似する前記第2言語の文を検索することを特徴とする請求項3に記載の翻訳装置。
  5.  前記検索部は、前記音声が前記第1言語の場合、前記対訳記憶部に記憶されている前記第1言語の文のうち前記取得部により取得された前記第1言語の文の優先度を上げて、前記第1文字列に類似する前記第1言語の文を前記対訳記憶部から検索し、前記音声が前記第2言語の場合、前記対訳記憶部に記憶されている前記第2言語の文のうち前記取得部により取得された前記第2言語の文の優先度を上げて、前記第2文字列に類似する前記第2言語の文を前記対訳記憶部から検索することを特徴とする請求項3に記載の翻訳装置。
  6.  選択された前記第1言語の第1文を、意味内容が同義の第1言語の文及び第2言語の文を対応付けた対訳と前記対訳のIDとを対応付けて複数記憶する対訳記憶部の前記対訳を用いて前記第2言語に翻訳する翻訳部と、
     前記IDを有し、前記IDが示す前記対訳に含まれる前記第1言語の文か前記第2言語の文かを識別する第1識別情報と、前記第1識別情報が示す文の次発話として過去に前記対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する次発話テーブル記憶部の前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた前記第2識別情報が示す文である次発話候補を前記対訳記憶部から取得する取得部と、
     前記第1文、前記第1文の翻訳結果、及び前記次発話候補を表示する表示部と、
     前記次発話候補の選択を受け付ける選択受付部と、
     してコンピュータを機能させ、
     前記翻訳部は、選択された前記次発話候補が前記第1言語の場合、前記対訳を用いて前記第2言語に翻訳し、選択された前記次発話候補が前記第2言語の場合、前記対訳を用いて前記第1言語に翻訳することを特徴とする翻訳プログラム。
PCT/JP2009/066677 2009-09-25 2009-09-25 翻訳装置、及びプログラム WO2011036769A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2009/066677 WO2011036769A1 (ja) 2009-09-25 2009-09-25 翻訳装置、及びプログラム
JP2011532847A JP5221768B2 (ja) 2009-09-25 2009-09-25 翻訳装置、及びプログラム
US13/413,791 US8583417B2 (en) 2009-09-25 2012-03-07 Translation device and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066677 WO2011036769A1 (ja) 2009-09-25 2009-09-25 翻訳装置、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/413,791 Continuation US8583417B2 (en) 2009-09-25 2012-03-07 Translation device and computer program product

Publications (1)

Publication Number Publication Date
WO2011036769A1 true WO2011036769A1 (ja) 2011-03-31

Family

ID=43795540

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/066677 WO2011036769A1 (ja) 2009-09-25 2009-09-25 翻訳装置、及びプログラム

Country Status (3)

Country Link
US (1) US8583417B2 (ja)
JP (1) JP5221768B2 (ja)
WO (1) WO2011036769A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010450A1 (ja) * 2012-07-09 2014-01-16 独立行政法人情報通信研究機構 音声処理システム及び端末装置
EP2784693A4 (en) * 2011-11-22 2015-07-29 Nec Casio Mobile Comm Ltd TRANSLATION DEVICE, TRANSLATION SYSTEM, TRANSLATION METHOD AND PROGRAM
JP2018026098A (ja) * 2016-08-09 2018-02-15 パナソニックIpマネジメント株式会社 識別制御方法及び識別制御装置
US10311147B2 (en) 2016-03-14 2019-06-04 Kabushiki Kaisha Toshiba Machine translation apparatus and machine translation method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5666937B2 (ja) 2011-02-16 2015-02-12 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US9189476B2 (en) * 2012-04-04 2015-11-17 Electronics And Telecommunications Research Institute Translation apparatus and method thereof for helping a user to more easily input a sentence to be translated
US20160283469A1 (en) * 2015-03-25 2016-09-29 Babelman LLC Wearable translation device
US20170097930A1 (en) * 2015-10-06 2017-04-06 Ruby Thomas Voice language communication device and system
US11238226B2 (en) * 2018-11-15 2022-02-01 Nuance Communications, Inc. System and method for accelerating user agent chats

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030187A (ja) * 2001-07-18 2003-01-31 Nec Corp 自動通訳システム、会話学習装置、自動通訳装置及びその方法並びにそのプログラム
JP2006012179A (ja) * 2005-07-19 2006-01-12 Sony Corp 自然言語処理装置および自然言語処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105220A (ja) 1993-09-30 1995-04-21 Hitachi Ltd 会話翻訳装置
JPH0877176A (ja) * 1994-09-07 1996-03-22 Hitachi Ltd 外国語翻訳装置
US20060025091A1 (en) * 2004-08-02 2006-02-02 Matsushita Electric Industrial Co., Ltd Method for creating and using phrase history for accelerating instant messaging input on mobile devices
WO2006040969A1 (ja) 2004-10-08 2006-04-20 Matsushita Electric Industrial Co., Ltd. 対話支援装置
US20070073745A1 (en) * 2005-09-23 2007-03-29 Applied Linguistics, Llc Similarity metric for semantic profiling

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030187A (ja) * 2001-07-18 2003-01-31 Nec Corp 自動通訳システム、会話学習装置、自動通訳装置及びその方法並びにそのプログラム
JP2006012179A (ja) * 2005-07-19 2006-01-12 Sony Corp 自然言語処理装置および自然言語処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2784693A4 (en) * 2011-11-22 2015-07-29 Nec Casio Mobile Comm Ltd TRANSLATION DEVICE, TRANSLATION SYSTEM, TRANSLATION METHOD AND PROGRAM
WO2014010450A1 (ja) * 2012-07-09 2014-01-16 独立行政法人情報通信研究機構 音声処理システム及び端末装置
JP2014016475A (ja) * 2012-07-09 2014-01-30 National Institute Of Information & Communication Technology 音声処理システム及び端末装置
GB2518318A (en) * 2012-07-09 2015-03-18 Nat Inst Inf & Comm Tech Speech processing system and terminal device
CN104488027A (zh) * 2012-07-09 2015-04-01 独立行政法人情报通信研究机构 声音处理系统以及终端装置
US9824687B2 (en) 2012-07-09 2017-11-21 National Institute Of Information And Communications Technology System and terminal for presenting recommended utterance candidates
US10311147B2 (en) 2016-03-14 2019-06-04 Kabushiki Kaisha Toshiba Machine translation apparatus and machine translation method
JP2018026098A (ja) * 2016-08-09 2018-02-15 パナソニックIpマネジメント株式会社 識別制御方法及び識別制御装置

Also Published As

Publication number Publication date
US20120221323A1 (en) 2012-08-30
US8583417B2 (en) 2013-11-12
JPWO2011036769A1 (ja) 2013-02-14
JP5221768B2 (ja) 2013-06-26

Similar Documents

Publication Publication Date Title
JP5221768B2 (ja) 翻訳装置、及びプログラム
JP4791984B2 (ja) 入力された音声を処理する装置、方法およびプログラム
JP6013951B2 (ja) 環境音検索装置、環境音検索方法
JP5141695B2 (ja) 記号挿入装置および記号挿入方法
JP3848319B2 (ja) 情報処理方法及び情報処理装置
JP3962763B2 (ja) 対話支援装置
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
JP4987682B2 (ja) 音声チャットシステム、情報処理装置、音声認識方法およびプログラム
US20090204401A1 (en) Speech processing system, speech processing method, and speech processing program
JP5561123B2 (ja) 音声検索装置と音声検索方法
JP2009139862A (ja) 音声認識装置及びコンピュータプログラム
Abushariah et al. Phonetically rich and balanced text and speech corpora for Arabic language
CN104750677A (zh) 语音传译装置、语音传译方法及语音传译程序
JP5073024B2 (ja) 音声対話装置
US20110119052A1 (en) Speech recognition dictionary creating support device, computer readable medium storing processing program, and processing method
JP5611270B2 (ja) 単語分割装置、及び単語分割方法
JP2010231149A (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
HaCohen-Kerner et al. Language and gender classification of speech files using supervised machine learning methods
KR20190030970A (ko) 음성-텍스트 변환 장치
JP4986301B2 (ja) 音声認識処理機能を用いたコンテンツ検索装置、プログラム及び方法
JP7257010B2 (ja) 検索支援サーバ、検索支援方法及びコンピュータプログラム
US12118313B2 (en) Information processing device, information processing method, and computer program product
JP2009271785A (ja) 情報提供方法及び装置及びコンピュータ読み取り可能な記録媒体
JP2009129405A (ja) 感情推定装置、事例感情情報生成装置、及び感情推定プログラム
JP2019135529A (ja) 編集支援装置、編集支援方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09849800

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011532847

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09849800

Country of ref document: EP

Kind code of ref document: A1