JP5604574B1 - Object generation device, method, and program - Google Patents
Object generation device, method, and program Download PDFInfo
- Publication number
- JP5604574B1 JP5604574B1 JP2013190655A JP2013190655A JP5604574B1 JP 5604574 B1 JP5604574 B1 JP 5604574B1 JP 2013190655 A JP2013190655 A JP 2013190655A JP 2013190655 A JP2013190655 A JP 2013190655A JP 5604574 B1 JP5604574 B1 JP 5604574B1
- Authority
- JP
- Japan
- Prior art keywords
- input
- unit
- text
- model
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザが、入力が容易なインタフェースにより生成したオブジェクトについて、対話的にオブジェクトを編集することができる。
【解決手段】対話テキスト解析部526により、入力された単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、初期入力とに基づいて、対話入力が表わす編集操作を判別し、モデル編集部528により、判別された編集操作に基づいて、生成したオブジェクトモデルを編集する。
【選択図】図12A user can interactively edit an object generated by an interface that allows easy input.
An interactive text analysis unit includes at least one word input to an output of an object model generated in response to an initial input that is at least one of text and speech including the input word. The editing operation represented by the dialog input is determined based on the dialog input that is text and voice and the initial input, and the generated object model is edited by the model editing unit 528 based on the determined editing operation.
[Selection] Figure 12
Description
本発明は、オブジェクト生成装置、方法、及びプログラムに係り、特に、オブジェクトモデルを生成するオブジェクト生成装置、方法、及びプログラムに関する。 The present invention relates to an object generation device, method, and program, and more particularly, to an object generation device, method, and program for generating an object model.
先行技術では、音声によるテキスト検索や画像検索が多くなされている(非特許文献11)。 In the prior art, many text searches and image searches are performed by voice (Non-patent Document 11).
しかしながら、テキスト検索や画像検索の出力は、コンピュータ中の画像出力に留まる等、実世界出力とは全く異なっている。 However, text search and image search outputs are completely different from real world outputs, such as being limited to image output in a computer.
また、音声から物体が出力される、ということはこれまで提案されていない。ユーザが非常に容易なインタフェースから、欲しいものを出力する際において、これは必要な技術である。 Moreover, it has not been proposed so far that an object is output from voice. This is a necessary technique for the user to output what he wants from a very easy interface.
本発明は、上記の事情を鑑みてなされたもので、ユーザが、入力が容易なインタフェースにより生成したオブジェクトについて、対話的にオブジェクトを編集することができるオブジェクト生成装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an object generation device, method, and program that allow a user to interactively edit an object generated using an interface that allows easy input. For the purpose.
上記の目的を達成するために第1の発明に係るオブジェクト生成装置は、入力された単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、前記初期入力とに基づいて、前記対話入力が表わす編集操作を判別する対話テキスト解析部と、前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集するモデル編集部と、を含んで構成されている。 In order to achieve the above object, an object generating apparatus according to a first aspect of the present invention is input to an output of an object model generated corresponding to an initial input that is at least one of text and speech including an input word. In addition, a dialog text analysis unit that determines an editing operation represented by the dialog input based on the dialog input including text and sound including at least one word and the initial input, and the dialog text analysis unit A model editing unit that edits the generated object model based on an editing operation.
第2の発明に係るオブジェクト生成方法は、対話テキスト解析部と、モデル編集部とを含むオブジェクト生成装置におけるオブジェクト生成方法であって、前記対話テキスト解析部は、入力された単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、前記初期入力とに基づいて、前記対話入力が表わす編集操作を判別し、前記モデル編集部は、前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集する。 An object generation method according to a second aspect of the present invention is an object generation method in an object generation apparatus including a dialog text analysis unit and a model editing unit, wherein the dialog text analysis unit includes text and speech including input words. The dialogue input based on the dialogue input which is text and speech including at least one word and is input to the output of the object model generated corresponding to the initial input which is at least one of the dialogue input The model editing unit edits the generated object model based on the editing operation determined by the dialog text analysis unit.
第3の発明に係るオブジェクト生成装置は、入力された2つ以上の単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、前記初期入力とに基づいて、前記対話入力の前記少なくとも1つの単語の各々と前記初期入力の前記2つ以上の単語の各々との間の意味的なつながりやすさを用いて、前記初期入力の前記2つ以上の単語から、編集対象を表す単語を選択する単語選択部と、前記対話入力の前記少なくとも1つの単語と、前記単語選択部によって選択された単語とに基づいて、前記対話入力が表わす編集操作を判別する対話テキスト解析部と、前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集するモデル編集部と、を含んで構成されている。 According to a third aspect of the present invention, there is provided an object generation device that receives at least one input from an output of an object model generated corresponding to an initial input that is at least one of text and speech including two or more input words. A meaning between each of the at least one word of the dialogue input and each of the two or more words of the initial input based on the dialogue input that is text and speech including one word and the initial input A word selection unit that selects a word representing an editing object from the two or more words of the initial input, the at least one word of the dialog input, and the word selection unit Based on the selected word, a dialog text analysis unit for determining an editing operation represented by the dialog input, and the editing operation determined by the dialog text analysis unit. Based on, it is configured to include a, a model editing unit for editing the object model described above generated.
第4の発明に係るオブジェクト生成方法は、単語選択部と、対話テキスト解析部と、モデル編集部とを含むオブジェクト生成装置におけるオブジェクト生成方法であって、前記単語選択部は、入力された2つ以上の単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、前記初期入力とに基づいて、前記対話入力の前記少なくとも1つの単語の各々と前記初期入力の前記2つ以上の単語の各々との間の意味的なつながりやすさを用いて、前記初期入力の前記2つ以上の単語から、編集対象を表す単語を選択し、前記対話テキスト解析部は、前記対話入力の前記少なくとも1つの単語と、前記単語選択部によって選択された単語とに基づいて、前記対話入力が表わす編集操作を判別し、前記モデル編集部は、前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集する。 An object generation method according to a fourth aspect of the present invention is an object generation method in an object generation apparatus including a word selection unit, a dialog text analysis unit, and a model editing unit, wherein the word selection unit includes two input Dialog input that is text and speech including at least one word, input to the output of the object model generated corresponding to the initial input that is at least one of text and speech including the word, and the initial input The two of the initial inputs using a semantic ease of connection between each of the at least one word of the dialog input and each of the two or more words of the initial input. From the above words, a word representing an edit target is selected, and the dialog text analysis unit selects the at least one word of the dialog input and the word selection. The editing operation represented by the dialog input is determined based on the word selected by the dialog input, and the model editing unit edits the generated object model based on the editing operation determined by the dialog text analysis unit. .
また、第3の発明は、前記対話入力に基づいて、予め定められた複数の編集操作から、少なくとも1つの編集操作候補を抽出する操作候補抽出部を更に含み、前記単語選択部は、前記操作候補抽出部によって抽出された前記少なくとも1つの編集操作候補を表す単語の各々と、前記初期入力の前記2つ以上の単語の各々との間についての単語間の共起関係を用いて、前記初期入力の前記2つ以上の単語から、前記編集対象を表す単語を選択してもよい。 The third invention further includes an operation candidate extraction unit that extracts at least one editing operation candidate from a plurality of predetermined editing operations based on the dialogue input, and the word selection unit includes the operation Using the co-occurrence relationship between words for each of the words representing the at least one editing operation candidate extracted by the candidate extraction unit and each of the two or more words of the initial input, the initial You may select the word showing the said edit object from the said two or more words of input.
また、第1及び第3の発明は、前記初期入力に対応して生成したオブジェクトモデルを3次元オブジェクトモデルとしてもよい。 In the first and third inventions, an object model generated corresponding to the initial input may be a three-dimensional object model.
また、第1及び第3の発明は、入力された単語を含むテキスト及び音声の少なくとも一方が、前記初期入力及び前記対話入力の何れであるかを判定する初期対話判定部を更に含み、前記対話テキスト解析部は、前記初期対話判定部によって前記対話入力であると判定された場合に、前記対話入力が表わす編集操作を判別してもよい。 In addition, the first and third inventions further include an initial dialog determining unit that determines whether at least one of text and speech including an input word is the initial input or the dialog input, and the dialog The text analysis unit may determine an editing operation represented by the dialog input when the initial dialog determination unit determines that the input is the dialog input.
また、第1及び第3の発明は、前記モデル編集部により編集されたオブジェクトモデルに基づいて、3次元の造形物を形成する3次元造形部を更に含んでもよい。 In addition, the first and third inventions may further include a three-dimensional modeling unit that forms a three-dimensional modeled object based on the object model edited by the model editing unit.
第5の発明に係るプログラムは、コンピュータを、上記のオブジェクト生成装置の各部として機能させるためのプログラムである。 A program according to a fifth invention is a program for causing a computer to function as each unit of the object generation device.
本発明のオブジェクト生成装置、方法、及びプログラムによれば、ユーザが、入力が容易なインタフェースにより生成したオブジェクトについて、対話的にオブジェクトを編集することができる、という効果が得られる。 According to the object generation device, method, and program of the present invention, there is an effect that a user can interactively edit an object generated by an interface that allows easy input.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[第1の実施の形態]
<システム構成>
本発明の第1の実施の形態に係る3次元オブジェクト生成装置100は、入力されたテキストから、3Dオブジェクトモデルを紐づけ、さらにそれを変形する処理を行う。この3次元オブジェクト生成装置100は、CPUと、RAMと、後述する3次元オブジェクト生成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。図1に示すように、3次元オブジェクト生成装置100は、入力部10と、演算部20と、モデル出力部30とを備えている。
[First Embodiment]
<System configuration>
The three-dimensional object generation device 100 according to the first embodiment of the present invention performs processing for associating a 3D object model from the input text and further transforming it. The three-dimensional object generation device 100 is composed of a computer including a CPU, a RAM, and a ROM that stores a program for executing a three-dimensional object generation processing routine to be described later. It is configured. As illustrated in FIG. 1, the three-dimensional object generation device 100 includes an input unit 10, a calculation unit 20, and a model output unit 30.
入力部10は、キーボード等により、3Dオブジェクトモデルに関するテキスト入力を受け付ける。例えば、「10cmの黄色い車」というテキスト入力を受け付ける。 The input unit 10 receives text input related to the 3D object model using a keyboard or the like. For example, a text input “10 cm yellow car” is accepted.
演算部20は、テキスト解析部21、3Dオブジェクトモデルデータベース22、モデル取得部23、及びモデル変形部24を備えている。 The calculation unit 20 includes a text analysis unit 21, a 3D object model database 22, a model acquisition unit 23, and a model deformation unit 24.
テキスト解析部21は、入力されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現(例えば「車」)を同定する。 The text analysis unit 21 identifies a text expression (for example, “car”) related to the target 3D object model from the input text.
例えば、3Dオブジェクトモデルデータベース22に登録されている3Dオブジェクトモデルのオブジェクト名と入力されたテキストとの単純マッチングを行って、対象となる3Dオブジェクトモデルに関するテキスト表現を同定する。あるいは、入力されたテキストに対する形態素解析を行い、形態素解析の結果に基づいて、品詞が名詞であるものや、物体についての固有表現を抽出して、対象となる3Dオブジェクトモデルに関するテキスト表現として同定する。 For example, simple matching between the object name of the 3D object model registered in the 3D object model database 22 and the input text is performed to identify the text expression related to the target 3D object model. Alternatively, the morphological analysis is performed on the input text, and based on the result of the morphological analysis, the part of speech is a noun or the specific expression about the object is extracted and identified as the text expression regarding the target 3D object model. .
また、テキスト解析部21は、入力されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現に付加される属性値(例えば「10cmの」「黄色い」「5個の」等)を同定する。属性値としては、色、大きさ、個数など、オブジェクトに関するものであれば特に種類を問わない。 Further, the text analysis unit 21 identifies attribute values (for example, “10 cm”, “yellow”, “5”, etc.) to be added to the text expression related to the target 3D object model from the input text. The attribute value is not particularly limited as long as it relates to the object, such as color, size, and number.
属性値の同定方法については、テキストから属性値を同定するための予め定められた正規表現(例えば、「/.+c?m/,/.+個/」)を用いて同定する方法であってもよい。また、固有表現抽出により、3Dオブジェクトモデルに関するテキスト表現を同定する場合であって、固有表現のクラスに長さや色が予め定義されている場合(例えば、関根の拡張固有表現定義等)には、抽出された固有表現のクラスに定義されている長さや色を、属性値として同定してもよい。また、複数のオブジェクトに関するテキスト表現が入力される場合(例えば、「赤い車と緑の家」)などにおいては、テキストに対して係り受け解析を行い、係り受け解析の結果を用いて、3Dオブジェクトモデルに関するテキスト表現毎に、属性値を同定してもよい(例えば、「車」←赤、「家」←緑)。 The attribute value is identified by using a regular expression (for example, “/.+c?m/,/.+pieces/”) for identifying the attribute value from text. May be. In addition, when a text expression related to a 3D object model is identified by extraction of a specific expression, and the length and color are defined in advance in the specific expression class (for example, extended specific expression definition of Sekine), The length and color defined in the extracted specific expression class may be identified as the attribute value. In addition, when text expressions related to a plurality of objects are input (for example, “red car and green house”), dependency analysis is performed on the text, and the result of dependency analysis is used to generate a 3D object. An attribute value may be identified for each text expression related to the model (for example, “car” ← red, “house” ← green).
3Dオブジェクトモデルデータベース22は、複数の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルのオブジェクト名と対応付けて記憶している。ここで、3Dオブジェクトモデルとは、コンピュータ上などにおける仮想的な3Dモデルである。3Dオブジェクトモデルデータベース22では、複数の3Dオブジェクトモデルのデータが、予め定義された階層構造に従って記憶されている。なお、オブジェクト名は、オブジェクトを示す名詞や固有名詞以外であってもよく、任意のラベルであってもよい。 The 3D object model database 22 stores a plurality of 3D object model data in association with object names of the 3D object model. Here, the 3D object model is a virtual 3D model on a computer or the like. In the 3D object model database 22, data of a plurality of 3D object models are stored according to a predefined hierarchical structure. The object name may be other than a noun or proper noun indicating the object, or may be an arbitrary label.
モデル取得部23は、テキスト解析部21によって同定された3Dオブジェクトモデルに関するテキスト表現を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名と紐づけ、当該オブジェクト名の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得する(「車」→大きさが3mで色が赤の車オブジェクト)。 The model acquisition unit 23 associates the text representation related to the 3D object model identified by the text analysis unit 21 with the object name stored in the 3D object model database 22, and converts the 3D object model data of the object name to 3D Obtained from the object model database 22 (“car” → car object with a size of 3 m and a red color).
ここで、同定されたテキスト表現とオブジェクト名との紐づけは、オブジェクト名をクラスラベルと見なした階層的な分類問題として解くことによって行われる。階層の定義はあらかじめ決められたものを仮定する。また、分類モデルについては、テキスト表現とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、階層毎の分類モデルを学習しておけばよい。 Here, the association between the identified text representation and the object name is performed by solving as a hierarchical classification problem in which the object name is regarded as a class label. The hierarchy definition is assumed to be predetermined. As for the classification model, it is only necessary to prepare a plurality of learning data in which a text expression and a class label (object name) are associated with each other on a one-to-one basis, and learn a classification model for each layer based on the learning data. .
図2に概念図を示す。例えば、テキスト表現「車」、「4輪」、「ぶーぶー」の各々は、図2において、はじめ「乗り物オブジェクト」に分類された後、「車オブジェクト」へと分類され、全て車オブジェクトに紐づけられる。 FIG. 2 shows a conceptual diagram. For example, each of the text expressions “car”, “four wheels”, and “blue” is classified as “vehicle object” in FIG. 2 and then classified as “car object”. It is tied to.
分類処理の結果、リーフオブジェクトモデルに至らず、該当するリーフオブジェクトモデルとしての3Dオブジェクトモデルが存在しないと判明した場合は、ひとつ上の階層のオブジェクトに分類する。 As a result of the classification process, when it is determined that the 3D object model as the corresponding leaf object model does not exist because the leaf object model is not reached, the object is classified into the object of the next higher level.
例えば、「蕎麦」に該当するリーフオブジェクトモデルとしての3Dオブジェクトが存在しない場合、上位クラスの”麺料理”オブジェクトに分類する。 For example, when a 3D object as a leaf object model corresponding to “Soba” does not exist, it is classified into a higher class “noodle dish” object.
モデル変形部24は、モデル取得部23で得られた3Dオブジェクトモデルを、テキスト解析部21で同定した属性値にしたがって変形させて、図3に示すように、変形後3Dオブジェクトモデル(例えば、大きさが10cmで黄色の車オブジェクトモデル)を、モデル出力部30により出力する。ここで、変形後3Dオブジェクトモデルとは、テキストの内容に従い変形を施した、コンピュータ上などにおける仮想的な3Dモデルである。 The model deforming unit 24 deforms the 3D object model obtained by the model acquiring unit 23 according to the attribute value identified by the text analyzing unit 21, and, as shown in FIG. The model output unit 30 outputs a yellow car object model having a length of 10 cm. Here, the post-deformation 3D object model is a virtual 3D model on a computer or the like that has been deformed according to the content of the text.
例えば、テキスト解析部21で同定した属性値が大きさ又は色に関する属性値である場合には、大きさ又は色に関する属性値を、VRML(Virtual Reality Modeling Language:仮想現実モデリング言語)形式で記述して、3Dオブジェクトを変形させる。また、テキスト解析部21で同定した属性値が、模様(テクスチャ)に関する属性値である場合には、テクスチャを画像的に編集等して3Dオブジェクトを変形させる。また、テキスト解析部21で同定した属性値が、個数に関する属性値である場合には、複数個のオブジェクトを、CAD編集ソフトウェアのコピーアンドペースト機能を使って、3Dオブジェクトを変形させる。 For example, when the attribute value identified by the text analysis unit 21 is an attribute value related to size or color, the attribute value related to size or color is described in VRML (Virtual Reality Modeling Language) format. To deform the 3D object. If the attribute value identified by the text analysis unit 21 is an attribute value related to a pattern (texture), the 3D object is deformed by editing the texture imagewise. If the attribute value identified by the text analysis unit 21 is an attribute value related to the number, the 3D object is deformed from a plurality of objects using the copy and paste function of the CAD editing software.
<3次元オブジェクト生成装置の作用>
次に、第1の実施の形態に係る3次元オブジェクト生成装置100の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を含むテキストが、3次元オブジェクト生成装置100に入力されると、3次元オブジェクト生成装置100によって、図4に示す3次元オブジェクト生成処理ルーチンが実行される。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 100 according to the first embodiment will be described. First, when text including a text representation and attribute values relating to a 3D object model to be generated is input to the 3D object generation device 100, the 3D object generation device 100 executes a 3D object generation processing routine shown in FIG. Is done.
まず、ステップS101において、入力されたテキストを解析し、3Dオブジェクトモデルに関するテキスト表現及び属性値を同定する。 First, in step S101, the input text is analyzed to identify the text representation and attribute values related to the 3D object model.
そして、ステップS102において、上記ステップS101で同定した3Dオブジェクトモデルに関するテキスト表現を、予め用意した分類モデル及び階層構造に従って、3Dオブジェクトモデルデータベース22の3Dオブジェクトモデルのオブジェクト名の何れかに分類し、分類されたオブジェクト名に対応する3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得する。 In step S102, the text representation related to the 3D object model identified in step S101 is classified into one of the object names of the 3D object model in the 3D object model database 22 according to the classification model and hierarchical structure prepared in advance, and classified. Data of the 3D object model corresponding to the object name is acquired from the 3D object model database 22.
次のステップS103では、上記ステップS102で取得した3Dオブジェクトモデルのデータを、上記ステップS101で同定した属性値に従って変形させる。ステップS104において、上記ステップS103で得られた変形後3Dオブジェクトモデルを、モデル出力部30により出力して、3次元オブジェクト生成処理ルーチンを終了する。 In the next step S103, the data of the 3D object model acquired in step S102 is transformed according to the attribute value identified in step S101. In step S104, the transformed 3D object model obtained in step S103 is output by the model output unit 30, and the three-dimensional object generation processing routine is terminated.
以上説明したように、第1の実施の形態に係る3次元オブジェクト生成装置によれば、キーボード等で入力されたテキストを解析し、実物体として仮想的に3次元オブジェクトを出力するため、ユーザが非常に容易なインタフェースから、3次元オブジェクトを得ることができる。また、入力されたテキストによって、3次元オブジェクトを変形させることができる。 As described above, according to the three-dimensional object generation device according to the first embodiment, the text input by the keyboard or the like is analyzed and the three-dimensional object is virtually output as a real object. A three-dimensional object can be obtained from a very easy interface. Further, the three-dimensional object can be deformed by the input text.
なお、上記の実施の形態では、階層構造に従って、3Dオブジェクトモデルに関するテキスト表現を、オブジェクト名に分類する場合を例に説明したが、これに限定されるものではない。3Dオブジェクトモデルに関するテキスト表現を、一階層に分類されたオブジェクト名に分類してもよい。 In the above-described embodiment, the description has been given of the case where the text expression related to the 3D object model is classified into the object name according to the hierarchical structure, but the present invention is not limited to this. The text representation related to the 3D object model may be classified into object names classified into one hierarchy.
また、後述する第2の実施の形態と同様に、3次元造形部によって、変形後3Dオブジェクトモデルを表わす3次元造形物を形成するようにしてもよい。 Moreover, you may make it form the three-dimensional modeling thing showing a 3D object model after a deformation | transformation by a three-dimensional modeling part similarly to 2nd Embodiment mentioned later.
また、後述する第2の実施の形態と同様に、音声入力を受け付けて、音声認識により入力されたテキストを解析するようにしてもよい。 Further, as in a second embodiment to be described later, a voice input may be received and a text input by voice recognition may be analyzed.
[第2の実施の形態]
<システム構成>
次に、第2の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Second Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to the second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第2の実施の形態では、音声入力を受け付けている点と、変形後3Dオブジェクトモデルに基づいて、3次元の造形物を形成している点とが、第1の実施の形態と異なっている。 The second embodiment is different from the first embodiment in that a voice input is received and a three-dimensional structure is formed based on the post-deformation 3D object model. .
図5に示すように、第2の実施の形態に係る3次元オブジェクト生成装置200は、入力部10、演算部220と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 5, the three-dimensional object generation device 200 according to the second embodiment includes an input unit 10, a calculation unit 220, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。例えば、「10cmの黄色い車」という音声入力を受け付ける。 The input unit 10 receives a voice input related to the 3D object model. For example, a voice input “10 cm yellow car” is accepted.
3次元造形部230は、演算部220による制御に従って、3次元の造形物を形成する。なお、3次元造形部230としては、従来既知の3次元プリンタを用いればよいため、詳細な説明を省略する。また、出力する方法は、実世界に3次元物体を構成できるものであれば、3次元プリンタをはじめ、特に種類は問わない。 The three-dimensional modeling unit 230 forms a three-dimensional modeled object according to control by the calculation unit 220. As the three-dimensional modeling unit 230, a conventionally known three-dimensional printer may be used, and detailed description thereof is omitted. The output method is not particularly limited as long as it can form a three-dimensional object in the real world.
演算部220は、音声認識部221、テキスト解析部21、3Dオブジェクトモデルデータベース22、モデル取得部23、モデル変形部24、及び3次元造形制御部225を備えている。 The calculation unit 220 includes a speech recognition unit 221, a text analysis unit 21, a 3D object model database 22, a model acquisition unit 23, a model deformation unit 24, and a 3D modeling control unit 225.
音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「10cmの黄色い車」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。 The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “10 cm yellow car”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used.
テキスト解析部21は、音声認識部221によって変換されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現(例えば、「車」)及び属性値(例えば、「10cmの」、「黄色い」)を同定する。 The text analysis unit 21 identifies a text expression (for example, “car”) and attribute values (for example, “10 cm”, “yellow”) regarding the target 3D object model from the text converted by the speech recognition unit 221. To do.
モデル取得部23は、テキスト解析部21によって同定された3Dオブジェクトモデルに関するテキスト表現を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名と紐づけ、当該オブジェクト名の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得し、図6に示すように、モデル出力部30により、取得した3Dオブジェクトモデルを出力する。 The model acquisition unit 23 associates the text representation related to the 3D object model identified by the text analysis unit 21 with the object name stored in the 3D object model database 22, and converts the 3D object model data of the object name to 3D Obtained from the object model database 22 and the obtained 3D object model is output by the model output unit 30 as shown in FIG.
モデル変形部24は、モデル取得部23で得られた3Dオブジェクトモデルを、テキスト解析部21で同定した属性値にしたがって変形させて、図3に示すように、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。また、モデル変形部24は、後段の3次元造形を高速化するため、変形後3Dオブジェクトモデルを意図的に分割する。例えば、変形後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向を、3次元空間上の任意の軸方向から求め、求めた軸方向に、変形後3DオブジェクトモデルをN分割する。このとき、分割によりオブジェクト数が2倍よりも大きくならないように分割する。また、分割されたオブジェクトに対して、接着面が一意に定まるようマーキングしておく。 The model deformation unit 24 deforms the 3D object model obtained by the model acquisition unit 23 according to the attribute value identified by the text analysis unit 21, and outputs the deformed 3D object model as a model output as shown in FIG. Output by the unit 30. The model deforming unit 24 intentionally divides the post-deformation 3D object model in order to speed up the subsequent three-dimensional modeling. For example, the axial direction in which the size of the post-deformation 3D object model is the shortest is obtained from an arbitrary axial direction in the three-dimensional space, and the post-deformation 3D object model is divided into N in the obtained axial direction. At this time, the division is performed so that the number of objects does not become larger than double. In addition, marking is performed on the divided objects so that the adhesion surface is uniquely determined.
3次元造形制御部225は、モデル変形部24によって得られた変形後3Dオブジェクトモデルを表わす3次元の造形物(図7参照)が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。 The three-dimensional modeling control unit 225 controls the three-dimensional modeling unit 230 such that a three-dimensional modeled object (see FIG. 7) representing the post-deformation 3D object model obtained by the model deforming unit 24 is formed. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.
<3次元オブジェクト生成装置の作用>
次に、第2の実施の形態に係る3次元オブジェクト生成装置200の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を表わす音声が、3次元オブジェクト生成装置200に入力されると、3次元オブジェクト生成装置200によって、図8に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 200 according to the second embodiment will be described. First, when a voice representing a text representation and an attribute value related to a 3D object model to be generated is input to the 3D object generation device 200, the 3D object generation processing routine shown in FIG. Is done. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
まず、ステップS201において、入力された音声に対して音声認識処理を行い、音声をテキストに変換する。そして、ステップS101において、上記ステップS201で得られたテキストを解析し、3Dオブジェクトモデルに関するテキスト表現及び属性値を同定する。 First, in step S201, speech recognition processing is performed on the input speech to convert the speech into text. In step S101, the text obtained in step S201 is analyzed to identify text representations and attribute values related to the 3D object model.
そして、ステップS102において、上記ステップS101で同定した3Dオブジェクトモデルに関するテキスト表現を、3Dオブジェクトモデルデータベース22の3Dオブジェクトモデルのオブジェクト名の何れかに分類し、分類されたオブジェクト名に対応する3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得し、モデル出力部30により出力する。 In step S102, the text representation related to the 3D object model identified in step S101 is classified into any of the object names of the 3D object model in the 3D object model database 22, and the 3D object model corresponding to the classified object name is classified. Are obtained from the 3D object model database 22 and output by the model output unit 30.
次のステップS103では、上記ステップS102で取得した3Dオブジェクトモデルのデータを、上記ステップS101で同定した属性値に従って変形させて、モデル出力部30により出力する。 In the next step S103, the data of the 3D object model acquired in step S102 is transformed according to the attribute value identified in step S101 and output by the model output unit 30.
そして、ステップS204において、上記ステップS103で得られた変形後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御して、3次元オブジェクト生成処理ルーチンを終了する。 In step S204, the three-dimensional modeling unit 230 is controlled to finish the three-dimensional object generation processing routine so that the three-dimensional model representing the post-deformation 3D object model obtained in step S103 is formed. To do.
以上説明したように、第2の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを変形させることができる。 As described above, according to the three-dimensional object generation device according to the second embodiment, in order to analyze a text input by speech recognition and form a three-dimensional structure in real space as a real object, A user can obtain a three-dimensional structure from an extremely easy interface. In addition, a three-dimensional object can be transformed by text input by voice recognition.
また、変形後3Dオブジェクトモデルを、分割によりオブジェクト数が2倍よりも大きくならないように、かつ、当該変形後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向にN分割することにより、当該変形後3Dオブジェクトモデルを最小分割することができる。 Further, the post-deformation 3D object model is divided N times in the axial direction in which the size of the post-deformation 3D object model is the shortest, so that the number of objects does not become larger than twice due to the division. The 3D object model can be divided into minimum parts.
[第3の実施の形態]
<システム構成>
次に、第3の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Third Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to a third embodiment will be described. In addition, about the part which becomes the same structure as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第3の実施の形態では、既に3Dオブジェクトモデルが存在している状況において、音声入力を受け付けている点が、第2の実施の形態と異なっている。 The third embodiment is different from the second embodiment in that a voice input is accepted in a situation where a 3D object model already exists.
図9に示すように、第3の実施の形態に係る3次元オブジェクト生成装置300は、入力部10、演算部320と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 9, the three-dimensional object generation device 300 according to the third embodiment includes an input unit 10, a calculation unit 320, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルのデータの入力を受け付けると共に、当該3Dオブジェクトモデルの属性値に関する音声入力を受け付ける。例えば、車の3Dオブジェクトモデルのデータの入力を受け付けると共に、「車を黄色くして」という音声入力を受け付ける。また、モデル出力部30は、入力された3Dオブジェクトモデルを出力する。 The input unit 10 receives an input of 3D object model data and also receives an audio input related to an attribute value of the 3D object model. For example, an input of data of a 3D object model of a car is accepted, and a voice input “turn the car yellow” is accepted. The model output unit 30 outputs the input 3D object model.
演算部220は、音声認識部221、テキスト解析部321、モデル変形部324、及び3次元造形制御部225を備えている。 The calculation unit 220 includes a voice recognition unit 221, a text analysis unit 321, a model deformation unit 324, and a three-dimensional modeling control unit 225.
テキスト解析部321は、音声認識部221によって変換されたテキストから、対象となる3Dオブジェクトモデルに関する属性値を同定する。 The text analysis unit 321 identifies attribute values related to the target 3D object model from the text converted by the speech recognition unit 221.
モデル変形部324は、入力された3Dオブジェクトモデルを、テキスト解析部321で同定した属性値にしたがって変形させて、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。 The model deforming unit 324 deforms the input 3D object model according to the attribute value identified by the text analyzing unit 321, and outputs the deformed 3D object model by the model output unit 30.
<3次元オブジェクト生成装置の作用>
次に、本発明の第3の実施の形態に係る3次元オブジェクト生成装置300の作用について説明する。まず、3Dオブジェクトモデルのデータが、3次元オブジェクト生成装置300に入力されると、モデル出力部30により、入力された3Dオブジェクトモデルが出力される。そして、3Dオブジェクトモデルに関する属性値を表わす音声が、3次元オブジェクト生成装置300に入力されると、3次元オブジェクト生成装置300によって、図10に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 300 according to the third embodiment of the present invention will be described. First, when 3D object model data is input to the three-dimensional object generation device 300, the input 3D object model is output by the model output unit 30. Then, when sound representing attribute values related to the 3D object model is input to the 3D object generation device 300, the 3D object generation processing routine shown in FIG. In addition, about the process similar to 2nd Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
まず、ステップS201において、入力された音声に対して音声認識処理を行い、音声をテキストに変換する。そして、ステップS301において、上記ステップS201で得られたテキストを解析し、3Dオブジェクトモデルに関する属性値を同定する。 First, in step S201, speech recognition processing is performed on the input speech to convert the speech into text. In step S301, the text obtained in step S201 is analyzed to identify attribute values related to the 3D object model.
そして、ステップS302において、入力された3Dオブジェクトモデルのデータを、上記ステップS301で同定した属性値に従って変形させて、モデル出力部30により出力する。 In step S302, the input 3D object model data is transformed according to the attribute value identified in step S301, and is output by the model output unit 30.
そして、ステップS204において、上記ステップS302で得られた変形後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御して、3次元オブジェクト生成処理ルーチンを終了する。 In step S204, the three-dimensional modeling unit 230 is controlled to finish the three-dimensional object generation processing routine so that a three-dimensional model representing the post-deformation 3D object model obtained in step S302 is formed. To do.
以上説明したように、第3の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、3次元オブジェクトを変形させて、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。 As described above, according to the three-dimensional object generation device according to the third embodiment, the text input by speech recognition is analyzed, the three-dimensional object is deformed, and the three-dimensional object in the real space is analyzed. In order to form a three-dimensional structure, the user can obtain a three-dimensional structure from an extremely easy interface.
なお、上記の実施の形態では、音声入力を受け付ける場合を例に説明したが、これに限定されるものではなく、テキスト入力を受け付けるようにしてもよい。 In the above embodiment, the case where voice input is accepted has been described as an example. However, the present invention is not limited to this, and text input may be accepted.
また、変形後3Dオブジェクトモデルを表わす3次元造形物を形成せずに、変形後3Dオブジェクトモデルをモデル出力部により出力するだけであってもよい。 Further, the post-deformation 3D object model may be simply output by the model output unit without forming the three-dimensional structure representing the post-deformation 3D object model.
[第4の実施の形態]
<システム構成>
次に、第4の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Fourth Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to a fourth embodiment will be described. In addition, about the part which becomes the same structure as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第4の実施の形態では、音声入力のまま、3Dオブジェクトモデルのオブジェクト名に分類している点が、第2の実施の形態と異なっている。 The fourth embodiment is different from the second embodiment in that it is classified into the object name of the 3D object model with the voice input.
図11に示すように、第4の実施の形態に係る3次元オブジェクト生成装置400は、入力部10、演算部420と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 11, the three-dimensional object generation device 400 according to the fourth embodiment includes an input unit 10, a calculation unit 420, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。 The input unit 10 receives a voice input related to the 3D object model.
演算部420は、音声解析部421、3Dオブジェクトモデルデータベース22、モデル取得部423、モデル変形部24、及び3次元造形制御部225を備えている。 The calculation unit 420 includes a voice analysis unit 421, a 3D object model database 22, a model acquisition unit 423, a model deformation unit 24, and a three-dimensional modeling control unit 225.
音声解析部421は、入力された音声から、対象となる3Dオブジェクトモデルに関するオブジェクト名及び属性値を同定する。 The voice analysis unit 421 identifies the object name and attribute value related to the target 3D object model from the input voice.
具体的には、入力された音声信号を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に分類する。分類モデルについては、音声信号とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。 Specifically, the input audio signal is classified into object names stored in the 3D object model database 22. As for the classification model, a plurality of learning data in which audio signals and class labels (object names) are associated one-to-one are prepared, and the classification model is learned based on the learning data.
また、入力された音声信号を、3Dオブジェクトモデルに関する属性値に分類する。分類モデルについては、音声信号とクラスラベル(属性値)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。 Also, the input audio signal is classified into attribute values related to the 3D object model. As for the classification model, a plurality of learning data in which a speech signal and a class label (attribute value) are associated one-to-one are prepared, and the classification model is learned based on the learning data.
モデル取得部423は、音声解析部421によって同定されたオブジェクト名の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得し、モデル出力部30により、取得した3Dオブジェクトモデルを出力する。 The model acquisition unit 423 acquires the 3D object model data of the object name identified by the voice analysis unit 421 from the 3D object model database 22, and the model output unit 30 outputs the acquired 3D object model.
モデル変形部24は、モデル取得部423で得られた3Dオブジェクトモデルを、音声解析部421で同定した属性値にしたがって変形させて、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。 The model deformation unit 24 deforms the 3D object model obtained by the model acquisition unit 423 according to the attribute value identified by the speech analysis unit 421, and outputs the deformed 3D object model by the model output unit 30.
なお、第4の実施の形態に係る3次元オブジェクト生成装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。 Note that the other configurations and operations of the three-dimensional object generation device according to the fourth embodiment are the same as those of the second embodiment, and thus the description thereof is omitted.
このように、音声入力を解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。 In this way, since the voice input is analyzed and the three-dimensional structure is formed in the real space as a real object, the user can obtain the three-dimensional structure from a very easy interface.
[第5の実施の形態]
<システム構成>
次に、第5の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。
[Fifth Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to a fifth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
上記の第1の実施の形態〜第4の実施の形態では、テキスト入力又は音声による3次元オブジェクトの出力が可能となっている。しかし、その出力は1発話の内容に依存し、出力に対しさらに編集を施すということには対応していない。 In the first to fourth embodiments described above, it is possible to output a three-dimensional object by text input or voice. However, the output depends on the content of one utterance and does not correspond to further editing the output.
第5の実施の形態では、初期テキストに基づいて生成された3Dオブジェクトモデルを、対話テキストに基づいて編集する点が、第1の実施の形態と異なっている。 The fifth embodiment is different from the first embodiment in that the 3D object model generated based on the initial text is edited based on the dialogue text.
図12に示すように、第5の実施の形態に係る3次元オブジェクト生成装置500は、入力部10、演算部520と、モデル出力部30とを備えている。 As illustrated in FIG. 12, the three-dimensional object generation device 500 according to the fifth embodiment includes an input unit 10, a calculation unit 520, and a model output unit 30.
入力部10は、キーボード等により、3Dオブジェクトモデルに関する初期テキストのテキスト入力を受け付ける。例えば、「10cmの黄色い車」という初期テキストのテキスト入力を受け付ける。また、入力部10は、編集操作に関する対話テキストのテキスト入力を受け付ける。例えば、「もっと薄く」という対話テキストのテキスト入力を受け付ける。また、入力部10は、終了処理に紐付けられた終了テキストのテキスト入力を受け付ける。例えば、「終了」というテキスト入力を受け付ける。ここで、初期テキストとは、はじめに3Dオブジェクトモデル及びその属性値を3次元オブジェクト生成装置500に指示する目的のテキストであり、対話テキストとは、既に得られた初期テキストの解析結果に基づいて得られた3Dオブジェクトモデルに対し、3次元オブジェクト生成装置500と対話的に編集を行う目的のテキストである。なお、初期テキストは1回目の入力において1度だけ与えられ、3Dオブジェクトモデルを出力した後のテキストはすべて対話テキスト又は終了テキストであるとする。また、初期テキストが初期入力の一例であり、対話テキストが対話入力の一例である。また、3Dオブジェクトモデルがオブジェクトモデルの一例である。 The input unit 10 receives a text input of an initial text related to the 3D object model using a keyboard or the like. For example, an initial text input of “10 cm yellow car” is accepted. The input unit 10 also accepts text input of interactive text related to editing operations. For example, a text input of a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a text input of an end text associated with the end process. For example, a text input “end” is accepted. Here, the initial text is text intended to instruct the 3D object model and its attribute value to the 3D object generation device 500 first, and the dialog text is obtained based on the analysis result of the initial text already obtained. This text is intended to be interactively edited with the 3D object generation apparatus 500 for the 3D object model that has been selected. Note that the initial text is given only once at the first input, and all the text after outputting the 3D object model is the dialog text or the end text. The initial text is an example of initial input, and the dialog text is an example of dialog input. A 3D object model is an example of an object model.
演算部20は、3Dオブジェクトモデルデータベース22、モデル取得部23、初期テキスト解析部521、モデル変形部524、対話テキスト解析部526及びモデル編集部528を備えている。 The calculation unit 20 includes a 3D object model database 22, a model acquisition unit 23, an initial text analysis unit 521, a model deformation unit 524, a dialog text analysis unit 526, and a model editing unit 528.
初期テキスト解析部521は、入力された初期テキストから、対象となる3Dオブジェクトモデルに関するテキスト表現(例えば「車」)を同定すると共に、入力されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現に付加される属性値(例えば「10cmの」「黄色い」「5個の」等)を同定する。 The initial text analysis unit 521 identifies a text representation (for example, “car”) related to the target 3D object model from the input initial text, and converts the text representation related to the target 3D object model from the input text. The attribute value to be added (for example, “10 cm”, “yellow”, “5”, etc.) is identified.
モデル変形部524は、テキスト解析部21で属性値が同定された場合、モデル取得部23で得られた3Dオブジェクトモデルを、テキスト解析部21で同定した属性値にしたがって変形させ、図3に示すように、変形後3Dオブジェクトモデルを、メモリ(図示省略)に記憶すると共に、モデル出力部30により出力する。 When the text analysis unit 21 identifies the attribute value, the model transformation unit 524 transforms the 3D object model obtained by the model acquisition unit 23 according to the attribute value identified by the text analysis unit 21 and is shown in FIG. As described above, the deformed 3D object model is stored in a memory (not shown) and is output by the model output unit 30.
モデル変形部524は、テキスト解析部21で属性値が同定されなかった場合、モデル取得部23で得られた3Dオブジェクトモデルを、メモリ(図示省略)に記憶すると共に、モデル出力部30により出力する。 When the text analysis unit 21 does not identify the attribute value, the model transformation unit 524 stores the 3D object model obtained by the model acquisition unit 23 in a memory (not shown) and outputs it from the model output unit 30. .
対話テキスト解析部526は、図13に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。また、対話テキスト解析部526は、入力された編集操作に関するテキストに基づいて、編集内容を同定し、モデル編集部528へ出力する。また、終了処理に紐付けられたテキストに基づいて、処理を終了させる通知をモデル編集部528へ出力する。 As shown in FIG. 13, the dialog text analysis unit 526 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576. Further, the dialog text analysis unit 526 identifies the editing content based on the input text relating to the editing operation, and outputs it to the model editing unit 528. In addition, based on the text associated with the end process, a notification to end the process is output to the model editing unit 528.
モデル編集部528は、メモリに記憶されている3Dオブジェクトモデルを読み出し、対話テキスト解析部526で同定した編集操作にしたがって編集し、編集後3Dオブジェクトモデルを、メモリ(図示省略)に記憶するとともに、モデル出力部30により出力する。なお、3Dオブジェクトモデルの編集は、モデル変形部524による3Dオブジェクトモデルの変形と同様に行えばよい。 The model editing unit 528 reads the 3D object model stored in the memory, edits it according to the editing operation identified by the dialog text analysis unit 526, stores the edited 3D object model in the memory (not shown), Output by the model output unit 30. The editing of the 3D object model may be performed in the same manner as the deformation of the 3D object model by the model deformation unit 524.
次に、図13に示す対話テキスト解析部526の構成について詳細に説明する。 Next, the configuration of the dialog text analysis unit 526 shown in FIG. 13 will be described in detail.
終了判定部550は、入力されたテキストが、終了処理に紐づけられた終了テキストであるか否かを判定する。具体的には、入力されたテキストが予め定められた終了処理に紐付けられたキーワードと一致するか否かを判定し、一致する場合には、終了テキストであると判定し、それ以外の場合には、対話テキストと判定する。なお、終了テキストが入力されたと判定された場合、処理の終了通知をモデル編集部528へ出力する。一方、対話テキストが入力されたと判定された場合、単語抽出部552の処理へ移行する。 The end determination unit 550 determines whether or not the input text is an end text associated with the end process. Specifically, it is determined whether or not the input text matches a keyword associated with a predetermined end process. If they match, it is determined that the input text is the end text, otherwise Is determined to be dialogue text. When it is determined that the end text has been input, a process end notification is output to the model editing unit 528. On the other hand, when it is determined that the dialogue text has been input, the process proceeds to the processing of the word extraction unit 552.
単語抽出部552は、終了判定部550において入力されたテキストが対話テキストと判定された場合、入力された対話テキストについて形態素解析を行い、連用詞(例えば、もっと)と編集操作を表す単語(例えば、薄く)の各々を抽出する。具体的には、一般的な系列ラベリング(HMMやCRF)を用いて、連用詞と編集操作を表す単語の各々を抽出する。なお、ルールベースで、連用詞と編集操作を表す単語の各々を抽出するようにしてもよい。 When the text input by the end determination unit 550 is determined to be a dialog text, the word extraction unit 552 performs a morphological analysis on the input dialog text, and uses a verb (for example, more) and a word (for example, a word representing an editing operation). , Thin) each. Specifically, each of the word representing the conjunction and the editing operation is extracted using general sequence labeling (HMM or CRF). In addition, you may make it extract each of the word which represents a conjunction and a editing operation by a rule base.
操作候補抽出部554は、単語抽出部552において抽出した編集操作を表す単語と、単語対操作変換用データベース570に記憶されている図14に示すような単語対操作変換表とに基づいて、入力された対話テキストが表す編集操作候補を抽出する。具体的には、例えば、単語抽出部552において抽出された編集操作を表す単語「薄く」が抽出された場合、単語対操作変換用データベース「薄く」という単語に対応付けられている編集操作候補「色操作」及び「形状操作(厚み変化)」の2つを、編集操作候補として抽出する。なお、編集操作候補として1つの編集操作候補が抽出された場合には、当該編集操作候補を、編集操作として同定する。 The operation candidate extraction unit 554 is input based on the word representing the editing operation extracted by the word extraction unit 552 and the word pair operation conversion table as shown in FIG. 14 stored in the word pair operation conversion database 570. The editing operation candidate represented by the dialogue text is extracted. Specifically, for example, when the word “light” representing the editing operation extracted by the word extraction unit 552 is extracted, the editing operation candidate “associated with the word“ light ”for the word-to-operation conversion database“ “Color operation” and “shape operation (thickness change)” are extracted as editing operation candidates. When one editing operation candidate is extracted as an editing operation candidate, the editing operation candidate is identified as an editing operation.
単語選択部556は、初期テキスト解析部521から入力される初期テキストの解析結果に複数の単語が含まれる場合、初期テキスト解析部521から入力される初期テキストの解析結果と、単語抽出部552において抽出された編集操作候補を表す単語と、自然文集合データベース572に記憶されている予め定められた自然文の文書集合とに基づいて、初期テキストに含まれる単語から、編集対象となる単語を選択する。なお、操作候補抽出部554において抽出された編集操作候補が1つである場合には、単語選択部556においての処理は行われない。 When a plurality of words are included in the analysis result of the initial text input from the initial text analysis unit 521, the word selection unit 556 determines the analysis result of the initial text input from the initial text analysis unit 521 and the word extraction unit 552. Select a word to be edited from words included in the initial text, based on the extracted word representing the editing operation candidate and a predetermined natural sentence document set stored in the natural sentence set database 572 To do. If there is one editing operation candidate extracted by the operation candidate extraction unit 554, processing in the word selection unit 556 is not performed.
具体的には、初期テキスト解析部521から入力される初期テキストの解析結果に複数の単語が含まれる場合(初期テキストが複数の単語を含む場合)、初期テキスト内の単語の各々と、単語抽出部552において抽出された編集操作を表す単語との間についての、自然文集合データベース572に記憶されている自然文の文書集合における単語間の共起関係(2つの単語が共起する文の数)を用いて、初期テキスト内の単語から、編集対象となる単語を選択する。具体的には、初期テキスト中に複数の単語「車」及び「赤」が存在する場合には、初期テキスト中の単語「車」と、単語抽出部552において抽出された編集操作を表す単語「薄い」との単語ペアを用いて、自然文集合データベース572に記憶されている文書集合における当該単語ペアが共起する文を検索して、検索結果に含まれる文の数を算出し、また、初期テキスト中の単語「赤」と、単語抽出部552において抽出された編集操作を表す単語「薄い」との単語ペアを用いて、自然文集合データベース572に記憶されている文書集合における当該単語ペアが共起する文を検索し、検索結果に含まれる文の数を算出する。そして、算出された文の数を比較し、共起する文の数が多い方の単語ペアに含まれる、初期テキスト中の単語を、編集対象となる単語として選択する。本実施の形態においては、例えば、単語「車」と単語「薄い」との単語ペアの共起頻度を1回、単語「赤」と単語「薄い」との単語ペアの共起頻度を100回として、単語「赤」を選択する。
また、単語選択部556は、初期テキストの解析結果に1つの単語のみが含まれる場合、当該単語を、編集対象となる単語として選択する。
Specifically, when the analysis result of the initial text input from the initial text analysis unit 521 includes a plurality of words (when the initial text includes a plurality of words), each of the words in the initial text, and word extraction The co-occurrence relationship between words in the natural sentence document set stored in the natural sentence set database 572 (the number of sentences in which two words co-occur) with respect to the word representing the editing operation extracted in the section 552 ) To select a word to be edited from words in the initial text. Specifically, when there are a plurality of words “car” and “red” in the initial text, the word “car” in the initial text and the word “representing the editing operation extracted by the word extraction unit 552”. Search for sentences in which the word pair co-occurs in the document set stored in the natural sentence set database 572 using the word pair “thin”, and calculate the number of sentences included in the search results; Using the word pair of the word “red” in the initial text and the word “light” representing the editing operation extracted by the word extraction unit 552, the word pair in the document set stored in the natural sentence set database 572 Is searched, and the number of sentences included in the search result is calculated. Then, the calculated number of sentences is compared, and a word in the initial text included in the word pair having the larger number of co-occurring sentences is selected as a word to be edited. In the present embodiment, for example, the co-occurrence frequency of the word pair of the word “car” and the word “thin” is once, and the co-occurrence frequency of the word pair of the word “red” and the word “thin” is 100 times. Select the word “red”.
In addition, when only one word is included in the analysis result of the initial text, the word selection unit 556 selects the word as a word to be edited.
操作順位付け部557は、単語選択部556において選択された単語と、操作候補抽出部554において抽出された2つ以上の編集操作候補と、単語抽出部552において抽出された編集操作を表す単語と、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表とに基づいて、編集操作候補の順位付けを行う。なお、操作候補抽出部554において抽出された編集操作候補が1つである場合には、操作順位づけ部556においての処理は行われない。 The operation ranking unit 557 includes a word selected by the word selection unit 556, two or more editing operation candidates extracted by the operation candidate extraction unit 554, and a word representing the editing operation extracted by the word extraction unit 552. The editing operation candidates are ranked based on the keyword-to-operation candidate correspondence table stored in the keyword-to-operation candidate correspondence database 574. Note that when there is one editing operation candidate extracted by the operation candidate extraction unit 554, processing in the operation ranking unit 556 is not performed.
具体的には、単語選択部556において選択された単語と、単語抽出部552において抽出された編集対象を表す単語とのペアに基づいて、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表を用いて、操作候補抽出部554において抽出された編集操作候補の各々が編集操作として適切か、順位付けを行う。具体的には、単語選択部556において選択された単語「赤」と単語抽出部552において抽出された編集操作を表す単語「薄い」のペア(あるいは単語「赤」のみ)が、操作候補抽出部554において抽出した編集操作候補「色操作」、及び「形状操作」のいずれと関連が深いかを、図15に示すようなキーワード対操作候補対応表を用いて順位付けする。図15のキーワード対操作候補対応表の例においては、単語「赤」と編集操作を表す単語「薄い」のペアに対し、色操作が編集操作として関係する度合いは、0.9であり、形状操作が編集操作として関係する度合いが0.1であることから、当該ペアは色操作と関係が深いとして、操作候補抽出部554において抽出された操作候補「色操作」を1位、「形状操作」を2位として順位付けし、1位の編集操作候補「色操作」を編集操作として同定する。 Specifically, based on the pair of the word selected by the word selection unit 556 and the word representing the edit target extracted by the word extraction unit 552, the keyword pair stored in the keyword pair operation candidate correspondence database 574 is stored. Using the operation candidate correspondence table, ranking is performed as to whether or not each of the editing operation candidates extracted by the operation candidate extraction unit 554 is appropriate as an editing operation. Specifically, a pair of the word “red” selected by the word selection unit 556 and the word “light” representing the editing operation extracted by the word extraction unit 552 (or only the word “red”) is an operation candidate extraction unit. Which of the editing operation candidates “color operation” and “shape operation” extracted in 554 is deeply related is ranked using a keyword-to-operation candidate correspondence table as shown in FIG. In the example of the keyword pair operation candidate correspondence table in FIG. 15, the degree that the color operation is related to the editing operation for the pair of the word “red” and the word “light” representing the editing operation is 0.9, Since the degree that the operation is related to the editing operation is 0.1, the pair is deeply related to the color operation, and the operation candidate “color operation” extracted by the operation candidate extraction unit 554 is ranked first, “shape operation” "Is ranked second, and the first editing operation candidate" color operation "is identified as the editing operation.
変化量算出部560は、単語抽出部552において抽出された連用詞を表す単語から変化量を算出する。具体的には、例えば、単語抽出部552において連用詞「もっと」が抽出された場合、連用詞「もっと」に対応する変化量を連用詞データベース576に記憶されている連用詞変化量表から抽出する。例えば、連用詞変化量表に「もっと」→2倍、「もう少し」→1.5倍が定義されている場合には、連用詞「もっと」に対応する変化量は2倍となる。 The change amount calculation unit 560 calculates the change amount from the word representing the conjunctions extracted by the word extraction unit 552. Specifically, for example, when the word “more” is extracted in the word extraction unit 552, the amount of change corresponding to the conjunction “more” is extracted from the conjunction particle change amount table stored in the conjunction particle database 576. To do. For example, when “more” → double and “more” → 1.5 times are defined in the conjunction particle change amount table, the variation corresponding to the conjunction “more” is doubled.
連結部558は、操作候補抽出部554又は操作順位付け部557において編集操作として同定された編集操作と、変化量算出部560において算出された変化量とを連結し、変化量を含む編集操作を同定し、モデル編集部528へ出力する。具体的には、例えば編集操作が「色操作」であり、かつ変化量算出部560において「2倍」が算出された場合、変形量を含む編集操作として、「色の彩度を2倍」を同定する。 The connecting unit 558 connects the editing operation identified as the editing operation by the operation candidate extracting unit 554 or the operation ranking unit 557 and the change amount calculated by the change amount calculating unit 560, and performs an edit operation including the change amount. Identify and output to the model editing unit 528. Specifically, for example, when the editing operation is a “color operation” and the change amount calculation unit 560 calculates “double”, the editing operation including the deformation amount is “double the color saturation”. Is identified.
単語対操作変換用データベース570には、特定の単語と関係を有する編集操作候補が定義されている図14に示すような単語対操作変換表が記憶されている。なお、単語対操作変換表は、人手で構築したものでもよいし、学習データ等から自動的に獲得したものでもよい。 The word pair operation conversion database 570 stores a word pair operation conversion table as shown in FIG. 14 in which editing operation candidates having a relationship with a specific word are defined. The word pair operation conversion table may be constructed manually or may be automatically obtained from learning data or the like.
自然文集合データベース572は、複数の自然文を含む文書の集合が記憶されている。 The natural sentence set database 572 stores a set of documents including a plurality of natural sentences.
キーワード対操作候補対応データベース574は、特定の単語ペアと関係を有する編集操作候補を定義しているキーワード対操作候補対応表が記憶されている。なお、キーワード対操作候補対応表は、人手で構築したものでもよいし、学習データ等から自動的に獲得したものでもよい。 The keyword-to-operation candidate correspondence database 574 stores a keyword-to-operation candidate correspondence table that defines editing operation candidates having a relationship with a specific word pair. The keyword-to-operation candidate correspondence table may be constructed manually or may be automatically obtained from learning data or the like.
連用詞データベース576は、特定の連用詞と変化量を定義している連用詞変化量表を記憶している。なお、連用詞変化量表は、人手で構築したものでもよいし、学習データ等から自動的に獲得したものでもよい。 The conjunction particle database 576 stores a conjunction particle change amount table defining specific conjunctions and change amounts. Note that the continuum change amount table may be constructed manually or automatically obtained from learning data or the like.
<3次元オブジェクト生成装置の作用>
次に、第5の実施の形態に係る3次元オブジェクト生成装置500の作用について説明する。まず、生成したい3Dオブジェクトモデルに関する初期テキストが、3次元オブジェクト生成装置500に入力されると、3次元オブジェクト生成装置500によって、図16及び図17に示す3次元オブジェクト編集処理ルーチンが実行される。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 500 according to the fifth embodiment will be described. First, when initial text relating to a 3D object model to be generated is input to the three-dimensional object generation device 500, the three-dimensional object generation device 500 executes a three-dimensional object editing processing routine shown in FIGS.
まず、ステップS501において、入力された初期テキストを解析し、3Dオブジェクトモデルに関するテキスト表現及び属性値を同定する。 First, in step S501, the input initial text is analyzed to identify the text representation and attribute values related to the 3D object model.
そして、ステップS102において、上記ステップS501で同定した3Dオブジェクトモデルに関するテキスト表現を、予め用意した分類モデル及び階層構造に従って、3Dオブジェクトモデルデータベース22の3Dオブジェクトモデルのオブジェクト名の何れかに分類し、分類されたオブジェクト名に対応する3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得する。 In step S102, the text representation related to the 3D object model identified in step S501 is classified into any of the object names of the 3D object model in the 3D object model database 22 according to the classification model and hierarchical structure prepared in advance, and classified. Data of the 3D object model corresponding to the object name is acquired from the 3D object model database 22.
次のステップS103では、上記ステップS102で取得した3Dオブジェクトモデルのデータを、上記ステップS501で同定した属性値に従って変形させる。ステップS104において、上記ステップS103で得られた変形後3Dオブジェクトモデルを、モデル出力部30により出力する。なお、上記ステップS101で属性値が同定されなかった場合には、上記ステップS102で取得した3Dオブジェクトモデルを、モデル出力部30により出力する。 In the next step S103, the data of the 3D object model acquired in step S102 is transformed according to the attribute value identified in step S501. In step S <b> 104, the model output unit 30 outputs the transformed 3D object model obtained in step S <b> 103. If no attribute value is identified in step S101, the model output unit 30 outputs the 3D object model acquired in step S102.
次に、ステップS502において、連用詞データベース576に記憶されている連用詞変化量表を読み込む。 Next, in step S502, the continuous verb change amount table stored in the continuous verb database 576 is read.
次に、ステップS504において、単語対操作変換用データベース570に記憶されている単語対操作変換表を読み込む。 In step S504, the word pair operation conversion table stored in the word pair operation conversion database 570 is read.
次に、ステップS508において、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表を読み込む。 In step S508, the keyword / operation candidate correspondence table stored in the keyword / operation candidate correspondence database 574 is read.
次に、ステップS510において、上記ステップS104で出力した変形後3Dオブジェクトモデル又は3Dオブジェクトモデル、あるいは後述するステップS528で出力した編集後3Dオブジェクトモデルに対して入力されるテキストを受け付ける。なお、テキストが受け付けられるまで、ステップS510において処理を待機する。 Next, in step S510, text input to the modified 3D object model or 3D object model output in step S104 or the edited 3D object model output in step S528 described later is received. Note that the process waits in step S510 until the text is accepted.
次に、ステップS512において、ステップS510で受け付けたテキストが終了テキストであるか否かの判定を行う。受け付けたテキストが終了テキストである場合には、処理を終了し、一方、受け付けたテキストが終了テキストでない場合には、受け付けたテキストが対話テキストであると判定し、ステップS514へ移行する。 Next, in step S512, it is determined whether or not the text received in step S510 is an end text. If the accepted text is an end text, the process is terminated. On the other hand, if the accepted text is not an end text, it is determined that the accepted text is a dialog text, and the process proceeds to step S514.
次に、ステップS514において、ステップS510で入力された対話テキストについて形態素解析を行い、連用詞(例えば、もっと)と編集操作を表す単語(例えば、薄く)の各々を抽出する。 Next, in step S514, a morphological analysis is performed on the dialog text input in step S510, and each of a conjunction (for example, more) and a word (for example, light) representing an editing operation are extracted.
次に、ステップS516において、ステップS514で抽出した編集操作を表す単語と、ステップS504で読み込んだ単語対操作変換表とに基づいて、入力された対話テキストが表す編集操作候補を抽出する。なお、抽出した編集操作候補が1つである場合には、当該編集操作候補を編集操作として同定する。 Next, in step S516, based on the word representing the editing operation extracted in step S514 and the word-to-operation conversion table read in step S504, editing operation candidates represented by the input dialogue text are extracted. If there is one extracted editing operation candidate, the editing operation candidate is identified as an editing operation.
次に、ステップS518において、ステップS501で解析した初期テキストの解析結果と、ステップS514で抽出した編集操作を表す単語と、自然文集合データベース572に記憶されている自然文の文書集合とに基づいて、初期テキストに含まれる単語から、編集対象となる単語を選択する。なお、ステップS516で抽出された編集操作候補が1つである場合には、当該ステップS518の処理は行われない。 Next, in step S518, based on the analysis result of the initial text analyzed in step S501, the word representing the editing operation extracted in step S514, and the natural sentence document set stored in the natural sentence set database 572. The word to be edited is selected from the words included in the initial text. If there is one editing operation candidate extracted in step S516, the process in step S518 is not performed.
次に、ステップS520において、ステップS518で選択した単語と、ステップS516で抽出した編集操作候補の各々と、ステップS514で抽出した編集操作を表す単語と、ステップS508で読み込んだキーワード対操作候補対応表とに基づいて、編集操作候補の順位付けを行う。なお、ステップS516で抽出された編集操作候補が1つである場合には、当該ステップS520の処理は行われない。また、1位となった編集操作候補を編集操作として同定する。 Next, in step S520, the word selected in step S518, each of the editing operation candidates extracted in step S516, the word representing the editing operation extracted in step S514, and the keyword-to-operation candidate correspondence table read in step S508 Based on the above, the editing operation candidates are ranked. If there is one editing operation candidate extracted in step S516, the processing in step S520 is not performed. Further, the editing operation candidate that is ranked first is identified as an editing operation.
次に、ステップS522において、ステップS514で抽出した連用詞と、ステップS502において読み込んだ連用詞変化量表とに基づいて、変化量を算出する。 Next, in step S522, the amount of change is calculated based on the conjunctions extracted in step S514 and the conjunctions change amount table read in step S502.
次に、ステップS524において、ステップS516又はステップS520で同定された編集操作と、ステップS522で算出された変化量を連結して、変化量を含む編集操作を同定する。 Next, in step S524, the editing operation identified in step S516 or step S520 and the change amount calculated in step S522 are connected to identify an editing operation including the change amount.
次に、ステップS526において、ステップS103で得られた変形後3Dオブジェクトモデル又は3Dオブジェクトモデル、あるいは前回の処理のステップS526で得られた編集後3Dオブジェクトモデルを、ステップS524で同定した編集操作に従って編集する。 Next, in step S526, the modified 3D object model or 3D object model obtained in step S103 or the edited 3D object model obtained in step S526 of the previous process is edited according to the editing operation identified in step S524. To do.
次に、ステップS528において、ステップS526において編集した編集後3Dオブジェクトモデルをモデル出力部30により出力し、ステップS510へ移行する。 Next, in step S528, the edited 3D object model edited in step S526 is output by the model output unit 30, and the process proceeds to step S510.
以上説明したように、第5の実施の形態に係る3次元オブジェクト生成装置によれば、キーボード等で入力された初期テキストを解析し、実物体として仮想的に3次元オブジェクトを出力するため、ユーザが非常に容易なインタフェースから、3次元オブジェクトを得ることができる。また、入力された初期テキストによって、3次元オブジェクトを変形させることができる。さらに、入力された対話テキストによって、初期テキスト、又は対話テキストにより得られた仮想的な3次元オブジェクトを編集することができる。 As described above, according to the three-dimensional object generation device according to the fifth embodiment, the initial text input with the keyboard or the like is analyzed, and the three-dimensional object is virtually output as a real object. A three-dimensional object can be obtained from a very easy interface. Further, the three-dimensional object can be deformed by the input initial text. Furthermore, the initial text or the virtual three-dimensional object obtained by the dialog text can be edited by the input dialog text.
また、対話テキストから、編集対象となる単語がどの編集操作に紐づいているかを同定/ランキングしたうえで、3次元オブジェクトに対する編集操作を同定することができる。 Further, it is possible to identify the editing operation for the three-dimensional object after identifying / ranking which editing operation is associated with the word to be edited from the dialogue text.
なお、上記の実施の形態では、階層構造に従って、3Dオブジェクトモデルに関するテキスト表現を、オブジェクト名に分類する場合を例に説明したが、これに限定されるものではない。3Dオブジェクトモデルに関するテキスト表現を、一階層に分類されたオブジェクト名に分類してもよい。 In the above-described embodiment, the description has been given of the case where the text expression related to the 3D object model is classified into the object name according to the hierarchical structure, but the present invention is not limited to this. The text representation related to the 3D object model may be classified into object names classified into one hierarchy.
また、後述する第6の実施の形態と同様に、3次元造形部によって、編集後3Dオブジェクトモデルを表わす3次元造形物を形成するようにしてもよい。 Moreover, you may make it form the three-dimensional modeling thing showing a 3D object model after editing by a three-dimensional modeling part similarly to 6th Embodiment mentioned later.
また、後述する第6の実施の形態と同様に、音声入力を受け付けて、音声認識により入力されたテキストを解析するようにしてもよい。 Further, as in a sixth embodiment to be described later, a voice input may be received and a text input by voice recognition may be analyzed.
また、対話テキストは、ユーザ側からの一方的な断続的発話として入力されてもよいし、システム側から何かしらのリアクションを間において入力されてもよい。 In addition, the dialog text may be input as a one-way intermittent utterance from the user side, or may be input in the middle of some reaction from the system side.
また、初期テキスト中の単語と、単語抽出部552において抽出された編集操作を表す単語との単語ペアを用いて、自然文の文書集合における当該単語ペアが共起する文を検索して、当該単語ペアが共起する文の数を算出する場合について説明したが、この限りでない。例えば、事前に初期テキスト中の特定の単語と、特定の編集操作を表す単語ペアの各々について、当該単語ペアが共起する文の数を求めておき、初期テキスト中の単語と、単語抽出部552において抽出された編集操作を表す単語との単語ペアが共起する文の数を取得するようにしてもよい。 Further, by using a word pair of a word in the initial text and a word representing an editing operation extracted by the word extraction unit 552, a sentence in which the word pair co-occurs in a natural sentence document set is searched, Although the case of calculating the number of sentences in which word pairs co-occur has been described, this is not restrictive. For example, for each of a specific word in the initial text and a word pair representing a specific editing operation, the number of sentences in which the word pair co-occurs is obtained in advance, and the word in the initial text and the word extraction unit The number of sentences in which word pairs with the word representing the editing operation extracted in 552 co-occur may be acquired.
また、後述する第9の実施の形態と同様に、入力されたテキストを受け付けて、初期テキストであるか、又は対話テキストであるかを判定するようにしてもよい。 Similarly to a ninth embodiment to be described later, an input text may be accepted to determine whether the text is an initial text or a dialog text.
[第6の実施の形態]
<システム構成>
次に、第6の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第5の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。
[Sixth Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to a sixth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-5th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第6の実施の形態では、音声入力を受け付けている点と、編集後3Dオブジェクトモデルに基づいて、3次元の造形物を形成している点とが、第5の実施の形態と異なっている。 The sixth embodiment is different from the fifth embodiment in that a voice input is accepted and a three-dimensional structure is formed based on the edited 3D object model. .
図18に示すように、第6の実施の形態に係る3次元オブジェクト生成装置600は、入力部10と、演算部620と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 18, the three-dimensional object generation device 600 according to the sixth embodiment includes an input unit 10, a calculation unit 620, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルに関する初期テキストを表す音声入力を受け付ける。例えば、「10cmの黄色い車」という初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。例えば、「もっと薄く」という対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。例えば、「終了」という終了テキストを表す音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルに関する初期テキストを表す音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話テキストを表す音声入力、又は、終了処理に関する終了テキストを表す音声入力とする。 The input unit 10 receives a voice input representing initial text related to the 3D object model. For example, a voice input representing an initial text “10 cm yellow car” is accepted. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. For example, a voice input representing a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a voice input representing an end text related to the end process. For example, a voice input representing an end text “end” is received. Note that the audio input input for the first time (before the output of the 3D object model) is an audio input representing the initial text related to the 3D object model, and the audio input input after outputting the 3D object model is related to the editing operation. It is assumed that the voice input represents a dialog text or the voice input representing the end text related to the end process.
演算部220は、音声認識部221、初期テキスト解析部521、3Dオブジェクトモデルデータベース22、モデル取得部23、モデル変形部524、3次元造形制御部225、対話テキスト解析部626、及びモデル編集部528を備えている。 The calculation unit 220 includes a voice recognition unit 221, an initial text analysis unit 521, a 3D object model database 22, a model acquisition unit 23, a model transformation unit 524, a 3D modeling control unit 225, a dialog text analysis unit 626, and a model editing unit 528. It has.
音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「10cmの黄色い車」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。なお、3Dオブジェクトモデルに関する初期テキストを表す音声入力についての音声認識結果は、初期テキスト解析部521へ出力され、編集操作又は終了処理に関する対話テキスト又は終了テキストを表す音声入力についての音声認識結果は、対話テキスト解析部626へ出力される。 The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “10 cm yellow car”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used. Note that the speech recognition result for the speech input representing the initial text related to the 3D object model is output to the initial text analysis unit 521, and the speech recognition result for the speech input representing the dialogue text or the termination text related to the editing operation or the termination process It is output to the dialog text analysis unit 626.
モデル編集部528は、メモリに記憶されている3Dオブジェクトモデル、変形後3Dオブジェクトモデル、又は編集後3Dオブジェクトモデルを読み出し、対話テキスト解析部526で同定した編集操作にしたがって編集して、編集後3Dオブジェクトモデルをメモリ(図示省略)に記憶するとともに、モデル出力部30により出力する。また、モデル編集部528は、後段の3次元造形を高速化するため、編集後3Dオブジェクトモデルを意図的に分割する。例えば、編集後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向を、3次元空間上の任意の軸方向から求め、求めた軸方向に、編集後3DオブジェクトモデルをN分割する。このとき、分割によりオブジェクト数が2倍よりも大きくならないように分割する。また、分割されたオブジェクトに対して、接着面が一意に定まるようマーキングしておく。なお、対話テキスト解析部526から処理を終了させる通知を受け付けた場合には、メモリに最終的に記憶されている3Dオブジェクトモデル、変形後3Dオブジェクトモデル、又は編集後3Dオブジェクトモデルを、3次元造形制御部225に出力する。 The model editing unit 528 reads out the 3D object model, the transformed 3D object model, or the edited 3D object model stored in the memory, and edits the edited 3D object model according to the editing operation identified by the dialog text analysis unit 526. The object model is stored in a memory (not shown) and output by the model output unit 30. Further, the model editing unit 528 intentionally divides the edited 3D object model in order to speed up the subsequent three-dimensional modeling. For example, the axial direction in which the size of the edited 3D object model is the shortest is obtained from an arbitrary axial direction in the three-dimensional space, and the edited 3D object model is divided into N in the obtained axial direction. At this time, the division is performed so that the number of objects does not become larger than double. In addition, marking is performed on the divided objects so that the adhesion surface is uniquely determined. When a notification to end the process is received from the dialog text analysis unit 526, the 3D object model, the modified 3D object model, or the edited 3D object model that is finally stored in the memory is converted into the three-dimensional modeling. Output to the control unit 225.
3次元造形制御部225は、モデル編集部528から入力された、3Dオブジェクトモデル、変形後3Dオブジェクトモデル、又は編集後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。 The three-dimensional modeling control unit 225 performs the three-dimensional modeling so that a three-dimensional model representing the 3D object model, the transformed 3D object model, or the edited 3D object model input from the model editing unit 528 is formed. The unit 230 is controlled. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.
対話テキスト解析部626は、図19に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。 As shown in FIG. 19, the dialog text analysis unit 626 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576.
<3次元オブジェクト生成装置の作用>
次に、第6の実施の形態に係る3次元オブジェクト生成装置600の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を含む初期テキストを表わす音声が、3次元オブジェクト生成装置600に入力されると、3次元オブジェクト生成装置600によって、図20及び図21に示す3次元オブジェクト編集処理ルーチンが実行される。なお、第1〜第5の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 600 according to the sixth embodiment will be described. First, when speech representing an initial text including a text representation and an attribute value regarding a 3D object model to be generated is input to the 3D object generation device 600, the 3D object generation device 600 causes the 3D shown in FIG. 20 and FIG. A dimension object edit processing routine is executed. In addition, about the process similar to the 1st-5th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
ステップS600において、入力された音声に対して音声認識処理を行い、音声をテキストに変換する。なお、音声が入力されるまでステップS600において処理を待機する。 In step S600, speech recognition processing is performed on the input speech to convert the speech into text. The process waits in step S600 until a voice is input.
ステップS204において、上記ステップS103で得られた変形後3Dオブジェクトモデル又は3Dオブジェクトモデル、あるいは上記ステップS526で得られた編集後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御して、3次元オブジェクト編集処理ルーチンを終了する。 In step S204, the three-dimensional object is formed so that a three-dimensional object representing the post-deformation 3D object model or the 3D object model obtained in step S103 or the edited 3D object model obtained in step S526 is formed. The modeling unit 230 is controlled and the three-dimensional object editing process routine is terminated.
以上説明したように、第6の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを編集することができる。 As described above, according to the three-dimensional object generation device according to the sixth embodiment, in order to analyze a text input by speech recognition and form a three-dimensional structure in real space as a real object, A user can obtain a three-dimensional structure from an extremely easy interface. In addition, a three-dimensional object can be edited using text input by voice recognition.
なお、変形後3Dオブジェクトモデルを表す3次元の造形物を形成し、形成された3次元の造形物に対して、編集操作に関する音声入力を受け付けるようにしてもよい。 Note that a three-dimensional structure that represents the 3D object model after deformation may be formed, and voice input related to an editing operation may be received with respect to the formed three-dimensional structure.
[第7の実施の形態]
<システム構成>
次に、第7の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜6の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。
[Seventh Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to a seventh embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-6th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第7の実施の形態では、既に3Dオブジェクトモデルが存在している状況において、初期テキストを表す音声入力を受け付けている点が、第6の実施の形態と異なっている。 The seventh embodiment is different from the sixth embodiment in that a voice input representing an initial text is accepted in a situation where a 3D object model already exists.
図22に示すように、第7の実施の形態に係る3次元オブジェクト生成装置700は、入力部10、演算部720と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 22, the three-dimensional object generation device 700 according to the seventh embodiment includes an input unit 10, a calculation unit 720, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルのデータの入力を受け付けると共に、当該3Dオブジェクトモデルの属性値に関する初期テキストを表す音声入力を受け付ける。例えば、車の3Dオブジェクトモデルのデータの入力を受け付けると共に、「黄色い車」という初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。例えば、「もっと薄く」という対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。例えば、「終了」という終了テキストを表す音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルのデータと共に入力される属性値に関する初期テキストを表す音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話テキストを表す音声入力、又は、終了処理に関する終了テキストを表す音声入力とする。また、モデル出力部30は、入力された3Dオブジェクトモデルを出力する。 The input unit 10 accepts input of data of a 3D object model and accepts voice input representing initial text related to attribute values of the 3D object model. For example, an input of data of a 3D object model of a car is accepted and a voice input representing an initial text “yellow car” is accepted. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. For example, a voice input representing a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a voice input representing an end text related to the end process. For example, a voice input representing an end text “end” is received. Note that the audio input that is input for the first time (before the output of the 3D object model) is an audio input that represents the initial text regarding the attribute value that is input together with the data of the 3D object model, and is input after the 3D object model is output The voice input is a voice input representing a dialogue text related to an editing operation or a voice input representing a termination text related to a termination process. The model output unit 30 outputs the input 3D object model.
演算部720は、音声認識部221、初期テキスト解析部721、モデル変形部724、対話テキスト解析部626、モデル編集部528、及び3次元造形制御部225を備えている。 The computing unit 720 includes a speech recognition unit 221, an initial text analysis unit 721, a model transformation unit 724, a dialog text analysis unit 626, a model editing unit 528, and a 3D modeling control unit 225.
初期テキスト解析部721は、1回目に入力された音声について、音声認識部221によって変換された初期テキストから、対象となる3Dオブジェクトモデルに関する属性値を同定する。 The initial text analysis unit 721 identifies the attribute value related to the target 3D object model from the initial text converted by the speech recognition unit 221 for the first input speech.
モデル変形部724は、入力された3Dオブジェクトモデルを、初期テキスト解析部721で同定した属性値にしたがって変形させて、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。 The model deformation unit 724 deforms the input 3D object model according to the attribute value identified by the initial text analysis unit 721, and outputs the deformed 3D object model by the model output unit 30.
対話テキスト解析部726は、図23に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。 As shown in FIG. 23, the dialog text analysis unit 726 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576.
<3次元オブジェクト生成装置の作用>
次に、本発明の第7の実施の形態に係る3次元オブジェクト生成装置700の作用について説明する。まず、3Dオブジェクトモデルのデータが、3次元オブジェクト生成装置700に入力されると、モデル出力部30により、入力された3Dオブジェクトモデルが出力される。そして、3Dオブジェクトモデルに関する属性値を含む初期テキストを表わす音声が、3次元オブジェクト生成装置700に入力されると、3次元オブジェクト生成装置700によって、図24及び図21に示す3次元オブジェクト編集処理ルーチンが実行される。なお、第1〜6の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 700 according to the seventh embodiment of the present invention will be described. First, when 3D object model data is input to the three-dimensional object generation device 700, the model output unit 30 outputs the input 3D object model. Then, when sound representing initial text including attribute values related to the 3D object model is input to the 3D object generation device 700, the 3D object generation device 700 causes the 3D object editing processing routine shown in FIGS. Is executed. In addition, about the process similar to 1st-6th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
ステップS201において、入力された音声に対して音声認識処理を行い、音声を初期テキストに変換する。そして、ステップS701において、上記ステップS201で得られた初期テキストを解析し、3Dオブジェクトモデルに関する属性値を同定する。 In step S201, a speech recognition process is performed on the input speech to convert the speech to an initial text. In step S701, the initial text obtained in step S201 is analyzed to identify attribute values related to the 3D object model.
ステップS302において、入力された3Dオブジェクトモデルのデータを、上記ステップS301で同定した属性値に従って変形させて、モデル出力部30により出力する。 In step S302, the input 3D object model data is transformed according to the attribute value identified in step S301 and is output by the model output unit 30.
以上説明したように、第7の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、3次元オブジェクトを変形させて、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、入力された音声によって、3次元オブジェクトを編集することができる。 As described above, according to the three-dimensional object generation device according to the seventh embodiment, the text input by the speech recognition is analyzed, the three-dimensional object is deformed, and the three-dimensional object is converted into the real space as a real object. In order to form a three-dimensional structure, the user can obtain a three-dimensional structure from an extremely easy interface. Further, the three-dimensional object can be edited by the input voice.
なお、上記の実施の形態では、音声入力を受け付ける場合を例に説明したが、これに限定されるものではなく、テキスト入力を受け付けるようにしてもよい。 In the above embodiment, the case where voice input is accepted has been described as an example. However, the present invention is not limited to this, and text input may be accepted.
また、編集後3Dオブジェクトモデルを表わす3次元造形物を形成せずに、編集後3Dオブジェクトモデルをモデル出力部により出力するだけであってもよい。 Further, the edited 3D object model may be simply output by the model output unit without forming the three-dimensional structure representing the edited 3D object model.
なお、後述する第9の実施の形態と同様に、音声入力を受け付けて、音声認識部によって変換されたテキストについて、初期テキストであるか又は対話テキストであるかを判定するようにしてもよい。 Note that, as in a ninth embodiment to be described later, a voice input may be received to determine whether the text converted by the voice recognition unit is an initial text or a dialogue text.
[第8の実施の形態]
<システム構成>
次に、第8の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜7の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。
[Eighth Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to an eighth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-7th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第8の実施の形態では、音声入力のまま、3Dオブジェクトモデルのオブジェクト名に分類している点と、音声入力のまま、編集操作を同定している点が、第6の実施の形態と異なっている。 The eighth embodiment differs from the sixth embodiment in that it is classified into the object name of the 3D object model as it is with voice input, and the editing operation is identified as it is with voice input. ing.
図25に示すように、第8の実施の形態に係る3次元オブジェクト生成装置800は、入力部10、演算部820と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 25, the three-dimensional object generation device 800 according to the eighth embodiment includes an input unit 10, a calculation unit 820, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。また、入力部10は編集操作に関する音声入力を受け付ける。終了処理に関する音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルに関する初期音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話音声入力、又は、終了処理に関する終了音声入力とする。 The input unit 10 receives a voice input related to the 3D object model. Further, the input unit 10 receives a voice input related to an editing operation. Accepts voice input related to termination processing. Note that the first voice input (before the output of the 3D object model) is an initial voice input related to the 3D object model, and the voice input input after outputting the 3D object model is an interactive voice input related to the editing operation. Or it is set as the end voice input regarding the end process.
演算部820は、音声解析部421、3Dオブジェクトモデルデータベース22、モデル取得部423、モデル変形部524、3次元造形制御部225、対話音声解析部821、及びモデル編集部828を備えている。 The calculation unit 820 includes a voice analysis unit 421, a 3D object model database 22, a model acquisition unit 423, a model deformation unit 524, a three-dimensional modeling control unit 225, a dialog voice analysis unit 821, and a model editing unit 828.
音声解析部421は、初期音声入力として入力された音声信号から、対象となる3Dオブジェクトモデルに関するオブジェクト名及び属性値を同定し、解析結果をモデル取得部423に出力する。 The voice analysis unit 421 identifies the object name and attribute value related to the target 3D object model from the voice signal input as the initial voice input, and outputs the analysis result to the model acquisition unit 423.
具体的には、初期音声入力として入力された音声信号を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に分類する。分類モデルについては、音声信号とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。 Specifically, the audio signal input as the initial audio input is classified into object names stored in the 3D object model database 22. As for the classification model, a plurality of learning data in which audio signals and class labels (object names) are associated one-to-one are prepared, and the classification model is learned based on the learning data.
また、初期音声入力として入力された音声信号を、3Dオブジェクトモデルに関する属性値に分類する。分類モデルについては、音声信号とクラスラベル(属性値)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。 Also, the audio signal input as the initial audio input is classified into attribute values related to the 3D object model. As for the classification model, a plurality of learning data in which a speech signal and a class label (attribute value) are associated one-to-one are prepared, and the classification model is learned based on the learning data.
また、対話音声解析部821は、3Dオブジェクトモデルを出力した後に入力された音声信号について、終了処理に関する終了音声信号であるか否かを同定し、解析結果をモデル編集部828へ出力する。また、対話音声解析部821は、3Dオブジェクトモデルを出力した後に対話音声入力として入力された音声信号と、音声解析部421により同定されたオブジェクト名及び属性値とから、編集操作を同定し、解析結果をモデル編集部828へ出力する。 In addition, the dialog voice analysis unit 821 identifies whether the voice signal input after outputting the 3D object model is an end voice signal related to the end process, and outputs the analysis result to the model editing unit 828. In addition, the dialog voice analysis unit 821 identifies and analyzes the editing operation from the voice signal input as the dialog voice input after outputting the 3D object model and the object name and attribute value identified by the voice analysis unit 421. The result is output to the model editing unit 828.
具体的には、入力された音声信号を、終了処理に関する終了音声入力であるか否かに分類する。分類モデルについては、音声信号とクラスラベル(終了音声入力であるか否か)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。 Specifically, the input audio signal is classified into whether or not it is an end audio input related to an end process. For a classification model, a plurality of learning data in which a speech signal and a class label (whether or not the end speech input is input) are prepared in a one-to-one correspondence are prepared, and the classification model is learned based on the learning data. Good.
また、対話音声入力として入力された音声信号と、オブジェクト名及び属性値との組み合わせを、編集操作に分類する。分類モデルについては、音声信号、オブジェクト名、及び属性値の組み合わせと、クラスラベル(編集操作)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。 Further, the combination of the audio signal input as the dialogue audio input, the object name, and the attribute value is classified as an editing operation. As for the classification model, a plurality of learning data in which a combination of a speech signal, an object name, and an attribute value is associated with a class label (editing operation) in one-to-one correspondence is prepared, and the classification model is learned based on the learning data You just have to.
モデル編集部828は、対話音声解析部821から編集操作についての同定結果が入力された場合には、メモリに記憶されている3Dオブジェクトモデルを読み出し、対話音声解析部821で同定した編集操作にしたがって、読み出した3Dオブジェクトモデルを編集し、メモリ(図示省略)に記憶するとともに、モデル出力部30により出力する。また、モデル編集部828は、後段の3次元造形を高速化するため、編集後3Dオブジェクトモデルを意図的に分割する。例えば、編集後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向を、3次元空間上の任意の軸方向から求め、求めた軸方向に、編集後3DオブジェクトモデルをN分割する。このとき、分割によりオブジェクト数が2倍よりも大きくならないように分割する。また、分割されたオブジェクトに対して、接着面が一意に定まるようマーキングしておく。また、音声解析部821から終了音声入力であると分類された結果が入力された場合には、メモリに最終的に記憶されている3Dオブジェクトモデルを3次元造形制御部225に出力する。 When the identification result about the editing operation is input from the dialog voice analysis unit 821, the model editing unit 828 reads the 3D object model stored in the memory and follows the editing operation identified by the dialog voice analysis unit 821. The read 3D object model is edited, stored in a memory (not shown), and output by the model output unit 30. Further, the model editing unit 828 intentionally divides the edited 3D object model in order to speed up the subsequent three-dimensional modeling. For example, the axial direction in which the size of the edited 3D object model is the shortest is obtained from an arbitrary axial direction in the three-dimensional space, and the edited 3D object model is divided into N in the obtained axial direction. At this time, the division is performed so that the number of objects does not become larger than double. In addition, marking is performed on the divided objects so that the adhesion surface is uniquely determined. Further, when a result classified as the end voice input is input from the voice analysis unit 821, the 3D object model finally stored in the memory is output to the three-dimensional modeling control unit 225.
<3次元オブジェクト生成装置の作用>
次に、本発明の第8の実施の形態に係る3次元オブジェクト生成装置800の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を表わす音声が、初期音声入力として、3次元オブジェクト生成装置800に入力されると、3次元オブジェクト生成装置800によって、図26に示す3次元オブジェクト編集処理ルーチンが実行される。なお、第1〜第7の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 800 according to the eighth embodiment of the present invention will be described. First, when a voice representing a text representation and an attribute value related to a 3D object model to be generated is input as an initial voice input to the three-dimensional object generation device 800, the three-dimensional object generation device 800 causes the three-dimensional object shown in FIG. An editing process routine is executed. In addition, about the process similar to 1st-7th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
ステップS801において、初期音声入力として入力された音声信号を受け付け、受け付けた音声信号を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に分類する。また、初期音声入力として入力された音声信号を、3Dオブジェクトモデルに関する属性値に分類する。 In step S <b> 801, an audio signal input as an initial audio input is received, and the received audio signal is classified into object names stored in the 3D object model database 22. Also, the audio signal input as the initial audio input is classified into attribute values related to the 3D object model.
ステップS803において、ステップS801で分類したオブジェクト名と一致する3Dオブジェクトモデルを3Dオブジェクトモデルデータベース22から読み出し、ステップS803で分類した属性値に対応するように変形させて、モデル出力部30により出力する。 In step S803, the 3D object model that matches the object name classified in step S801 is read from the 3D object model database 22, transformed to correspond to the attribute value classified in step S803, and output by the model output unit 30.
ステップS805において、ステップS803で出力した変形後3Dオブジェクトモデル又は後述するステップS811で出力した編集後3Dオブジェクトモデルに対して入力された音声信号を受け付け、受け付けた音声信号について、終了処理に関する終了音声入力であるか否かに分類する。 In step S805, the audio signal input to the post-transform 3D object model output in step S803 or the post-edit 3D object model output in step S811 described below is received. It classifies whether it is.
ステップS807において、ステップS805で終了音声入力であると分類されたか否かの判定をする。分類結果が終了音声入力である場合には、ステップS803で変形させた変形後3Dオブジェクトモデル又はステップS809で編集した編集後3Dオブジェクトモデルを3次元造形制御部225に出力する。分類結果が終了音声入力でない場合には、対話音声入力として入力された音声信号を受け付けたと判定し、ステップS808へ移行する In step S807, it is determined whether or not it is classified as the end voice input in step S805. When the classification result is an end voice input, the modified 3D object model deformed in step S803 or the edited 3D object model edited in step S809 is output to the three-dimensional modeling control unit 225. If the classification result is not the end voice input, it is determined that the voice signal input as the dialog voice input has been received, and the process proceeds to step S808.
ステップS808において、ステップS805で受け付けた音声信号と、ステップS801で分類したオブジェクト名及び属性値とに基づいて、音声信号を、複数の編集操作のうちの何れか1つに分類する。 In step S808, the audio signal is classified into one of a plurality of editing operations based on the audio signal received in step S805 and the object name and attribute value classified in step S801.
ステップS809において、ステップS805で分類された編集操作に基づいて、ステップS803で変形させた変形後3Dオブジェクトモデル又は前回のステップS809で編集した編集後3Dオブジェクトモデルを編集する。 In step S809, based on the editing operation classified in step S805, the modified 3D object model deformed in step S803 or the edited 3D object model edited in the previous step S809 is edited.
ステップS811では、ステップS809で編集した編集後3Dオブジェクトモデルを、モデル出力部30により出力し、ステップS805へ戻る。 In step S811, the edited 3D object model edited in step S809 is output by the model output unit 30, and the process returns to step S805.
以上説明したように、第8の実施の形態に係る3次元オブジェクト生成装置によれば、音声入力を解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、入力された音声によって、3次元オブジェクトを編集することができる。 As described above, according to the three-dimensional object generation device according to the eighth embodiment, it is very easy for the user to analyze a voice input and form a three-dimensional structure in real space as a real object. 3D objects can be obtained from a simple interface. Further, the three-dimensional object can be edited by the input voice.
なお、後述する第9の実施の形態と同様に、音声入力を受け付けて、初期音声入力であるか又は対話音声入力であるかを判定するようにしてもよい。 Note that, as in a ninth embodiment to be described later, a voice input may be received to determine whether the voice input is an initial voice input or an interactive voice input.
[第9の実施の形態]
<システム構成>
次に、第9の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第8の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。
[Ninth Embodiment]
<System configuration>
Next, a three-dimensional object generation device according to a ninth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-8th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第9の実施の形態では、入力された音声の認識結果が初期テキストか対話テキストかを判定している点が第6の実施の形態と異なっている。 The ninth embodiment is different from the sixth embodiment in that it is determined whether the input speech recognition result is an initial text or a dialog text.
図27に示すように、第9の実施の形態に係る3次元オブジェクト生成装置900は、入力部10と、演算部920と、モデル出力部30と、3次元造形部230とを備えている。 As illustrated in FIG. 27, the three-dimensional object generation device 900 according to the ninth embodiment includes an input unit 10, a calculation unit 920, a model output unit 30, and a three-dimensional modeling unit 230.
入力部10は、3Dオブジェクトモデルに関する初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。 The input unit 10 receives a voice input representing initial text related to the 3D object model. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. In addition, the input unit 10 receives a voice input representing an end text related to the end process.
演算部220は、音声認識部221、初期対話判定部921、初期テキスト解析部521、3Dオブジェクトモデルデータベース22、モデル取得部23、モデル変形部524、3次元造形制御部225、対話テキスト解析部926、及びモデル編集部528を備えている。 The calculation unit 220 includes a voice recognition unit 221, an initial dialogue determination unit 921, an initial text analysis unit 521, a 3D object model database 22, a model acquisition unit 23, a model transformation unit 524, a three-dimensional modeling control unit 225, and a dialogue text analysis unit 926. , And a model editing unit 528.
音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「10cmの黄色い車」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。 The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “10 cm yellow car”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used.
初期対話判定部921は、音声認識部221から入力される音声認識処理結果のテキストについて、図28に示すように形態素解析を行う。そして、形態解析結果に基づいて、終了処理に紐付けられたキーワードが入力された場合には、当該テキストを対話テキスト解析部926に出力する。また、終了処理に紐付けられたキーワードが入力されなかった場合には、形態素解析結果に基づいて、ルールベース又は機械学習によって、入力されたテキストが初期テキストか対話テキストかに分類する。また、初期テキストが入力されたと判定された場合には、当該テキストを初期テキスト解析部521に出力し、対話テキストが入力されたと判定された場合には、当該テキストを対話テキスト解析部926に出力する。ルールベースによって分類する場合には、メモリに記憶されている、音声認識処理結果のテキストに含まれていた直近のモデル名と、入力されたテキストの最後の名詞が異なる場合には、初期テキストであると判定し、それ以外の場合には、対話テキストであると判定する。 The initial dialogue determination unit 921 performs morphological analysis on the text of the speech recognition processing result input from the speech recognition unit 221 as shown in FIG. Then, when a keyword associated with the termination process is input based on the form analysis result, the text is output to the dialog text analysis unit 926. Further, when the keyword associated with the termination process is not input, the input text is classified into the initial text or the dialog text by rule base or machine learning based on the morphological analysis result. When it is determined that the initial text is input, the text is output to the initial text analysis unit 521. When it is determined that the dialog text is input, the text is output to the dialog text analysis unit 926. To do. When classifying by rule base, if the last model name included in the text of the speech recognition processing result stored in the memory is different from the last noun of the input text, the initial text is used. It is determined that there is, and otherwise, it is determined that the text is a dialog text.
また、機械学習を用いて分類する場合には、メモリに記憶されている1つ前に入力されたテキスト解析結果や形態素解析結果等を素性化し、事前に学習した識別用のモデルに基づいて、初期テキストか対話テキストかを分類する。ここで、bigramによる素性化を行う場合には、「赤い車」というテキストが入力されると、素性は、「車−EOS,名詞−EOS」となる。ただし、EOSは文末記号を表す。また、trigramによる素性化を行う場合には、「もっと薄く」というテキストが入力されると、素性は、「薄−く−EOS」「形容詞語幹−形容詞接尾辞−連用」となる。 Also, when classifying using machine learning, the previous text analysis result or morpheme analysis result stored in the memory is featured, and based on an identification model learned in advance, Categorize whether initial text or interactive text. Here, in the case of performing the feature by bigram, when the text “red car” is input, the feature becomes “car-EOS, noun-EOS”. However, EOS represents a sentence end symbol. Also, in the case of trigram feature, if the text “more thin” is input, the feature becomes “thin-ku-EOS” “adjective stem-adjective suffix-continuous”.
対話テキスト解析部926は、図29に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。 As shown in FIG. 29, the dialog text analysis unit 926 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576.
終了判定部550は、初期対話判定部921によって終了処理に紐付けられたキーワードが入力されたと判定された場合に、入力されたテキストが終了テキストであると判定する。 The end determination unit 550 determines that the input text is the end text when the initial dialogue determination unit 921 determines that the keyword associated with the end process has been input.
<3次元オブジェクト生成装置の作用>
次に、第9の実施の形態に係る3次元オブジェクト生成装置900の作用について説明する。まず、音声が、3次元オブジェクト生成装置900に入力されると、3次元オブジェクト生成装置900によって、図30に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第1〜第8の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
<Operation of three-dimensional object generation device>
Next, the operation of the three-dimensional object generation device 900 according to the ninth embodiment will be described. First, when sound is input to the three-dimensional object generation device 900, the three-dimensional object generation processing routine shown in FIG. In addition, about the process similar to 1st-8th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
ステップS901において、ステップS201で音声認識処理された結果のテキストが、終了処理に紐づけられたキーワードを含むか否かを判定すると共に、初期テキスト、又は対話テキストであるかを判定する。 In step S901, it is determined whether the text resulting from the speech recognition process in step S201 includes a keyword associated with the end process, and whether the text is an initial text or a dialog text.
ステップS902において、ステップS901で判定された結果が初期テキストであると判定された場合には、ステップS501へ移行し、初期テキストでないと判定された場合には、ステップS601へ移行する。 If it is determined in step S902 that the result determined in step S901 is the initial text, the process proceeds to step S501. If it is determined that the result is not the initial text, the process proceeds to step S601.
以上説明したように、第9の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを変形させることができる。また、入力された音声によって、初期テキスト、又は対話テキストかを分類することにより、後続して、初期テキストに基づいて3次元オブジェクトを生成するか、又は対話テキストに基づいて3次元オブジェクトを編集することができる。 As described above, according to the three-dimensional object generation device according to the ninth embodiment, in order to analyze a text input by speech recognition and form a three-dimensional structure in real space as a real object, A user can obtain a three-dimensional structure from an extremely easy interface. In addition, a three-dimensional object can be transformed by text input by voice recognition. Further, by classifying the initial text or the dialogue text according to the input voice, a three-dimensional object is subsequently generated based on the initial text, or the three-dimensional object is edited based on the dialogue text. be able to.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、図31のように、3Dオブジェクトモデルに文字を仮定し、発話した文字を表示する3Dオブジェクトモデルをそのまま出力し、あるいは、発話した文字を表示する3Dオブジェクトモデルの3次元造形物を形成するようにしてもよい。 For example, as shown in FIG. 31, assuming a character in the 3D object model, the 3D object model that displays the spoken character is output as it is, or a 3D object model of the 3D object model that displays the spoken character is formed. You may do it.
また、上記の実施の形態では、テキストや音声を、機械学習により学習された分類モデルを用いて、オブジェクト名に分類する場合を例に説明したが、これに限定されるものではなく、テキストや音声を、ルールベースを用いて、オブジェクト名に分類してもよい。 In the above embodiment, the case where text and speech are classified into object names using a classification model learned by machine learning is described as an example. However, the present invention is not limited to this. Audio may be classified into object names using a rule base.
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。 In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.
10 入力部
20、220、320、420、520、620、720、820、920 演算部
21、321 テキスト解析部
22 3Dオブジェクトモデルデータベース
23、423 モデル取得部
24、324、524、724 モデル変形部
30 モデル出力部
100、200、300、400、500、600、700、800、900 3次元オブジェクト生成装置
221 音声認識部
225 3次元造形制御部
230 3次元造形部
421 音声解析部
521、721 初期テキスト解析部
526、626、726、926 対話テキスト解析部
528、828 モデル編集部
550 終了判定部
552 単語抽出部
554 操作候補抽出部
556 単語選択部
557 操作順位付け部
558 連結部
560 変化量算出部
570 単語対操作変換用データベース
572 自然文集合データベース
574 キーワード対操作候補対応データベース
576 連用詞データベース
821 対話音声解析部
921 初期対話判定部
10 input unit 20, 220, 320, 420, 520, 620, 720, 820, 920 arithmetic unit 21, 321 text analysis unit 22 3D object model database 23, 423 model acquisition unit 24, 324, 524, 724 model transformation unit 30 Model output unit 100, 200, 300, 400, 500, 600, 700, 800, 900 3D object generation device 221 Speech recognition unit 225 3D modeling control unit 230 3D modeling unit 421 Speech analysis unit 521, 721 Initial text analysis Units 526, 626, 726, 926 Dialogue text analysis unit 528, 828 Model editing unit 550 Termination determination unit 552 Word extraction unit 554 Operation candidate extraction unit 556 Word selection unit 557 Operation ranking unit 558 Connection unit 560 Change amount calculation unit 570 Word Database for operation conversion Scan 572 natural sentence aggregated database 574 keyword pair candidate operation correspondence database 576 predicate Database 821 interacts voice analysis unit 921 initial dialogue determination unit
Claims (9)
前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集するモデル編集部と、
を含むオブジェクト生成装置。 Dialog input that is text and speech including at least one word, input to the output of the object model generated corresponding to the initial input that is at least one of text and speech including the input word, and the initial A dialog text analysis unit for determining an editing operation represented by the dialog input based on the input;
A model editing unit for editing the generated object model based on the editing operation determined in the dialog text analysis unit;
An object generation device including:
前記対話入力の前記少なくとも1つの単語と、前記単語選択部によって選択された単語とに基づいて、前記対話入力が表わす編集操作を判別する対話テキスト解析部と、
前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集するモデル編集部と、
を含むオブジェクト生成装置。 Dialog input that is text and speech that includes at least one word input to the output of the object model generated in response to the initial input that is at least one of text and speech that includes two or more input words And, based on the initial input, using the ease of semantic connection between each of the at least one word of the dialog input and each of the two or more words of the initial input, A word selection unit for selecting a word representing an edit target from the two or more words of the input;
A dialog text analysis unit that determines an editing operation represented by the dialog input based on the at least one word of the dialog input and the word selected by the word selection unit;
A model editing unit for editing the generated object model based on the editing operation determined in the dialog text analysis unit;
An object generation device including:
前記単語選択部は、前記操作候補抽出部によって抽出された前記少なくとも1つの編集操作候補を表す単語の各々と、前記初期入力の前記2つ以上の単語の各々との間についての単語間の共起関係を用いて、前記初期入力の前記2つ以上の単語から、前記編集対象を表す単語を選択する請求項2記載のオブジェクト生成装置。 An operation candidate extraction unit that extracts at least one editing operation candidate from a plurality of predetermined editing operations based on the dialogue input;
The word selection unit is configured to share words between each of the words representing the at least one editing operation candidate extracted by the operation candidate extraction unit and each of the two or more words of the initial input. The object generation device according to claim 2, wherein a word representing the editing target is selected from the two or more words of the initial input using a starting relation.
前記対話テキスト解析部は、前記初期対話判定部によって前記対話入力であると判定された場合に、前記対話入力が表わす編集操作を判別する請求項1〜4の何れか1項記載のオブジェクト生成装置。 An initial dialog determination unit that determines whether at least one of text and speech including the input word is the initial input or the dialog input;
The object generation device according to claim 1, wherein the dialog text analysis unit determines an editing operation represented by the dialog input when the initial dialog determination unit determines that the dialog input is the dialog input. .
前記対話テキスト解析部は、入力された単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、前記初期入力とに基づいて、前記対話入力が表わす編集操作を判別し、
前記モデル編集部は、前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集する
オブジェクト生成方法。 An object generation method in an object generation device including a dialog text analysis unit and a model editing unit,
The dialog text analysis unit is configured to input text and speech including at least one word that is input in response to an output of the object model generated corresponding to an initial input that is at least one of text and speech including the input word. Based on a certain dialog input and the initial input, an editing operation represented by the dialog input is determined,
The model editing unit is an object generation method for editing the generated object model based on an editing operation determined by the dialog text analysis unit.
前記単語選択部は、入力された2つ以上の単語を含むテキスト及び音声の少なくとも一方である初期入力に対応して生成したオブジェクトモデルの出力に対して入力された、少なくとも1つの単語を含むテキスト及び音声である対話入力と、前記初期入力とに基づいて、前記対話入力の前記少なくとも1つの単語の各々と前記初期入力の前記2つ以上の単語の各々との間の意味的なつながりやすさを用いて、前記初期入力の前記2つ以上の単語から、編集対象を表す単語を選択し、
前記対話テキスト解析部は、前記対話入力の前記少なくとも1つの単語と、前記単語選択部によって選択された単語とに基づいて、前記対話入力が表わす編集操作を判別し、
前記モデル編集部は、前記対話テキスト解析部において判別された編集操作に基づいて、前記生成したオブジェクトモデルを編集する
オブジェクト生成方法。 An object generation method in an object generation device including a word selection unit, a dialog text analysis unit, and a model editing unit,
The word selection unit is a text including at least one word input with respect to an output of an object model generated corresponding to an initial input that is at least one of a text including two or more input words and a voice. And, based on the initial input and the dialogue input being speech, the ease of semantic connection between each of the at least one word of the dialogue input and each of the two or more words of the initial input To select a word representing an edit target from the two or more words of the initial input,
The dialog text analysis unit determines an editing operation represented by the dialog input based on the at least one word of the dialog input and the word selected by the word selection unit;
The model editing unit is an object generation method for editing the generated object model based on an editing operation determined by the dialog text analysis unit.
The program for functioning a computer as each part of the object production | generation apparatus in any one of Claims 1-5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013190655A JP5604574B1 (en) | 2013-09-13 | 2013-09-13 | Object generation device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013190655A JP5604574B1 (en) | 2013-09-13 | 2013-09-13 | Object generation device, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5604574B1 true JP5604574B1 (en) | 2014-10-08 |
JP2015056132A JP2015056132A (en) | 2015-03-23 |
Family
ID=51840457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013190655A Expired - Fee Related JP5604574B1 (en) | 2013-09-13 | 2013-09-13 | Object generation device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5604574B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6457346B2 (en) * | 2015-07-06 | 2019-01-23 | 日本電信電話株式会社 | Road surface understanding system, road surface understanding method, road surface understanding program |
JP7038602B2 (en) * | 2018-05-28 | 2022-03-18 | 株式会社 ディー・エヌ・エー | Systems, methods, and programs for creating videos |
JP2022064301A (en) * | 2020-10-13 | 2022-04-25 | 株式会社リコー | Communication system, display device, display control method, and display control program |
US20220357914A1 (en) * | 2021-05-04 | 2022-11-10 | Sony Interactive Entertainment Inc. | Voice driven 3d static asset creation in computer simulations |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01263880A (en) * | 1988-04-15 | 1989-10-20 | Dainippon Printing Co Ltd | Magazine editing system |
JP3179474B2 (en) * | 1990-11-28 | 2001-06-25 | 株式会社日立製作所 | Computer graphic display method and information processing apparatus |
JP2005099418A (en) * | 2003-09-25 | 2005-04-14 | Casio Comput Co Ltd | Object display device and program |
-
2013
- 2013-09-13 JP JP2013190655A patent/JP5604574B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015056132A (en) | 2015-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11568855B2 (en) | System and method for defining dialog intents and building zero-shot intent recognition models | |
JP6310150B2 (en) | Intent understanding device, method and program | |
US9280967B2 (en) | Apparatus and method for estimating utterance style of each sentence in documents, and non-transitory computer readable medium thereof | |
JP2019008778A (en) | Captioning region of image | |
CN112016320A (en) | English punctuation adding method, system and equipment based on data enhancement | |
CN101000764A (en) | Speech synthetic text processing method based on rhythm structure | |
JP6955963B2 (en) | Search device, similarity calculation method, and program | |
JP4699954B2 (en) | Multimedia data management method and apparatus | |
KR101410601B1 (en) | Spoken dialogue system using humor utterance and method thereof | |
JP5604574B1 (en) | Object generation device, method, and program | |
JP2021047817A (en) | Output device and output program | |
CN115630145A (en) | A dialogue recommendation method and system based on multi-granularity emotion | |
WO2021200200A1 (en) | Information processing device and information processing method | |
TWI389100B (en) | Method for classifying speech emotion and method for establishing emotional semantic model thereof | |
KR20170008357A (en) | System for Translating Using Crowd Sourcing, Server and Method for Web toon Language Automatic Translating | |
CN113361252A (en) | Text depression tendency detection system based on multi-modal features and emotion dictionary | |
US20210097104A1 (en) | Painting label generation method and electronic device | |
CN103246642B (en) | Information processor and information processing method | |
JP5833166B2 (en) | Object generation device, method, and program | |
JP5976037B2 (en) | Model learning device, ranking device, method, and program | |
JP5908855B2 (en) | Three-dimensional object generation device, method, and program | |
CN118170919A (en) | A method and system for classifying literary works | |
CN110287396B (en) | Text matching method and device | |
JP2013235117A (en) | Word separating device, and word separating method | |
Ogihara et al. | The semantic shapes of popular music lyrics: Graph-based representation, analysis, and interpretation of popular music lyrics in semantic natural language embedding space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5604574 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |