JP6993034B1 - コンテンツ再生方法、及びコンテンツ再生システム - Google Patents
コンテンツ再生方法、及びコンテンツ再生システム Download PDFInfo
- Publication number
- JP6993034B1 JP6993034B1 JP2021082702A JP2021082702A JP6993034B1 JP 6993034 B1 JP6993034 B1 JP 6993034B1 JP 2021082702 A JP2021082702 A JP 2021082702A JP 2021082702 A JP2021082702 A JP 2021082702A JP 6993034 B1 JP6993034 B1 JP 6993034B1
- Authority
- JP
- Japan
- Prior art keywords
- data
- face image
- image data
- processing
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
図を参照して、第1実施形態におけるコンテンツ再生システム100、コンテンツ再生装置1、及び学習方法の一例について説明する。図1は、本実施形態におけるコンテンツ再生システム100の一例を示す模式図である。図2は、本実施形態におけるコンテンツ再生システム100の動作の一例を示す模式図である。
コンテンツ再生システム100は、入力された任意の顔画像データと、感情データとに対し、第1処理後顔画像データを生成するために用いられる。コンテンツ再生システム100は、例えば学習データを用いた機械学習により生成された第1処理用データベースを参照し、顔画像データと、感情データとに対し、第1処理後顔画像データを生成する。
次に、図5、図6を参照して、本実施形態におけるコンテンツ再生装置1の一例を説明する。図5(a)は、本実施形態におけるコンテンツ再生装置1の構成の一例を示す模式図であり、図5(b)は、本実施形態におけるコンテンツ再生装置1の機能の一例を示す模式図である。
取得部11は、顔画像データと、感情データとを取得する。取得したデータは、上述した第1処理後顔画像データを生成する際に用いられる。取得部11は、例えば入力部108から入力された顔画像データと、感情データとを取得するほか、例えば通信網4を介して、端末2等から顔画像データと、感情データとを取得してもよい。また、取得部11は、予め取得された複数の顔画像データ、及び感情データの中からユーザが選択したデータを取得してもよい。
処理部12は、例えば第1処理用データベースを参照し、顔画像データと感情データとに対する第1処理後顔画像データを生成する。
生成部13は、処理部12で生成した顔画像データに基づき、少なくとも1つの擬似データを生成する。生成部13は、例えば処理部12で生成された第1処理後顔画像データに基づき、音声及び顔画像を含む擬似データを生成する。擬似データを生成することによって、記憶部15に記憶されていないキャラクターの表現を出力することが可能となる。生成部13は、擬似データを生成する際に、公知の技術を用いてもよい。
出力部14は、各種データを出力する。出力部14は、例えば生成部13で生成された擬似データを出力してもよい。出力部14は、I/F107を介して表示部109に各種データを出力するほか、例えばI/F105を介して、複数の端末2等に各種データを出力する。
記憶部15は、保存部104に保存されたデータベース等の各種データを必要に応じて取出す。記憶部15は、各構成11~14、16により取得又は生成された各種データを、必要に応じて保存部104に保存する。
DB生成部16は、複数の学習データを用いた機械学習によりデータベースを生成する。機械学習には、例えばニューラルネットワーク等が用いられる。
端末2は、例えばコンテンツ再生システム100を用いたサービスのユーザ等が保有し、通信網4を介してコンテンツ再生装置1と接続される。端末2は、例えばデータベースを生成する電子機器を示してもよい。端末2は、例えばパーソナルコンピュータや、タブレット端末等の電子機器が用いられる。端末2は、例えばコンテンツ再生装置1の備える機能のうち、少なくとも一部の機能を備えてもよい。
サーバ3は、通信網4を介してコンテンツ再生装置1と接続される。サーバ3は、過去の各種データ等が記憶され、必要に応じてコンテンツ再生装置1から各種データが送信される。サーバ3は、例えばコンテンツ再生装置1の備える機能のうち、少なくとも一部の機能を備えてもよく、例えばコンテンツ再生装置1の代わりに少なくとも一部の処理を行ってもよい。サーバ3は、例えばコンテンツ再生装置1の保存部104に記憶された各種データのうち少なくとも一部が記憶され、例えば保存部104の代わりに用いられてもよい。
通信網4は、例えばコンテンツ再生装置1が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信技術で実現してもよい。
次に、本実施形態におけるコンテンツ再生システム100の動作の一例について説明する。図6は、第1実施形態におけるコンテンツ再生装置の動作の一例を示す図である。
取得ステップS110は、ユーザ等により入力された顔画像データと感情データとを取得する。取得ステップS110では、例えば取得部11が、顔画像データと感情データとを取得する。取得部11は、例えば端末2等から顔画像データと感情データとを取得するほか、例えば記憶部15を介して、保存部104から取得してもよい。また、取得ステップS110は、例えば顔画像データとして、動画のように顔画像データと、顔画像データに紐づいた音声データを取得してもよい。
第1処理ステップS120は、例えば第1処理用データベースを参照し、取得ステップS110で取得した顔画像データと感情データとに対する第1処理後顔画像データを生成する。第1処理ステップS120では、例えば第1処理部121は、第1処理用データベースを参照し、顔画像データと感情データとに対する第1処理後顔画像データを生成する。第1処理ステップS120は、例えば記憶部15を介して、生成した第1処理後顔画像データを保存部104に保存してもよい。なお、生成した第1処理後顔画像データは、例えばサーバ3や他のコンテンツ再生装置1、又は複数のユーザ端末2に送信されてもよい。生成するデータは、ひとつの入力データに対して複数のデータを生成してもよい。これにより、ユーザの感情を反映した第1処理後顔画像データを生成することが可能となる。これによって、ユーザの感情が反映できるキャラクターの表現が可能となる。また、生成部13により、疑似的に第1処理後顔画像データを生成してもよい。また、第1処理ステップS120は、例えば処理部12に含まれる第1処理部121により、処理してもよい。
出力ステップS130では、例えば出力部14は、第1処理ステップS120により取得された第1処理後顔画像データを、表示部109や端末2等に出力する。
以下、本発明の第2実施形態を適応したコンテンツ再生システム100について説明する。本発明の第2実施形態は、第1処理後顔画像データとテキストデータに対する第2処理後顔画像データを生成する点で第1実施形態と異なる。また、第1実施形態と同様な構成の説明は省略する。
コンテンツ再生システム100は、図7に示すように、第1処理用データベースを参照して生成された顔画像データと感情データとに対する第1処理後顔画像データと、テキストデータとに対する第2処理後顔画像データを生成するために用いられる。コンテンツ再生システム100は、例えば学習データを用いた機械学習により生成された第2処理用データベースを参照し、第1処理後顔画像データと、テキストデータとに対する第2処理後顔画像データを生成する。かかる場合、コンテンツ再生システム100は、例えば顔画像データと感情データとに対する第1処理後顔画像データとして、顔画像データに含まれるキャラクターの目元を変化させた第1処理後顔画像データを生成し、さらに第2処理用データベースを参照し、生成した第1処理後顔画像データと、テキストデータに対する第1処理後顔画像データに含まれるキャラクターの口元を変化させた第2処理後顔画像データを生成してもよい。
次に、第2実施形態におけるコンテンツ再生システム100の動作の一例について説明する。図10は、第2実施形態におけるコンテンツ再生装置の動作の一例を示す図である。
取得ステップS210は、ユーザ等により入力された顔画像データと感情データとテキストデータとを取得する。取得ステップS210では、例えば取得部11が、顔画像データと感情データとテキストデータとを取得する。また、取得ステップS210は、例えばテキストデータとして、動画のように顔画像データと、顔画像データに紐づいた音声データを取得して、取得した音声データを音声認識することにより取得してもよい。
第2処理ステップS240は、例えば第2処理用データベースを参照し、第1処理ステップS120により生成された第1処理後顔画像データと、取得ステップS210で取得したテキストデータとに対する第2処理後顔画像データを生成する。第2処理ステップS240では、例えば第2処理部122は、第2処理用データベースを参照し、第1処理後顔画像データと、テキストデータとに対する第2処理後顔画像データを生成する。かかる場合、第2処理部122は、入力された第1処理後顔画像データを公知の画像解析技術により画像解析し、第1処理後顔画像データに含まれるキャラクターの顔の一部、例えば口を判定し、判定した部分をテキストデータに合わせて変化させた第2処理後顔画像データを生成してもよい。また、第2処理ステップS240は、第2処理用データベースを用いることなく、第2処理後顔画像データを生成してもよい。これにより、入力されたテキストデータに適した第2処理後顔画像データを生成することが可能となり、ユーザの会話に合わせた精度の高いキャラクターの表現が可能となる。また、生成部13により、疑似的に第2処理後顔画像データを生成してもよい。また、第2処理ステップS240は、例えば処理部12に含まれ、第1処理部121に接続される第2処理部122により、処理してもよい。
以下、本発明の第3実施形態を適応したコンテンツ再生システム100について説明する。本発明の第3実施形態は、顔画像データと感情データとテキストデータとに対する第1処理後顔画像データを生成する点で第1実施形態と異なる。また、第1実施形態と同様な構成の説明は省略する。
コンテンツ再生システム100は、図11に示すように入力された任意の顔画像データと、感情データと、テキストデータとに対し、第1処理後顔画像データを生成するために用いられる。コンテンツ再生システム100は、例えば学習データを用いた機械学習により生成された第1処理用データベースを参照し、顔画像データと、感情データと、テキストデータに対する第1処理後顔画像データを生成する。
次に、第3実施形態におけるコンテンツ再生システム100の動作の一例について説明する。図14は、第3実施形態におけるコンテンツ再生装置の動作の一例を示す図である。
取得ステップS310は、ユーザ等により入力された顔画像データと感情データとテキストデータとを取得する。
第1処理ステップS320は、例えば第1処理用データベースを参照し、取得ステップS310で取得した顔画像データと、感情データと、テキストデータとに対する第1処理後顔画像データを生成する。第1処理ステップS320では、例えば第1処理部121は、第1処理用データベースを参照し、顔画像データと、感情データと、テキストデータとに対する第1処理後顔画像データを生成する。これにより、入力されたテキストデータに適した第1処理後顔画像データを生成することが可能となり、ユーザの会話に合わせた精度の高いキャラクターの表現が可能となる。また、生成部13により、擬似的に第1処理後顔画像データを生成してもよい。また、第1処理ステップS320は、例えば処理部12に含まれる第1処理部121により、処理してもよい。
以下、本発明の第4実施形態を適応したコンテンツ再生システム100について説明する。本発明の第4実施形態は、返答モデルを参照し、ユーザが入力した会話文に対する返答を決定し、決定された返答に基づくテキストデータを取得する点で第3実施形態と異なる。また、第3実施形態と同様な構成の説明は省略する。
コンテンツ再生システム100は、返答モデルを参照し、ユーザが入力した会話文に対する返答を決定し、決定された返答に基づくテキストデータを取得する。その後、コンテンツ再生システム100は、入力された任意の顔画像データと、感情データと、テキストデータとに対し、第1処理後顔画像データを生成する。コンテンツ再生システム100は、予め取得された参照用会話文と前記参照用会話文に対する返答との対応関係を示す返答モデルを参照し、ユーザが入力した会話文に対する返答を決定し、決定された返答に基づくテキストデータを取得する。
次に、第4実施形態におけるコンテンツ再生システム100の動作の一例について説明する。図15は、第4実施形態におけるコンテンツ再生装置の動作の一例を示す図である。
取得ステップS410は、ユーザ等により入力された顔画像データと感情データとテキストデータとを取得する。
返答処理ステップS440は、例えば返答モデルを参照し、取得ステップS410で取得したテキストデータに対する返答テキストデータを生成する。これにより、入力されたテキストデータに適した返答に基づくテキストデータを生成することが可能となり、ユーザの会話に合わせた精度の高いキャラクターの表現が可能となる。また、返答処理ステップS440は、例えば処理部12に含まれる返答処理部123により、処理してもよい。
以下、本発明の第5実施形態を適応したコンテンツ再生システム100について説明する。本発明の第5実施形態は、音質データと感情データとテキストデータとに対する音声データを生成し、処理後顔画像データと音声データとに対する表現データを生成する点で第3実施形態と異なる。また、第3実施形態と同様な構成の説明は省略する。
コンテンツ再生システム100は、顔画像データと、感情データとテキストデータと声質に関する声質データを取得し、テキストデータと、感情データと、音質データとに基づいて、キャラクターの音声を示す音声データを生成する。その後、コンテンツ再生システム100は、生成された処理後顔画像データと、生成された音声データとに基づいて、キャラクターの表現を示す表現データを生成する。
次に、第5実施形態におけるコンテンツ再生システム100の動作の一例について説明する。図18は、第5実施形態におけるコンテンツ再生装置の動作の一例を示す図である。
取得ステップS510は、ユーザ等により入力された顔画像データと感情データとテキストデータと音質データとを取得する。
音声処理ステップS550は、例えば音声処理用データベースを参照し、取得ステップS310で取得した音質データと、感情データと、テキストデータとに対する音声データを生成する。音声処理ステップS550では、例えば音声処理部124は、音声処理用データベースを参照し、音質データと、感情データと、テキストデータとに対する音声データを生成する。これにより、入力された音質データと、感情データと、テキストデータとに適した音声データを生成することが可能となり、ユーザの会話に合わせた精度の高いキャラクターの表現が可能となる。また、音声処理ステップS550は、例えば処理部12に含まれる音声処理部124により、処理してもよい。
表現生成ステップS560は、生成された音声データと処理後顔画像データとに基づいて表現データを生成する。処理後顔画像データは、例えば第1処理後顔画像データ、又は第2処理後顔画像データを含む。また、表現生成ステップS560は、例えば生成部13により、処理してもよい。
以下、本発明の第6実施形態を適応したコンテンツ再生システム100について説明する。本発明の第6実施形態は、顔画像データとテキストデータに対する第1処理後顔画像データを生成する点で第1実施形態と異なる。また、第1実施形態と同様な構成の説明は省略する。
コンテンツ再生システム100は、図19に示すように、第1処理用データベースを参照して生成された顔画像データとテキストデータとに対する第1処理後顔画像データを生成するために用いられる。コンテンツ再生システム100は、例えば学習データを用いた機械学習により生成された第1処理用データベースを参照し、顔画像データと、テキストデータとに対する第1処理後顔画像データを生成する。
次に、第6実施形態におけるコンテンツ再生システム100の動作の一例について説明する。図22は、第2実施形態におけるコンテンツ再生装置の動作の一例を示す図である。
取得ステップS610は、ユーザ等により入力された顔画像データとテキストデータとを取得する。取得ステップS610では、例えば取得部11が、顔画像データとテキストデータとを取得する。また、取得ステップS610は、例えば、動画のように顔画像データと、顔画像データに紐づいた音声データを取得して、取得した音声データを音声認識することによりテキストデータを取得してもよい。
第1処理ステップS620は、例えば第1処理用データベースを参照し、取得ステップS610で取得した顔画像データと、テキストデータとに対する第1処理後顔画像データを生成する。第1処理ステップS620では、例えば第1処理部121は、第1処理用データベースを参照し、顔画像データと、テキストデータとに対する第1処理後顔画像データを生成する。これにより、入力されたテキストデータに適した第1処理後顔画像データを生成することが可能となり、ユーザの会話に合わせたキャラクターの表現が可能となる。また、生成部13により、擬似的に第1処理後顔画像データを生成してもよい。また、第1処理ステップS620は、例えば処理部12に含まれる第1処理部121により、処理してもよい。
2 :端末
3 :サーバ
4 :通信網
10 :筐体
11 :取得部
12 :処理部
13 :生成部
14 :出力部
15 :記憶部
16 :DB生成部
100 :コンテンツ再生システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部
109 :表示部
110 :内部バス
121 :第1処理部
122 :第2処理部
123 :返答処理部
124 :音声処理部
S110 :取得ステップ
S120 :第1処理ステップ
S130 :出力ステップ
S210 :取得ステップ
S220 :第1処理ステップ
S230 :出力ステップ
S240 :第2処理ステップ
S310 :取得ステップ
S320 :第1処理ステップ
S330 :出力ステップ
S410 :取得ステップ
S420 :第1処理ステップ
S430 :出力ステップ
S440 :返答処理ステップ
S510 :取得ステップ
S520 :第1処理ステップ
S530 :出力ステップ
S550 :音声処理ステップ
S560 :表現生成ステップ
S610 :取得ステップ
S620 :第1処理ステップ
S630 :出力ステップ
Claims (5)
- キャラクターの顔を含む顔画像データと、感情を示す感情データと、テキストデータとを取得する取得ステップと、
予め取得された参照用顔画像データと参照用感情データとを含む第1入力データと、前記参照用顔画像データに含まれるキャラクターと同一のキャラクターの顔を含むと共に前記参照用顔画像データと異なる第1処理後顔画像データを含む第1出力データとを一組のデータセットとする第1処理用学習データを複数用いて、機械学習により生成された第1処理用データベースを参照して、前記取得ステップにより取得した顔画像データと感情データとに対する第1処理後顔画像データを生成する第1生成ステップと、
前記第1生成ステップにより生成された第1処理後顔画像データと、前記取得ステップにより取得したテキストデータとに基づいて、前記第1処理後顔画像データの一部を変化させた第2処理後顔画像データを生成する第2生成ステップとを
コンピュータに実行させ、
前記第2生成ステップは、予め取得された参照用第1処理後顔画像データと、参照用テキストデータとを含む第2入力データと、参照用第2処理後顔画像データを含む第2出力データとを一組のデータセットとする第2処理用学習データを複数用いて、機械学習により生成された第2処理用データベースを参照して、前記第1生成ステップにより生成された第1処理後顔画像データと、前記取得ステップにより取得したテキストデータとに基づいて、前記第2処理後顔画像データを生成すること
を特徴とするコンテンツ再生方法。 - 前記取得ステップは、声質に関する声質データを取得し、
前記取得ステップにより取得した声質データと、テキストデータと、感情データとに基づいて、前記キャラクターの音声を示す音声データを生成する音声処理ステップと、
前記第2生成ステップにより生成された第2処理後顔画像データと、前記音声処理ステップにより生成された音声データとに基づいて、前記キャラクターの表現を示す表現データを生成する表現生成ステップとをさらにコンピュータに実行させること
を特徴とする請求項1に記載のコンテンツ再生方法。 - 前記音声処理ステップは、予め取得された参照用声質データと、参照用テキストデータと、参照用感情データとを含む第3入力データと、参照用音声データを含む第3出力データとを一組のデータセットとする音声処理用学習データを複数用いて、機械学習により生成された音声処理用データベースを参照して、前記取得ステップにより取得した声質データと、テキストデータと、感情データとに対する前記音声データを生成すること
を特徴とする請求項2に記載のコンテンツ再生方法。 - 前記取得ステップは、予め取得された参照用会話文データと前記参照用会話文データに対する返答データとの対応関係を示す返答モデルを参照し、ユーザが入力した会話文データに対する返答データを決定し、決定された返答データに基づく前記テキストデータを取得すること
を特徴とする請求項1~3の何れか1項に記載のコンテンツ再生方法。 - キャラクターの顔を含む顔画像データと、感情を示す感情データと、テキストデータとを取得する取得手段と、
予め取得された参照用顔画像データと参照用感情データとを含む第1入力データと、前記参照用顔画像データに含まれるキャラクターと同一のキャラクターの顔を含むと共に前記参照用顔画像データと異なる第1処理後顔画像データを含む第1出力データとを一組のデータセットとする第1処理用学習データを複数用いて、機械学習により生成された第1処理用データベースを参照して、前記取得手段により取得した顔画像データと感情データとに対する第1処理後顔画像データを生成する第1生成手段と、
前記第1生成手段により生成された第1処理後顔画像データと、前記取得手段により取得したテキストデータとに基づいて、前記第1処理後顔画像データの一部を変化させた第2処理後顔画像データを生成する第2生成手段とを
備え、
前記第2生成手段は、予め取得された参照用第1処理後顔画像データと、参照用テキストデータとを含む第2入力データと、参照用第2処理後顔画像データを含む第2出力データとを一組のデータセットとする第2処理用学習データを複数用いて、機械学習により生成された第2処理用データベースを参照して、前記第1生成手段により生成された第1処理後顔画像データと、前記取得手段により取得したテキストデータとに基づいて、前記第2処理後顔画像データを生成すること
を特徴とするコンテンツ再生システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082702A JP6993034B1 (ja) | 2021-05-14 | 2021-05-14 | コンテンツ再生方法、及びコンテンツ再生システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082702A JP6993034B1 (ja) | 2021-05-14 | 2021-05-14 | コンテンツ再生方法、及びコンテンツ再生システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6993034B1 true JP6993034B1 (ja) | 2022-01-13 |
JP2022175923A JP2022175923A (ja) | 2022-11-25 |
Family
ID=80213770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021082702A Active JP6993034B1 (ja) | 2021-05-14 | 2021-05-14 | コンテンツ再生方法、及びコンテンツ再生システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6993034B1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2025009127A1 (ja) * | 2023-07-05 | 2025-01-09 | 日本電信電話株式会社 | データ構築装置、データ構築方法、およびデータ構築プログラム |
WO2025057273A1 (ja) * | 2023-09-11 | 2025-03-20 | 日本電信電話株式会社 | 推定装置、推定方法、推定プログラム、学習装置、および学習方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357413A (ja) | 2000-06-13 | 2001-12-26 | Minolta Co Ltd | アニメーション会話システムおよびそれに用いられるサーバ |
JP2003202885A (ja) | 2001-12-28 | 2003-07-18 | Canon Electronics Inc | 情報処理装置及び方法 |
JP2003248837A (ja) | 2001-11-12 | 2003-09-05 | Mega Chips Corp | 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体 |
JP2007183421A (ja) | 2006-01-06 | 2007-07-19 | Matsushita Electric Ind Co Ltd | 音声合成装置 |
JP2010531478A (ja) | 2007-04-26 | 2010-09-24 | フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー | 感情に訴える助言システム及び方法 |
WO2018168427A1 (ja) | 2017-03-13 | 2018-09-20 | ソニー株式会社 | 学習装置、学習方法、音声合成装置、音声合成方法 |
JP2020184100A (ja) | 2019-04-26 | 2020-11-12 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置、情報処理方法及び学習済モデル生成方法 |
-
2021
- 2021-05-14 JP JP2021082702A patent/JP6993034B1/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357413A (ja) | 2000-06-13 | 2001-12-26 | Minolta Co Ltd | アニメーション会話システムおよびそれに用いられるサーバ |
JP2003248837A (ja) | 2001-11-12 | 2003-09-05 | Mega Chips Corp | 画像作成装置、画像作成システム、音声生成装置、音声生成システム、画像作成用サーバ、プログラム、および記録媒体 |
JP2003202885A (ja) | 2001-12-28 | 2003-07-18 | Canon Electronics Inc | 情報処理装置及び方法 |
JP2007183421A (ja) | 2006-01-06 | 2007-07-19 | Matsushita Electric Ind Co Ltd | 音声合成装置 |
JP2010531478A (ja) | 2007-04-26 | 2010-09-24 | フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー | 感情に訴える助言システム及び方法 |
WO2018168427A1 (ja) | 2017-03-13 | 2018-09-20 | ソニー株式会社 | 学習装置、学習方法、音声合成装置、音声合成方法 |
JP2020184100A (ja) | 2019-04-26 | 2020-11-12 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理装置、情報処理方法及び学習済モデル生成方法 |
Non-Patent Citations (1)
Title |
---|
k17trpsynth’s blog,音声認識と合成についてのまとめ,[online],2018年01月30日,https://k17trpsynth.hatenablog.com/entry/2018/01/30/191338,[検索日:2021-08-20] |
Also Published As
Publication number | Publication date |
---|---|
JP2022175923A (ja) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102582291B1 (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
US20210249013A1 (en) | Method and Apparatus to Provide Comprehensive Smart Assistant Services | |
CN108962217B (zh) | 语音合成方法及相关设备 | |
US9916825B2 (en) | Method and system for text-to-speech synthesis | |
WO2020073944A1 (zh) | 语音合成方法及设备 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
TWI454955B (zh) | 使用模型檔產生動畫的方法及電腦可讀取的訊號承載媒體 | |
CN111785246B (zh) | 虚拟角色语音处理方法、装置及计算机设备 | |
WO2020145353A1 (ja) | コンピュータプログラム、サーバ装置、端末装置及び音声信号処理方法 | |
JP7242736B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
JP6993034B1 (ja) | コンテンツ再生方法、及びコンテンツ再生システム | |
CN114038484A (zh) | 语音数据处理方法、装置、计算机设备和存储介质 | |
TW201225064A (en) | Method and system for text to speech conversion | |
KR20200082232A (ko) | 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
US11749270B2 (en) | Output apparatus, output method and non-transitory computer-readable recording medium | |
CN110524547B (zh) | 会话装置、机器人、会话装置控制方法以及存储介质 | |
JP2015099289A (ja) | 発話内重要語抽出装置とその装置を用いた発話内重要語抽出システムと、それらの方法とプログラム | |
JP6222465B2 (ja) | アニメーション生成装置、アニメーション生成方法およびプログラム | |
JP2014109998A (ja) | 対話装置及びコンピュータ対話方法 | |
JP6930781B1 (ja) | 学習方法、及びコンテンツ再生装置 | |
JP7055529B1 (ja) | 意味判定プログラム、及び意味判定システム | |
KR20210042277A (ko) | 음성 처리 방법 및 장치 | |
JP2020204683A (ja) | 電子出版物視聴覚システム、視聴覚用電子出版物作成プログラム、及び利用者端末用プログラム | |
Lovely et al. | Rule-based lip-syncing algorithm for virtual character in voice chatbot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210519 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6993034 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |