[go: up one dir, main page]

JP3655085B2 - Environment-driven information presentation device - Google Patents

Environment-driven information presentation device Download PDF

Info

Publication number
JP3655085B2
JP3655085B2 JP07055998A JP7055998A JP3655085B2 JP 3655085 B2 JP3655085 B2 JP 3655085B2 JP 07055998 A JP07055998 A JP 07055998A JP 7055998 A JP7055998 A JP 7055998A JP 3655085 B2 JP3655085 B2 JP 3655085B2
Authority
JP
Japan
Prior art keywords
information
presentation
analysis rule
environment
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP07055998A
Other languages
Japanese (ja)
Other versions
JPH11272685A (en
Inventor
善啓 大盛
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP07055998A priority Critical patent/JP3655085B2/en
Publication of JPH11272685A publication Critical patent/JPH11272685A/en
Application granted granted Critical
Publication of JP3655085B2 publication Critical patent/JP3655085B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Graphics (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、消費者のニーズに合った情報を、消費者にとって最適なタイミングで提供する環境駆動型情報呈示装置に関する。
【0002】
【従来の技術】
従来の宣伝における情報提供は大きく次の3種類に分類することができる。
(1)据え置き型(街頭の立看板など、個人を特定しない情報公開)
(2)個人集中型(郵便、電子メールなどを用いたダイレクトメールや勧誘電話など、個人を特定した情報送信)
(3)放送型(テレビ、ラジオなど、個人を特定しない情報送信)
据え置き型の宣伝では、単に看板を据え置くだけなので、これを一度設置してしまえば、後のコストは不要である。しかしながら、その宣伝内容が、通りかかる消費者のニーズにあっているかどうかに関わりなく設置されるので、本当に通行人にとって有用であるという保証はない。また、据え置き型の宣伝のための看板等は、交通や美観を妨げるという問題も発生していた。
【0003】
個人集中型の宣伝は、何らかの方法で取得した消費者の宛先にダイレクトメールや勧誘電話などを送付する宣伝である。例えば、小学校に入学する子供の居る家庭に向けて、机や鞄など消費者にニーズのありそうな品物の宣伝を送付するような場合が相当する。しかしながら、机や鞄などの商品を消費者が既に購買済みの場合には、一方的に送りつれられるダイレクトメールや勧誘電話は、大部分の消費者にとっては不要であり、迷惑を感じる場合すらある。さらに、不要なダイレクトメールは紙資源の浪費であるとも言えるので省資源の観点からも問題である。
【0004】
テレビやラジオ、新聞、週刊誌などの公共のメディアを利用する放送型の宣伝は、特定の個人に対する情報発信ではないので個人集中型のような問題を引き起こすことはない。しかしながら、ニーズを持ちそうな消費者に対し、発信された情報が確実に行き届いているかを判定するのは困難であるという反面がある。例えば子供向け番組は、当然ながら大部分の視聴者は子供達であるので、子供達の注意を引きそうな玩具などの宣伝を集中させるといった、ある程度の工夫はなされている。しかしながら、個人集中型の宣伝と比較すると、真に消費者のニーズに対して有効な商品の宣伝ができているとは限らず、消費者の注意を引くようなCM作りに多大な経費が費やされているというのが実状である。また、CMのために放映中の番組が一次的に中断されることに消費者が不具合を感じるという問題もある。
【0005】
ところで、インターネットのWebのホームページなどに見られるバナー広告と呼ばれる宣伝方法が知られている。これは、ホームページの片隅に明滅して表示され、興味をもった消費者がマウスなどでクリックすると、リンク先の広告本体が表示されるというものである。このバナー広告については、現在のインターネットにおいて使用されている通信回線の容量が小さいため、リンク先の広告本体のデータ取得に時間がかかるという欠点がある。あるいは、単に明滅表示をするだけの単純なバナー広告の表示には、消費者も慣れてくると注意を向けなってしまう。
【0006】
ところで、最近では、Webのブラウザを利用した消費者の購買情報を蓄積し、これに基づき消費者のニーズを分析し、それにあった宣伝を電子メールなどで送るような新しい宣伝方法の試みもなされるようになってきた。しかしながら、消費者のニーズを正確に把握するためには、かなりの量の、消費者の個人情報(プロファイル)を、消費者自らに入力してもらう必要があった。これでは消費者に負担をかけてしまう。また、単に、その消費者に対し従来の購買情報の傾向に合った製品の宣伝を行うだけでは、消費者の動的なニーズの変化に追随できず惰性化しやすいという問題があった。また、消費者に情報を呈示する手段はどれも似通った構成であり、宣伝効果の相違はそれほど無い。
【0007】
また、情報フィルタリングのプッシュサービスと結びつけて、消費者が取得したいWebのホームページとして選択したカテゴリに基づき、消費者の好みに合った宣伝を選択して消費者に呈示する試みもなされてきている。しかしながら、この場合においても、消費者に情報を呈示する手段はダイレクトメールなどが殆どであった。ダイレクトメールのような宣伝媒体は、消費者が必要なしと判断してこれを開封せずに捨てたり、電子メールのフォルダから削除してしまえば、消費者に呈示される機会は完全に失われてしまう。
【0008】
また、Webブラウザの一部にバナー広告的な情報呈示を行う場合についても、呈示情報を確認することなく消費者が自分には不要な情報呈示とみなし、すなわちクリックしてもらえないという場合が往々にしてある。
【0009】
以上のような従来から知られているの種々の宣伝における問題点は、消費者のニーズに本当に適合しているかどうか、あるいは、消費者がそのような情報の取得に適した状態にあるかどうか、ということとは無関係に一方的に宣伝内容が配信されることに原因があると考えられる。
【0010】
【発明が解決しようとする課題】
本発明はかかる事情を考慮してなされたものであり、被情報呈示者にとっては不要な情報から所望の情報を取拾選択するための手間が省かれ、一方、情報呈示者にとっては被情報呈示者に対しタイムリーで飽きの来ない効果的な情報呈示を行える環境駆動型情報呈示装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記課題を解決し目的を達成するために本発明は、次のように構成されている。
すなわち、本発明の環境駆動型情報呈示装置は、被情報呈示者(消費者等の利用者)の周囲の環境情報を入力する環境情報入力手段(ビデオカメラやマイクロフォンなどのメディアから成る)と、情報呈示のタイミングを決定するための解析規則を記憶する解析規則記憶手段と、前記環境情報手段から入力された環境情報を解析するとともに前記解析規則記憶手段に記憶されている解析規則とのマッチングを行う解析手段と、前記解析手段において解析規則とのマッチングが成立した場合に、前記環境情報の内容に応じた所定の呈示情報を選択する選択手段と、前記選択手段により選択された呈示情報を前記タイミングに従って前記被情報呈示者に対し呈示する呈示手段と、を具備する。
【0012】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態を説明する。
[第1実施形態]
図1は、本発明の第1の実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図である。この装置は、ユーザの周囲の環境を表す情報を取得する環境情報入力部10と、解析規則を記憶する解析規則記憶部11と、環境情報入力部10から入力された環境情報を解析し、解析規則部11に記憶されている解析規則とのマッチングを行うことにより、情報呈示のタイミングを判定する解析部12と、解析部12の解析結果に基づいて、ユーザに対して呈示する情報を選択する選択部13と、選択部13が選択した情報を呈示する呈示部14とによって構成されている。
【0013】
環境情報入力部10は、例えばビデオカメラやマイクロフォンなどのメディアから成り、ユーザの周囲の環境を表す情報を取得する。これにより、ユーザが現在、どのような状況にあるのか(例えば夕食の準備をしていて忙しいのか、それとも家事が一段落して比較的暇な状態であるのかなど)を判断できる。
【0014】
解析規則記憶部11に記憶される解析規則は、例えば、図1に示すように「caaa」というような記号の羅列である。この解析規則は、環境情報入力部10に入力された複数メディアの情報を、ある単位にまとめたオブジェクトの系列であり、このオブジェクト系列は、ユーザに対して情報呈示を行うタイミングを決定するために用いられる。
【0015】
オブジェクト系列について説明を行う前に、環境情報入力部10より入力された複数メディア情報をオブジェクト化する方法について詳細に説明する。
図2は、例えば、環境情報として音声及び映像のストリームデータが入力されたことを想定し、これらが入力されている様子を時間に沿って示したものである。音は、音がある部分とない部分でまず区切られる。図2においては、音のある部分(ここでは、ある一定の音量を超えている部分)は、実線の矩形によって示されており、音のない部分は点線の矩形によって示されている。一方、映像は、動きを表す部分(ここでは、MPEG2などで圧縮するときに使う動きベクトルをもとに「動き」の有無を判断することとする)は、実線の矩形によって示され、動きのない部分は点線の矩形によって示されている。
【0016】
その結果、図2に示すように音と映像では、実線の矩形の部分と点線の矩形の部分が時間的にずれている。このままでは、音と映像を一括して扱うことが難しいので、ここでは、両者を統合化してひとまとまりで扱えるようにオブジェクト化を行う。ひとまとまりで扱えるように設定したオブジェクトをここでは、関連オブジェクトと称する。
【0017】
まず、音と映像の両方をひとまとまりにするために、例えば、次のような簡単なルールを定義する。
・ルール1:音のある部分とない部分との境界で区切る
・ルール2:映像の動きのある部分とない部分との境界で区切る
・ルール3:音のある部分、映像中の動きを表す部分では区切らない
・ルール4:音のない部分、映像中の動きを表す部分では区切る
このルールに則ってオブジェクト化を進めると、まず、最初に音のない部分に続いて、音のある部分(s1)が始まる。ここで、ルール1に合致するので、この境界で環境情報を区切ってオブジェクト化を行うとすると、映像の動きを表す部分(m1)を区切ることになるので、ルール3に合致する。したがってここでは区切らない。続いて、(s1)の終わりで区切ろうとしても、同様にルール3に合致しないため区切らない。
【0018】
次に、ルール2に合致するので(m1)の終わりで環境情報を区切ろうとするが、このときは音のない部分なのでルール4に合致するため区切ることができる。ここで、ようやく一番目の関連オブジェクト(obj1)ができあがる。
【0019】
以下同様にして、最終的に、図2に示すような関連オブジェクが得られる。
なお、このオブジェクト化に関しては、ここで述べた以外の方法(例えば、参考文献「特願平9−221642号公報に記載の「情報記憶装置及び情報記憶検索装置及び情報記憶方法」」)を用いることも可能である。
【0020】
次に、ここで作られた関連オブジェクトobj1,obj6,,からなる系列を、どのようにして、図1の解析部12に示すような系列データ(,,,a,a,c,a,a,a,c,a,a,a)に変換するかについて説明する。
【0021】
先ず、関連オブジェクト生成の際に、オブジェクトに音が含まれているか否か、映像の動きのある部分が含まれているか否かで、例えば、以下のような形式で、それぞれに属性を付加していく。
【0022】
まず、obj1には、音があり、映像の動きの部分も含まれているので、この属性は、例えばベーシック言語の記述に則って、
Objects(1).IsSoundMotion
のように示され、この属性に真を表す値1を代入する。「Objects(1)」はObjectsが関連オブジェクトであることを示し、「(1)」はその1番目のオブジェクトであることを示す。IsSoundMotionは、音と動き(motion)があることを示す属性を表す。「.」は右辺の属性が左辺のオブジェクトに付加されていることを表す。
【0023】
Obj5も同様に、
Objects(5).IsSoundMotion
の値は1となる。
【0024】
同様にObj2とObj4は、音もなく、映像の動きもないので、
Objects(2).No
Objects(4).No
と表される。Noは音も映像の動きもない属性を示し、値1を代入する。
【0025】
同様にObj3は、音のみなので、
Objects(3).IsSound
となり、値1を代入する。もし、n番目のオブジェクトが映像の動きの部分であれば、
Objects(n).IsMotion
の値は1となる。
【0026】
以上のように、属性付けがされたオブジェクトに対し、その属性に注目して、「a」や「c」を対応付けていく。例えば、この例では、Noの属性をもつオブジェクトに「a」を対応つけ、IsSoundMotionの属性をもつオブジェクトに「c」を対応付ける。このように対応つけられたオブジェクトを順番に並べると、例えば、
(,,,a,a,c,a,a,a,c,a,a,)
といった系列(オブジェクト系列)が得られる。
【0027】
あるいは、個人認証や画像認識などの処理を行い、さらに詳細な属性付けを行ったオブジェクトをcやaに対応させる方法も可能である。その場合、たとえば、音声を解析して、話者認識から、Obj1での音声は、Aさんであると認証されたとすると、
Objects(1).IsPersonA
といったように、Aさんと認証されたことを示す属性IsPersonAがオブジェクトに付加され、これに値1の真値が代入される。
【0028】
次に、この系列をもとに、解析部12が解析規則記憶部11に記憶された解析規則とどのようにしてマッチングを行うかについて説明する。
解析規則記憶部11に記憶されている「caaa」や「ac*a」は、上述のように生成される「a」や「c」の属性がいくつ並ぶかを示している。「c*」は少なくとも1個以上の「c」が並んでいてもよいことを示す。
【0029】
解析部12によるマッチングは、ここでは、環境情報入力部10から入力された環境上を表すオブジェクト系列に対して、解析規則記憶部11に記憶されている解析規則との単純なパターンマッチングとする。
【0030】
環境情報入力部10から入力されたオブジェクト系列(,,,a,a,<c,a,a,a>,c,a,a)のうち、カギ括弧で括った部分は解析規則記憶部11に記憶された「caaa」と一致する。「aaa」のオブジェクトの並びは、音声及び動きのある映像が存在する状態に続いて、音も映像の動きもない状態が3回連続したことを示し、ここでは、この並びの入力があるとユーザは暇であると判断することにする。
【0031】
選択部13には、「caaa」という規則と、ユーザが暇である場合にユーザに呈示する情報とが、例えば、
(caaa,“○×デパートに出かけてはどうですか?”)
のように組になって記憶されており、解析部12において「caaa」という規則がマッチすると、選択部13はこの規則に対応した(状態、呈示情報)の情報の組を選択する。これを組み合わせ情報と称する。
【0032】
選択部13によって選択された組み合わせ情報のうち、呈示情報は呈示部14のスピーカより「○×デパートに出かけてはどうですか?」という音声で再生され、ユーザに呈示される。
【0033】
なお、呈示部14は所定のタイミングで呈示情報を呈示するが、ここで言うタイミングとは以下のものが考えられる。
・時間遅延(タイムディレイ):解析部12において解析規則とのマッチングが成立した直後、あるいは5秒の時間遅延の後に呈示する。
・周期性:周期的な情報呈示では、1分ごとに呈示情報を切り替えるか、あるいは5分ごとに切り替えて、呈示する。
【0034】
ここでは、例えば時間遅延をタイミングとして設定される。
図3は、以上説明した本実施形態の概略動作をフローチャートによって示したものである。すなわち、先ず環境情報を取得し(ステップ301)、ここで取得された情報を解析部12においてオブジェクト化し(ステップ302)。そして、この情報が表す規則と解析規則記憶部11に記憶されている規則とがマッチするか否かを判定し(ステップ303)、選択部13において、マッチした記憶に合致する情報を選択してこれを呈示する(ステップ304)。
【0035】
[第1実施形態の効果]
以上説明した第1実施形態の環境駆動型情報呈示装置によれば、メディアから入力された環境情報に基づきユーザの状況に合った情報が適切なタイミングで呈示される。このため効果的な情報呈示を実現できる。したがって、従来のダイレクトメールのように不要な紙屑を増やしたり、ユーザの作業を邪魔するといった、供給元からの一方的な情報呈示による不具合を改善できる。
【0036】
[第1実施形態の変形例]
第1の実施形態では、環境情報として音と映像を例にとったが必ずしもこれに限定されるものではなく、他のメディアからの情報を用いることも可能である。あるいは、同一のメディアを用いる場合であっても、設置場所などを変え、これを複数用いることも可能である。例えば、映像もカメラを複数台設置し、これらのデータを統合してオブジェクト化を行い、解析に供することも可能である。
【0037】
また、オブジェクトに属性を付加する方法も、ここで説明した方法や記述方式に限定されるものではない。
また、本実施形態では、選択部13には、規則とそれに対応して呈示するべき情報の組み合わせ(組み合わせ情報)が記憶されているが、その内容は特定のものに限定されるない。例えば、解析規則記憶部11には、ユーザが暇である状態を表す解析規則しか記憶されないとすると、選択部13は例えば「散歩に出かけてはどうですか?」という情報を常に選択しても良い。
【0038】
さらに、ある解析規則とのマッチングが成立したら速やかに情報を呈示すべきか、あるいはある一定時間のディレイののちに呈示すべきか、あるいは、ユーザから呈示情報に対する反応があるまで、どのような時間周期で情報を呈示すべきかといった時間的な選択に関しても、組み合わせ情報に含めて記憶させても良い。
【0039】
例えば、
(caaa,“○×デパートに出かけてはどうですか?”,t=0)
という具合に、「caaa」というパターンにマッチしたらt秒後(この場合、0秒後)に情報を呈示させる。
【0040】
あるいは、
(caaa,“○×デパートに出かけてはどうですか?”,rp=3&ur=No)
といったように、「caaa」というパターンにマッチしたら、ユーザからの反応(ur:user reaction)を表す例えば「aacaa」などのパターンが入力されるまで、rp分(この場合、3分)間隔で情報を呈示させる。
【0041】
図4はこのような繰り返し呈示に係る動作を示すフローチャートである。
環境情報の入力に先立ち、まず、繰り返し情報の有無を記憶するためのパラメータR,周期t0、呈示時刻のカウンタt、繰り返し呈示する情報を格納するメモリMのクリアを行う(ステップ401)。
【0042】
その後、環境情報を取得し(ステップ402)、第1の実施形態において説明したようにオブジェクト化を行う(ステップ403)。次に、解析規則記憶部11に記憶されている規則とのマッチングを行う(ステップ406)。マッチが成立した場合、繰り返し呈示の指定があるかどうかを調べる(ステップ407)。指定がなされている場合は、繰り返しフラグRを1に、その情報をMに、繰り返し周期をt0に格納し、カウントアップを開始する(ステップ408)。
【0043】
そして、t0になった時点(ステップ409)において、情報を呈示する(ステップ410)。この繰り返し呈示は、ユーザからリアクションがあるまで、バックグランド処理によって行われる(図4においては、フローが煩雑になるので省略してある)。このため、ステップ404において、ユーザのリアクション(Yes、あるいはNo)であるかどうかを調べる。リアクションであり、且つ、「ur」に記されたパターンとのマッチングが成立する場合は、ステップ405において繰り返し呈示する情報のフラグRやメモリMやt0、tのクリアを行う。
【0044】
一方、繰り返し呈示でない場合(ステップ407=NO)は、呈示時刻の指定がなされているかどうかを調べる(ステップ411)。指定がなされている場合は、その値をt0に格納し(ステップ412)、指定時刻なった時点(ステップ409)で情報を呈示する(ステップ410)。この設定時刻のクリアはステップ413と414において行う。
【0045】
なお、
(caaa,“○×デパートに出かけてはどうですか?”,date=“12/25”)
といったように、「caaa」というパターンにマッチしたら、情報呈示を行う時間指定の条件を表す「date」の値を参照し、このマッチングが行なわれた日が12月25日のクリスマスである場合にのみ情報を呈示する、といったタイムリーな情報呈示を行うことも可能である。
【0046】
あるいは、組み合わせ情報の他の例としては、一つの規則に対して異なる多種の呈示情報を例えば、
(caaa,“○×デパートに出かけてはどうですか?”:“明日、新車の発表会があります”....)のように記憶させておき、ランダム変数などによりランダムに呈示することで、呈示情報の陳腐化を防ぐようにしても良い。
【0047】
[第2実施形態]
上述した第1の実施形態の環境駆動型情報呈示装置は、ユーザを含む環境情報を取得し、それを解析し、ユーザに適したタイミングで情報呈示を行うものであった。かかる実施形態によれば、ユーザの行動があまり変化しない場合は、環境情報入力部10から取得される情報もあまり変化せず、同じ情報が呈示される場合が多くなり、早い時点で陳腐化してしまう可能性がある。あるいは、せっかく情報が呈示されても“○×デパートに出かけてはどうですか?”といった一般的な情報ばかりでは、情報の新鮮さに欠け、ユーザの注意をひく情報呈示ができない可能性がある。
【0048】
本発明の第2実施形態はこのような問題を解決するものであり、呈示情報の陳腐化の抑制を図り、ユーザに対し新鮮な情報を呈示するように構成されている。
図5は本実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図である。本装置は、第1実施形態に係る図1の概略構成に対し、解析規則送信部20、解析規則受信部21、解析規則追加部22が追加されて成る。なお、第1実施形態と同一の部分には同一の参照符号が付してある。
【0049】
第2の実施形態の装置は、解析規則受信部21によって、解析規則送信部20から送信された情報呈示のタイミングを示す情報及び呈示情報を受信することが可能となっている。なお、解析規則送信部20は、呈示情報の供給元(広告主等)側のシステムに含まれる。
【0050】
また、本実施形態の装置は、解析規則追加部22を備えている。この解析規則追加部22は、解析規則受信部21から受信した解析規則を解析規則記憶部11に対し追加するための手段である。
【0051】
解析規則送信部20は例えば、
(aaaee“お疲れの様ですね。これを食べて栄養を取ってはいかがですか?”)
という解析規則、及び「これ」に相当する宣伝対象である食品の静止画像等(栄養食品(新発売!))を環境駆動型情報呈示装置に対し送信する。
【0052】
ここで、解析規則中において「e」というのは、例えば「ため息をつく」といった状態を表す新しいオブジェクトである。つまり、「aaaee」は音も、動きのある映像も得られず、ため息をする状態が続いたときに、情報を呈示せよということ意味する。
【0053】
図6は解析規則送信部20から送信された情報が解析規則記憶部11に格納されるまでの動作の流れを示すフローチャートである。
先ずステップ601において、解析規則送信部20からの解析規則の受信を検知した場合はステップ602に進む。そして、受信した解析規則と同一の規則が既に解析規則記憶部11内に存在しているか否かを判定する(ステップ602)。ここで、同一の解析規則が存在しなければ、受信した解析規則を解析規則記憶部11に格納する(ステップ604)。一方、同一の解析規則が既に存在する場合には、解析規則の上書きの許可をユーザに対し求める(ステップ603)。ここでユーザが許可した場合には、受信した解析規則を解析規則記憶部11内の解析規則に上書きする。一方、ユーザからの許可が得られなかった場合、例えば、
(caaa,“○×デパートに出かけてはどうですか?”)
という解析規則に対し、“お疲れの様ですね。これを食べて栄養を取ってはいかがですか?”という呈示情報のみを追加する(ステップ605)。
【0054】
以上のようにして解析規則送信部20から送信された情報が解析規則記憶部11に格納された以降のマッチング等の処理は、第1の実施形態(ステップ303〜)と同様であるので説明を省略する。
【0055】
[第2実施形態の効果]
以上説明した本実施形態によれば、解析規則送信部20及び解析規則受信部21から成る通信手段を通じて、「ユーザのどのような状態にマッチさせるか」、「マッチしたらどのような情報を呈示するか」を表す解析規則が呈示情報の供給元(広告主等)から継続的に送られてくるので、ユーザに呈示する情報、及びかかる情報を呈示するタイミングを多様化させることができる。したがって、呈示情報の新鮮さを保つことができ、これが陳腐化する恐れがない。
【0056】
[第2実施形態の変形例]
まず、第1及び第2の実施形態のいずれにおいても、情報呈示がどのような手段により行われるかを特定していない。例えば情報呈示を行う場所は、PCなどのコンピュータ画面上に限定されない。たとえば、外部と電話回線等を介してインターネット等による通信手段を備えたテレビジョン装置の画面上に表示させることも可能である。
【0057】
あるいは、情報呈示を画面上において行う代わりに、家事ロボットや、ぬいぐるみなどにおいて、これらの音声によって呈示させても良い。また、家事ロボットがユーザの肩に触れて注意を促す、といったことよっても特定の情報呈示は可能である。
【0058】
次に、解析規則受信部21が受信する解析規則を、呈示情報の他に、タイミングなどのパラメータを含めるように変形することも可能である。また、第2実施形態では、解析規則の編集について、通信手段を用いて新たな解析規則の追加を行うことについて説明した。しかし、この編集は追加だけに限らず、例えば、
(aaaee,“お疲れの様ですね。これを食べて栄養を取ってはいかがですか?”,delete)
といったように、解析規則を削除するパラメータが付加された解析規則を受信して、
(aaaee,“お疲れの様ですね。これを食べて栄養を取ってはいかがですか?”)
という解析規則が既に記憶されている場合には、これを削除しても良い。
【0059】
解析規則の編集は、このような追加及び削除に限らず、解析規則を変化させるものであれば何でも良い。
次に、第2の実施形態は受信手段のみを備えるものであったが、さらに送信手段を付加し、例えば商品の宣伝に関する情報呈示を受けたユーザが、送信手段を介して該当商品の発注指示を出せるようなシステム構成とすることも可能である。この場合、システムはユーザからの発注指示を認識し、該当商品の発注に関する通信処理を行う。
【0060】
次に、第2の実施形態では、広告主から送られてくる情報を通信手段を介して受信するものとして説明を行ったが、通信手段の代わりに、例えばDVDなどの記録媒体を介して取得しても良い。例えば、映画などのDVDを装着すると、そのDVDの中に含まれる広告情報やその呈示のタイミング情報等を検知し、解析規則追加部22はこの情報を所定の解析規則に追加する。
【0061】
解析規則に情報を追加するタイミングは何時でも良い。例えば、ユーザが装置に装填したDVDの映画を見ている最中でも良い。また、このような記録媒介はDVDに限らず、例えばCD−ROMやICカードなど、外部から装置に情報を入力できる媒体であれば如何なるものでも良い。これにより、通信手を介して解析規則を編集する場合と同等の効果を得る事ができる。
【0062】
次に、第2の実施形態において、選択部13は複数の呈示情報のうちから、少なくともひとつを選択し、これを呈示部14が呈示するものとして説明したが、過去にユーザに呈示した情報を記録しておき、例えば、過去に呈示した情報とは異なる情報を選択させるように構成しても良い。例えば、選択部13に記憶された(状態、呈示情報)の組が、
(caaa,“高級品の商品Aが発売されました。機能が充実しています”:“兼価品の商品Bが発売されました。最低限必要な機能を備えています。”)
という具合に、ある状態に対応する呈示情報が複数存在する場合であって、且つ過去に商品Bについて情報呈示したことにユーザが感心を示したことがある場合には、過去に情報呈示した商品Bとは異なった商品Aの情報呈示を行う。これにより、ユーザの要求を満たす情報を呈示することができる。
【0063】
[第3実施形態]
上述した第1の実施形態の環境駆動型情報呈示装置は、ユーザの置かれている環境を表す情報を取得しこれを解析することによりユーザに適したタイミングで情報呈示を行うものであり、また第2の実施形態の装置は、ユーザに呈示する情報と、それを呈示するタイミングを指定する情報とを呈示情報の供給元(広告主等)から受信し、呈示情報の内容及びその呈示タイミングを変化させることにより、飽きの来ない情報呈示を可能にするものであった。このような第1の実施形態および第2の実施形態の装置においては、広告主等の情報供給元は装置に組み込んだ広告情報、あるいは発信した広告等の情報がユーザに対し実際に呈示されたかどうかを知ることができない。
【0064】
第3の実施形態はこのような問題を解決すべく構成されている。すなわち、第3実施形態の環境駆動型情報呈示装置は、呈示情報の供給元(広告主や広告代理店)との通信を行うことにより、装置がユーザに対し情報(宣伝を含む)を呈示すると、その情報が呈示されたこと(情報の呈示結果)を供給元に通知する。
【0065】
これにより、例えば呈示情報の供給元である広告主は、装置に組み込んだり装置に対し発信した広告情報が、実際にユーザに呈示されたかどうかを知ることができる。また、広告主が指定したタイミングがどの程度有効であったかや、どのユーザに広告呈示が行われたか、などを知ることもできるようになる。
【0066】
図7は本実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図である。本実施形態は、第1実施形態に係る図1の概略構成に対し、呈示結果送信部30が付加されている。呈示結果受信部31は呈示情報の供給元側のシステムに含まれる。なお、第1実施形態と同一の部分には同一の参照符号が付してある。
【0067】
本実施形態においては、選択部13で選択された情報に対し、例えば、
(caaa,“○×デパートに出かけてはどうですか?”,123−45−6789)
のように、電話番号などの宛先を後尾に付加されている。この宛先は、例えば電話番号に限らず、メールアドレスなど、呈示結果を送信する供給元の宛先として認識できるものであれば如何なるものでも良い。
【0068】
そして、この情報がユーザに呈示された際には、この情報が呈示されたことが呈示結果送信部30によって呈示情報の供給元に通知される。
具体的には、選択部13によって情報が選択されると、呈示結果送信部30は、その情報に付加された宛先を識別し、その宛先に例えば、
(caaa,“○×デパートに出かけてはどうですか?”)
といったように、ユーザに呈示した内容を、呈示結果受信部31に対し送信する。この送信には例えばモデムなどが用いられ、供給元の宛先の電話番号に電話を掛けて接続を確立し、通信を行なう。
【0069】
呈示結果受信部31は、呈示結果送信部30から掛かってきた電話により通信を開始し、呈示結果を受信する。これにより、呈示結果受信部31では、受信した内容の情報が呈示されたことを知ることができる。
【0070】
解析規則に基づき選択部13によって選択された呈示情報を呈示部14が呈示するまでの動作は、第1の実施形態、第2の実施形態と同様である。そこで図8に、選択部13によって選択された呈示情報を送信し、供給元である広告主がこの送信情報を受信するまでの処理の流れをフローチャートによって示す。
【0071】
呈示結果送信部30は、選択部13が呈示情報を選択したかどうかを調べる(ステップ801)。呈示情報が選択された場合はステップ803に進み、選択されなかった場合はステップ801に戻る(ステップ802)。呈示情報が選択された場合は、選択された呈示情報を送信する宛先を調べる(ステップ803)。その宛先に呈示された情報を通信によって送信する(ステップ804)。
【0072】
一方、広告主側は、呈示結果送信部30から送信された呈示情報を、呈示結果受信部31を介した通信によって受信する。
[第3実施形態の効果]
本実施形態によれば、呈示情報の供給元である広告主は、呈示しようとした情報が、ユーザに対し実際に呈示されたかどうかを知ることができる。これにより、例えばユーザへの情報呈示回数に応じて情報呈示代理業者に支払うスポンサー料の計算を定量的に行うこともできる。
【0073】
また、情報呈示がどのように行われたかを定量的に分析して、次に広告を送信する際に、ユーザにとってより効果的な広告を作成することもできる。
[第3実施形態の変形例]
第2の実施形態では、呈示結果として例えば、
(caaa,“○×デパートに出かけてはどうですか?”)
などの選択部13によって選択された情報を用いて呈示結果の送受信を行った。しかし、送受信される情報は、情報の呈示が行なわれたことを知ることができるものであれば何でも良い。例えば、情報の内容が含まれていなくても、情報が呈示された場合に呈示結果送信部30が呈示結果受信部31と接続を行うだけでも、その宛先に通知された情報の種類が一種類である場合には、情報の呈示が行われたことが分かる。この方法は、情報の種類が複数でも、その複数の情報のうちどれかひとつが呈示されたことを知りたい場合にも有効である。
【0074】
装置に例えば(No.003)のように識別子を付加しておいて、この識別子を送受信する情報の内容に含めても良い。そうすると、どの装置によって情報呈示が行われたかを知ることもできる。
【0075】
第3の実施形態では、情報呈示が行なわれたことを例えば広告主が知ることができるが、この際に、実際に情報呈示が行なわれたユーザに対して、割引などの特典情報を算出して、情報呈示が行なわれたユーザに対して配信しても良い。これにより、ユーザの好みにより沿った情報呈示が可能になり、本装置による情報呈示をユーザが受ける意欲、ひいてはその情報呈示による商品の購買意欲、を促進することができる。
【0076】
[第4実施形態]
第4実施形態は、ユーザ周囲の環境情報のみならず、ユーザとは独立した対象物(ここでは仮想的な対象物として「人工生命体」を例にとる)からの環境情報にも基づいて情報呈示を行う環境駆動型情報呈示装置に関する。
【0077】
上述した第1乃至第3の実施形態のいずれにおいても、ユーザにとって適切なタイミングを解析するために、ユーザの周囲の環境を表す情報を取得し、これを用いていた。これらの実施形態では、例えばユーザがいつも決まった同じ行動をすると、環境情報入力部10が取得する情報もいつも同じパターンになってしまうため、いつも同じタイミングで情報呈示することが多くなってしまう可能性がある。そうすると、どのタイミングで情報呈示が行なわれるかをある程度予見できるようになってしまい、ユーザからの注意を惹くことができなってしまう。
【0078】
また、ユーザはいつも同じ装置から情報呈示を受けていると、装置からの情報呈示自体に飽きてしまう可能性もある。第4の実施形態はこのような問題を解決するものである。
【0079】
第4の実施形態では、ユーザに適したタイミングを解析するために解析部12が用いる情報として、ユーザのおかれている環境情報のみならず、ユーザが本実施形態の装置以外で飼っているデジタルペット(人工生命体)、言い替えればユーザとは独立した対象物からの環境情報も加える。これにより情報呈示のタイミングを多様化を図ることができる。
【0080】
また、いつも同じ装置からの情報呈示のみではなく、例えばデジタルペットからの要求に基づく情報呈示など、多様な情報呈示を行うことが可能になり、ユーザを飽きさせることがない。
【0081】
図9は第4実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図である。本実施形態は、上述した第1実施形態に係る図1の概略構成に対し、例えばデジタルペットなどのユーザとは独立した対象物の情報を入力するための外部情報入力部40と、選択部13によって選択された呈示情報の呈示方法を選択する呈示方法選択部41とが追加された構成となっている。なお、第1実施形態と同一の部分には同一の参照符号が付してある。
【0082】
呈示方法選択部41は、通常の情報呈示を行う場合は選択部13によって選択された呈示情報をそのまま呈示するという呈示方法を選択し、外部情報入力部40からの外部入力情報に基づく情報呈示を行う場合には、当該呈示情報をデジタルペットからの要求として呈示する呈示方法を選択する。
【0083】
本実施形態は、外部情報入力部40から入力されたデジタルペットの状態(外部情報)を、環境情報入力部10と同様に、
(…,s,s,s,u,s,s,s,s,s,t)
といった系列として解析部12に入力する。ここで、「s」はデジタルペットが通常の状態であることを意味し、「t」は運動不足であることを意味し、「u」はお腹が空いている状態を意味する。
【0084】
解析部12は、外部情報入力部40から入力されたデジタルペットの系列を、環境情報入力部10から入力された環境情報とは独立して扱う。
解析規則記憶部11は、外部情報入力部40から入力された系列を解析するための解析規則を、例えば(t,u)と表し、環境情報に対する解析規則と同様に記憶する。また解析部12は環境情報を表す系列と環境情報の解析規則とのマッチングと同様の方法によってデジタルペットの状況を解析する。ここでは、外部情報入力部40から「t」という状態が入力されており、解析規則記憶部11に記憶された「t」という解析規則とマッチングするため、解析部12はデジタルペットが運動不足であると判断する。なお、外部情報の入力及び解析は、環境情報の入力及び解析と並行して行なわれる。
【0085】
選択部13には「t」という規則と、デジタルペッドが運動不足である場合にユーザに呈示する情報とが、例えば、
(caaa,t,“○×デパートに出かけてはどうですか?”)
として関連付けられて記憶されている。ここで、解析部12において「caaa」か「t」の少なくともどちらか一方の規則がこの関連情報にマッチすると、選択部13は(状態,呈示情報)との組み合わせ情報、すなわち
(t,“○×デパートに出かけてはどうですか?”)
を選択する。
【0086】
さらに、呈示方法選択部41は、選択部13により選択された(状態、呈示情報)の組み合わせ情報の「状態」の部分を参照することにより、当該組み合わせ情報が環境情報入力部10からの入力によるものなのか、外部情報入力部40からの入力によるものなのかを判定するとともに、環境情報入力部10からの入力による場合は選択部13によって選択された呈示情報をそのまま呈示するという呈示方法を選択し、外部情報入力部40からの外部入力情報による場合は、当該呈示情報をデジタルペットからの要求として呈示する呈示方法を選択する。
【0087】
ここでは、選択部13によって選択された(状態、呈示情報)組み合わせ情報において状態の部分は「t」であり、これが解析規則記憶部11に記憶された(t,u)に含まれるため、外部情報入力部40からの入力によるものと判断され、呈示情報をデジタルペットからの要求としてユーザに呈示する。
【0088】
なお、呈示方法選択部41には、例えば、
(“出かけてはどうですか?”,“連れて行ってください!”)
(“があります”,“を見たいです”)
というように、「そのまま呈示する場合の語尾」、「デジタルペットが要求する場合の語尾」といった組のテーブルが記憶されており、これを用いて、選択された呈示方法にしたがって呈示情報の語尾を変形する。この例では、
「○×デパートに出かけてはどうですか?」
という呈示情報を、デジタルペットからの要求として呈示する呈示方法が選択されているので、テーブルを参照して、「出かけてはどうですか?」の部分を「連れて行って下さい!」に置き換えて、
「○×デパートに連れて行って下さい!」
という呈示情報に変形する。
【0089】
次に呈示部14は、呈示方法選択部41によって生成された「○×デパートに連れて行って下さい!」という呈示情報を、デジタルペットの音声によって再生してユーザに呈示すると同時に、デジタルペッドが外に連れて行って欲しい仕草を表現する映像を画面上に表示する。
【0090】
このように、例えば「○×デパートに行く」ことユーザに促すための情報の呈示を、ユーザを含む環境情報による場合は「○×デパートに出かけてはどうですか?」と呈示し、ユーザ以外のものの環境情報による場合は「○×デパートに連れて行って下さい!」と呈示する、という具合に、多様な方法で行うことができる。したがって、ユーザが同等の情報の呈示であっても新鮮さを感じることを期待できる。
【0091】
選択部13によって解析規則が選択されるまでの処理は、第1の実施形態、第2の実施形態、および第3の実施形態と同様である。
図10に、呈示方法選択部41が情報の呈示方法を選択し、これにより選択された方法によって情報が呈示されるまで処理の流れをフローチャートによって示す。
【0092】
図3に示したステップ303により、環境情報入力部10および外部情報入力部40から入力された情報の系列が解析規則記憶部11に記憶された規則とマッチする場合、選択部13は、マッチした規則に合致する呈示情報を選択する(ステップ1001)。
【0093】
次に、マッチした規則がデジタルペットの規則かどうかを調べ(ステップ1002)、デジタルペットの規則でない場合には、呈示方法選択部41はステップ1004に進み「そのまま呈示」を選択すると共にステップ1006に移行する。そして選択部13によって選択された呈示情報は呈示部14によってそのまま呈示される。
【0094】
一方、ステップ1002において、マッチした規則がデジタルペットの規則である場合、呈示方法選択部41は「デジタルペットが要求」を選択(ステップ1003)してステップ1005に進む。このステップにおいては、デジタルペットからのユーザへの要求として呈示情報を呈示するという呈示方法に則って呈示情報を変形するとともに、デジタルペットが外に連れて行って欲しそうな、そわそわした仕草を表現した映像を生成する。そして呈示部14によって、ステップ1005において変形された呈示情報及びデジタルペットの映像とがユーザに呈示される(ステップ1006)。
【0095】
[第4実施形態の効果]
本実施形態によれば、ユーザ周囲の環境情報だけでなく、デジタルペットなどのユーザ以外の対象物の状況にも基づいて情報呈示のタイミングが発生されるようになる。このため、ユーザはより多様なタイミングで、かつ多様な方法で情報呈示を受けることになる。したがってユーザは情報呈示に対し新鮮味を感じるようになり、情報呈示に対し飽きを感じることがなくなる。
【0096】
また、装置からの情報呈示が常に無機的に行なわれるのではなく、例えば、ユーザが愛着を持ったデジタルペットからの要求という形で行われるようになるので、同等の情報の呈示であっても、押し付けがましくない形でユーザの注意を惹くことができる。
【0097】
[第4実施形態の変形例]
上述した第4実施形態では、デジタルペットに代表される人工生命体など、ユーザ以外のものは装置の外部に存在すると述べたが、これが装置の内部に存在しても良い。
【0098】
また第4実施形態は、ユーザ周囲の環境情報の系列と、外部情報入力部40の系列とを、独立して扱うことによって情報を呈示するタイミングの解析を行なうものであったが、例えば、ユーザが暇そうな時にのみデジタルペットが発生する情報呈示のタイミングを有効にする、という具合に両者の状態を相互に参照して情報呈示のタイミングを生成するようにしても良い。
【0099】
また第4の実施形態においては、呈示方法選択部41に記憶される呈示方法の選択肢として「そのまま呈示」と「デジタルペットが要求」の2種類を例に挙げて説明したが、かかる選択肢の数は2種類に限定されない。例えば、デジタルペットが外出したい仕草をユーザに対し要求する場合、デジタルペットの映像を表示する代わりにロボットがそわそわしている仕草を表現した映像を表示しても良い。あるいはデジタルペットの音声を怒った口調にするなど、種々の改変、追加を行っても良い。
【0100】
また、第2の実施形態において述べた送受信を行う解析規則に、その解析規則が選択された場合に情報を呈示する方法を含めても良い。これにより、ユーザに情報を呈示する方法自体が変化するため、さらに飽きの来ない情報呈示を行うことができるようになる。
なお、本発明は上述した第1乃至第4実施形態のみに限定されず種々変形して実施可能である。
【0101】
【発明の効果】
以上説明したように、本発明によれば、被情報呈示者にとっては不要な情報から所望の情報を取拾選択するための手間が軽減され、一方、情報呈示者にとってはタイムリーで飽きの来ない、効果的な情報呈示を被情報呈示者に対し行える環境駆動型情報呈示装置を提供できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図
【図2】上記実施形態に係る関連オブジェクトの生成を示す図
【図3】上記実施形態の概略動作を示すフローチャート
【図4】上記実施形態に係る繰り返し呈示の動作を示すフローチャート
【図5】本発明の第2実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図
【図6】上記実施形態に係り、解析規則送信部から送信された情報が解析規則記憶部に格納されるまでの動作の流れを示すフローチャート
【図7】本発明の第3実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図
【図8】上記実施形態に係り、選択部によって選択された呈示情報を送信し、供給元である広告主がこの送信情報を受信するまでの処理の流れを示すフローチャート
【図9】本発明の第4実施形態に係る環境駆動型情報呈示装置の概略構成を示すブロック図
【図10】上記実施形態に係る情報呈示の処理の流れを示すフローチャート
【符号の説明】
10…環境情報入力部
11…解析規則記憶部
12…解析部
13…選択部
14…呈示部
20…解析規則送信部
21…解析規則受信部
22…解析規則追加部
30…呈示結果送信部
31…呈示結果受信部
40…外部情報入力部
41…呈示情報選択部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an environment-driven information presentation device that provides information that meets consumer needs at an optimal timing for the consumer.
[0002]
[Prior art]
Information provision in conventional advertising can be roughly classified into the following three types.
(1) Deferred type (Information disclosure that does not identify individuals such as street signboards)
(2) Individual intensive type (information transmission that identifies individuals, such as direct mail using email or e-mail, and solicitation)
(3) Broadcast type (TV, radio, etc., information transmission that does not specify individuals)
In the stationary type advertisement, since the signboard is simply deferred, once this is installed, the later cost is unnecessary. However, there is no guarantee that it will really be useful to passers-by, as its advertising content is set up regardless of whether it meets the needs of passing consumers. In addition, a signboard for a stationary type advertisement has a problem of obstructing traffic and aesthetics.
[0003]
The personalized advertisement is an advertisement in which a direct mail or a solicitation is sent to a consumer's destination acquired by some method. For example, it may correspond to a case where an advertisement of an item that seems to be in need, such as a desk or a bag, is sent to a family with children entering elementary school. However, if consumers have already purchased items such as desks and bags, direct mail and solicitation that are sent unilaterally are unnecessary for most consumers and may even cause inconvenience. . Furthermore, since unnecessary direct mail can be said to be a waste of paper resources, it is also a problem from the viewpoint of resource saving.
[0004]
Broadcast-type advertisements using public media such as TV, radio, newspapers, and weekly magazines do not cause information-specific problems because they are not information transmissions to specific individuals. However, it is difficult for consumers who are likely to have needs to determine whether or not the transmitted information is fully delivered. For example, since most viewers of children's programs are children, of course, some measures have been taken to concentrate advertising such as toys that are likely to attract children's attention. However, compared to personalized advertising, it is not always possible to advertise products that are truly effective for consumers 'needs, and a great deal of money is spent on making commercials that attract consumers' attention. The fact is that it is done. In addition, there is a problem that the consumer feels that the program being broadcast for the commercial is temporarily interrupted.
[0005]
By the way, a publicity method called a banner advertisement which is found on a web homepage of the Internet is known. This is a blinking display at one corner of the home page, and when an interested consumer clicks with a mouse or the like, the linked advertisement body is displayed. This banner advertisement has a drawback that it takes time to acquire data of the linked advertisement main body because the capacity of the communication line used in the current Internet is small. Or, as consumers become accustomed to displaying simple banner advertisements that merely blink, attention will be paid.
[0006]
By the way, recently, an attempt has been made for a new advertising method that accumulates consumer purchasing information using a Web browser, analyzes the consumer's needs based on this information, and sends the appropriate advertisement by e-mail or the like. It has come to be. However, in order to accurately grasp the consumer's needs, a considerable amount of personal information (profile) of the consumer has to be input by the consumer himself / herself. This puts a burden on the consumer. In addition, simply advertising a product that matches the trend of conventional purchasing information to the consumer, there is a problem that it is not easy to follow the changes in the consumer's dynamic needs and is easy to dwarf. In addition, all means for presenting information to consumers have a similar configuration, and there is not much difference in advertising effectiveness.
[0007]
Also, in connection with the information filtering push service, attempts have been made to select and present advertisements to consumers according to the consumer's preference based on the category selected as the Web home page that the consumer wants to acquire. However, even in this case, most of the means for presenting information to consumers is direct mail. Promotional media such as direct mail will be completely lost if consumers decide that they are not needed and throw them away without opening or delete them from the email folder. End up.
[0008]
In addition, when a banner advertisement information is presented on a part of a Web browser, the consumer often considers the information presentation unnecessary for the user without confirming the presented information, that is, the user cannot click the information. It is.
[0009]
The above-mentioned various problems in publicity are whether they are really suitable for the needs of consumers or whether they are in a suitable state for obtaining such information. It is considered that the cause is that the advertising content is unilaterally distributed regardless of the above.
[0010]
[Problems to be solved by the invention]
The present invention has been made in view of such circumstances, and it eliminates the trouble of selecting and selecting desired information from information unnecessary for the information presenter, while providing information to the information presenter. It is an object of the present invention to provide an environment-driven information presentation device that can perform effective information presentation in a timely manner without getting bored.
[0011]
[Means for Solving the Problems]
In order to solve the above problems and achieve the object, the present invention is configured as follows.
In other words, the environment-driven information presentation device of the present invention includes environmental information input means (comprising a medium such as a video camera or a microphone) for inputting environmental information around the information presenter (user such as a consumer), Analysis rule storage means for storing an analysis rule for determining the timing of information presentation, and analyzing the environment information input from the environment information means and matching the analysis rule stored in the analysis rule storage means Analysis means for performing, when matching with an analysis rule is established in the analysis means, a selection means for selecting predetermined presentation information according to the contents of the environment information, and the presentation information selected by the selection means Presenting means for presenting to the information presenter according to the timing.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of an environment-driven information presentation apparatus according to the first embodiment of the present invention. This apparatus analyzes an environment information input unit 10 that acquires information representing an environment around a user, an analysis rule storage unit 11 that stores an analysis rule, and environment information that is input from the environment information input unit 10 By matching with the analysis rule stored in the rule unit 11, the analysis unit 12 for determining the timing of information presentation, and the information to be presented to the user are selected based on the analysis result of the analysis unit 12. It is comprised by the selection part 13 and the presentation part 14 which presents the information which the selection part 13 selected.
[0013]
The environment information input unit 10 includes media such as a video camera and a microphone, for example, and acquires information representing the environment around the user. As a result, it is possible to determine what the user is currently in (for example, whether he is busy preparing dinner, or whether the housework is in a relatively idle state).
[0014]
The analysis rule stored in the analysis rule storage unit 11 is, for example, an enumeration of symbols such as “caaa” as shown in FIG. This analysis rule is a series of objects in which information of a plurality of media input to the environment information input unit 10 is collected in a certain unit, and this object series is used to determine the timing for presenting information to the user. Used.
[0015]
Before describing the object series, a method for converting the multiple media information input from the environment information input unit 10 into an object will be described in detail.
FIG. 2, for example, assumes that audio and video stream data has been input as environment information, and shows how these are being input over time. The sound is first divided into parts with and without sound. In FIG. 2, a portion with sound (here, a portion exceeding a certain volume) is indicated by a solid rectangle, and a portion without sound is indicated by a dotted rectangle. On the other hand, in the video, a portion representing motion (in this case, the presence or absence of “motion” is determined based on a motion vector used for compression in MPEG2 or the like) is indicated by a solid rectangle, The missing part is indicated by a dotted rectangle.
[0016]
As a result, as shown in FIG. 2, in the sound and the video, the solid rectangular portion and the dotted rectangular portion are shifted in time. If it remains as it is, it is difficult to handle sound and video in a lump. Here, both are integrated into an object so that they can be handled together. Here, an object set so as to be handled as a unit is referred to as a related object.
[0017]
First, in order to group both sound and video, for example, the following simple rule is defined.
・ Rule 1: Delimit at the boundary between the part with and without sound
・ Rule 2: Divide at the boundary between the moving part and the non-moving part of the video
・ Rule 3: Do not divide the part with sound and the part showing the movement in the video.
・ Rule 4: Divide the part without sound and the part representing the movement in the video.
When objectification is advanced in accordance with this rule, a sounded part (s1) starts after a soundless part first. Here, since the rule 1 is matched, if the environment information is divided at this boundary and the object is formed, the part (m1) representing the motion of the video is divided, so the rule 3 is met. Therefore, it is not delimited here. Then, even if it tries to divide at the end of (s1), it does not divide because it does not match rule 3.
[0018]
Next, since it matches rule 2, it tries to divide the environment information at the end of (m1), but at this time it can be separated because it matches rule 4 because there is no sound. Here, the first related object (obj1) is finally created.
[0019]
Similarly, the related objects as shown in FIG. 2 are finally obtained.
For this objectification, methods other than those described here (for example, “Information storage device, information storage search device and information storage method” described in Japanese Patent Application No. 9-221642) are used. It is also possible.
[0020]
Next, the series of related objects obj 1, obj 6, created here is converted into series data (,, a, a, c, a, a as shown in the analysis unit 12 of FIG. 1. , A, c, a, a, a) will be described.
[0021]
First, when generating related objects, attributes are added to each object in the following format, for example, depending on whether the object contains sound or whether there is a moving part of the video. To go.
[0022]
First, since obj1 has a sound and includes a motion part of an image, this attribute is based on, for example, a description of a basic language.
Objects (1). IsSoundMotion
The value 1 representing true is substituted for this attribute. “Objects (1)” indicates that Objects is a related object, and “(1)” indicates that it is the first object. IsSoundMotion represents an attribute indicating that there is a sound and a motion. “.” Indicates that the attribute on the right side is added to the object on the left side.
[0023]
Similarly for Obj5,
Objects (5). IsSoundMotion
The value of is 1.
[0024]
Similarly, Obj2 and Obj4 have no sound and no video movement.
Objects (2). No
Objects (4). No
It is expressed. No indicates an attribute having neither sound nor video motion, and a value 1 is substituted.
[0025]
Similarly, Obj3 is sound only,
Objects (3). IsSound
And the value 1 is substituted. If the nth object is the motion part of the video,
Objects (n). IsMotion
The value of is 1.
[0026]
As described above, “a” and “c” are associated with the attributed object by paying attention to the attribute. For example, in this example, “a” is associated with an object having the No attribute, and “c” is associated with an object having the IsSoundMotion attribute. Arranging the objects associated in this way in order, for example,
(,,, a, a, c, a, a, a, c, a, a,)
Such a series (object series) is obtained.
[0027]
Alternatively, it is possible to perform a process such as personal authentication or image recognition, and associate an object with further detailed attributes with c or a. In that case, for example, if the speech is analyzed by speaker recognition and the speech at Obj1 is authenticated as Mr. A,
Objects (1). IsPerson A
As described above, an attribute IsPersonA indicating that Mr. A has been authenticated is added to the object, and a true value of value 1 is assigned to the attribute.
[0028]
Next, how the analysis unit 12 performs matching with the analysis rule stored in the analysis rule storage unit 11 based on this series will be described.
“Caaa” and “ac * a” stored in the analysis rule storage unit 11 indicate how many “a” and “c” attributes generated as described above are arranged. “C *” indicates that at least one or more “c” may be arranged.
[0029]
Here, the matching by the analysis unit 12 is simple pattern matching with the analysis rule stored in the analysis rule storage unit 11 for the object series representing the environment input from the environment information input unit 10.
[0030]
Of the object series (,, a, a, <c, a, a, a>, c, a, a) input from the environment information input unit 10, the part enclosed in square brackets is the analysis rule storage unit 11 Matches "caaa" stored in The arrangement of the objects “aaa” indicates that the state where there is no sound and no movement of the video is continued three times following the state where the video with sound and movement exists. The user decides to be free.
[0031]
The selection unit 13 includes a rule “caaa” and information to be presented to the user when the user is free, for example,
(Caaa, “How about going out to a department store?”)
When the rule “caaa” matches in the analysis unit 12, the selection unit 13 selects a set of information corresponding to this rule (state, presentation information). This is called combination information.
[0032]
Of the combination information selected by the selection unit 13, the presentation information is reproduced from the speaker of the presentation unit 14 with the sound “How about going out to the department store?” And presented to the user.
[0033]
In addition, although the presentation part 14 presents presentation information at a predetermined timing, the following may be considered as the timing mentioned here.
Time delay (time delay): Presented immediately after the analysis unit 12 matches the analysis rule or after a time delay of 5 seconds.
-Periodicity: In periodic information presentation, presentation information is switched every minute, or switched every five minutes.
[0034]
Here, for example, a time delay is set as the timing.
FIG. 3 is a flowchart showing the schematic operation of the present embodiment described above. That is, first, environment information is acquired (step 301), and the acquired information is converted into an object in the analysis unit 12 (step 302). Then, it is determined whether or not the rule represented by this information matches the rule stored in the analysis rule storage unit 11 (step 303), and the selection unit 13 selects information that matches the matched storage. This is presented (step 304).
[0035]
[Effect of the first embodiment]
According to the environment-driven information presentation device of the first embodiment described above, information suitable for the user's situation is presented at an appropriate timing based on the environment information input from the media. Therefore, effective information presentation can be realized. Therefore, it is possible to improve the problems caused by unilateral information presentation from the supplier, such as increasing the amount of unnecessary paper scraps and obstructing the user's work as in the case of the conventional direct mail.
[0036]
[Modification of First Embodiment]
In the first embodiment, sound and video are taken as examples of environment information, but the present invention is not necessarily limited to this, and information from other media can also be used. Alternatively, even when the same media is used, it is possible to change the installation location and use a plurality of these. For example, it is possible to install a plurality of cameras for video and to integrate these data into an object for analysis.
[0037]
Also, the method of adding attributes to the object is not limited to the method and description method described here.
Moreover, in this embodiment, although the selection part 13 has memorize | stored the combination (combination information) of the rule and the information which should be shown corresponding to it, The content is not limited to a specific thing. For example, if the analysis rule storage unit 11 stores only an analysis rule representing a state in which the user is free, the selection unit 13 may always select information such as “How about going out for a walk?”, For example.
[0038]
Furthermore, when matching with a certain analysis rule is established, information should be presented immediately, after a certain time delay, or what time until the user reacts to the presented information The temporal selection as to whether information should be presented in a cycle may be included in the combination information and stored.
[0039]
For example,
(Caaa, “How about going out to a department store?”, T = 0)
For example, when the pattern “caaa” is matched, information is presented after t seconds (in this case, after 0 seconds).
[0040]
Or
(Caaaa, “How about going out to the department store?”, Rp = 3 & ur = No)
For example, if the pattern “caaa” is matched, information such as “aaaaa” indicating a reaction from the user (ur: user reaction) is input at intervals of rp (in this case, 3 minutes). To present.
[0041]
FIG. 4 is a flowchart showing the operation related to such repeated presentation.
Prior to input of environmental information, first, the parameter R for storing the presence / absence of repeated information, the period t0, the counter t of the presentation time, and the memory M for storing the information to be repeatedly presented are cleared (step 401).
[0042]
Thereafter, environment information is acquired (step 402), and objectification is performed as described in the first embodiment (step 403). Next, matching with the rules stored in the analysis rule storage unit 11 is performed (step 406). If a match is established, it is checked whether there is a designation of repeated presentation (step 407). If specified, the repeat flag R is set to 1, the information is stored in M, the repeat cycle is stored in t0, and the count-up is started (step 408).
[0043]
Then, at time t0 (step 409), information is presented (step 410). This repeated presentation is performed by background processing until a reaction is received from the user (in FIG. 4, it is omitted because the flow becomes complicated). Therefore, in step 404, it is checked whether or not the reaction is a user reaction (Yes or No). If it is a reaction and matching with the pattern described in “ur” is established, the flag R of the information repeatedly presented in step 405 and the memory M, t0, and t are cleared.
[0044]
On the other hand, when the presentation is not repeated (step 407 = NO), it is checked whether the presentation time is designated (step 411). If specified, the value is stored in t0 (step 412), and information is presented when the specified time is reached (step 409) (step 410). This set time is cleared in steps 413 and 414.
[0045]
In addition,
(Caaa, “How about going out to a department store?”, Date = “12/25”)
Thus, when the pattern “caaa” is matched, the value of “date” indicating the time designation condition for information presentation is referred to, and the date on which this matching is performed is Christmas on December 25 It is also possible to present information in a timely manner, such as presenting only information.
[0046]
Alternatively, as another example of combination information, different types of presentation information for one rule may be used, for example,
(Caaaa, “How about going out to a department store?”: “Tomorrow, there will be a new car presentation” ...) and present it by randomly presenting it with random variables. Information may be prevented from becoming obsolete.
[0047]
[Second Embodiment]
The environment-driven information presentation apparatus according to the first embodiment described above acquires environment information including the user, analyzes the information, and presents the information at a timing suitable for the user. According to such an embodiment, when the user's behavior does not change so much, the information acquired from the environment information input unit 10 also does not change so much, and the same information is often presented and becomes obsolete at an early point. There is a possibility. Or, even if information is presented, there is a possibility that only general information such as “How about going out to a department store?” Lacks freshness of information and cannot present information that attracts the user's attention.
[0048]
The second embodiment of the present invention solves such a problem and is configured to suppress the obsolescence of the presentation information and present fresh information to the user.
FIG. 5 is a block diagram showing a schematic configuration of the environment-driven information presentation apparatus according to the present embodiment. This apparatus is configured by adding an analysis rule transmitting unit 20, an analysis rule receiving unit 21, and an analysis rule adding unit 22 to the schematic configuration of FIG. 1 according to the first embodiment. The same parts as those in the first embodiment are given the same reference numerals.
[0049]
In the apparatus according to the second embodiment, the analysis rule reception unit 21 can receive information indicating the timing of information presentation and presentation information transmitted from the analysis rule transmission unit 20. The analysis rule transmission unit 20 is included in the system on the supplier (advertiser etc.) side of the presentation information.
[0050]
In addition, the apparatus according to the present embodiment includes an analysis rule adding unit 22. The analysis rule adding unit 22 is means for adding the analysis rule received from the analysis rule receiving unit 21 to the analysis rule storage unit 11.
[0051]
The analysis rule transmission unit 20 is, for example,
(Aaaee “Thank you for your hard work. Would you like to eat this to get nutrition?”)
And the still image etc. (nutrient food (new sale!)) Of the food subject to advertisement corresponding to “this” are transmitted to the environment-driven information presentation device.
[0052]
Here, “e” in the analysis rule is a new object representing a state of “sighing”, for example. That is, “aaaee” means that no sound or moving image is obtained, and information is presented when a state of sighing continues.
[0053]
FIG. 6 is a flowchart showing an operation flow until the information transmitted from the analysis rule transmission unit 20 is stored in the analysis rule storage unit 11.
First, in step 601, when the reception of the analysis rule from the analysis rule transmitting unit 20 is detected, the process proceeds to step 602. Then, it is determined whether or not the same rule as the received analysis rule already exists in the analysis rule storage unit 11 (step 602). If the same analysis rule does not exist, the received analysis rule is stored in the analysis rule storage unit 11 (step 604). On the other hand, if the same analysis rule already exists, the user is asked for permission to overwrite the analysis rule (step 603). Here, when the user permits, the received analysis rule is overwritten on the analysis rule in the analysis rule storage unit 11. On the other hand, if permission from the user is not obtained, for example,
(Caaa, “How about going out to a department store?”)
Only the presentation information “Thank you for your work. Would you like to eat and nourish?” Is added (step 605).
[0054]
Since the processing such as matching after the information transmitted from the analysis rule transmitting unit 20 is stored in the analysis rule storage unit 11 as described above is the same as that in the first embodiment (steps 303 and after), the description will be given. Omitted.
[0055]
[Effects of Second Embodiment]
According to the embodiment described above, through the communication means composed of the analysis rule transmitting unit 20 and the analysis rule receiving unit 21, “what type of user should be matched”, “what information is presented when matched” Since the analysis rule indicating “?” Is continuously sent from the supply source (advertiser or the like) of the presentation information, the information presented to the user and the timing of presenting such information can be diversified. Therefore, the freshness of the presentation information can be maintained, and there is no fear that it will become obsolete.
[0056]
[Modification of Second Embodiment]
First, in any of the first and second embodiments, it is not specified by what means the information presentation is performed. For example, the place where information is presented is not limited to a computer screen such as a PC. For example, it is possible to display on the screen of a television apparatus provided with communication means such as the Internet via the outside and a telephone line.
[0057]
Alternatively, instead of performing the information presentation on the screen, the voice may be presented by a housework robot or a stuffed toy. Also, it is possible to present specific information even if the domestic robot touches the user's shoulder to call attention.
[0058]
Next, the analysis rule received by the analysis rule receiving unit 21 can be modified to include parameters such as timing in addition to the presentation information. In the second embodiment, the analysis rule is edited by adding a new analysis rule using communication means. However, this editing is not limited to adding, for example,
(Aaaee, "Thank you for your hard work. Would you like to eat this to get nutrition?", Delete)
As such, when an analysis rule to which a parameter for deleting an analysis rule is added is received,
(Aaaee, “Thank you for your hard work. Would you like to eat this for nutrition?”)
If the analysis rule is already stored, it may be deleted.
[0059]
The editing of the analysis rule is not limited to such additions and deletions, and anything that changes the analysis rule may be used.
Next, although the second embodiment includes only receiving means, a transmitting means is further added, and for example, a user who has received information presentation regarding product promotion gives an ordering instruction for the corresponding product via the transmitting means. It is also possible to have a system configuration that can produce In this case, the system recognizes an ordering instruction from the user and performs communication processing related to ordering of the corresponding product.
[0060]
Next, in the second embodiment, the description has been given on the assumption that information sent from the advertiser is received via the communication means. However, the information is obtained via a recording medium such as a DVD instead of the communication means. You may do it. For example, when a DVD such as a movie is mounted, advertisement information included in the DVD, timing information of the presentation, and the like are detected, and the analysis rule adding unit 22 adds this information to a predetermined analysis rule.
[0061]
The timing of adding information to the analysis rule can be any time. For example, the user may be watching a DVD movie loaded in the apparatus. Such a recording medium is not limited to a DVD, and any medium can be used as long as information can be input to the apparatus from the outside, such as a CD-ROM or an IC card. Thereby, it is possible to obtain the same effect as when the analysis rule is edited through the communication hand.
[0062]
Next, in 2nd Embodiment, although the selection part 13 selected at least one from several presentation information and this demonstrated as what the presentation part 14 presents, the information previously shown to the user was shown. For example, it may be configured to select information different from information presented in the past. For example, the set of (state, presentation information) stored in the selection unit 13 is
(Caaa, “High-end product A has been released. Full functionality”: “Commodity product B has been released. It has the minimum required functions.”)
If there are multiple pieces of presentation information corresponding to a certain state and the user has been impressed with the presentation of information about the product B in the past, Information on product A different from B is presented. Thereby, information satisfying the user's request can be presented.
[0063]
[Third Embodiment]
The environment-driven information presentation apparatus according to the first embodiment described above obtains information representing the environment where the user is placed and analyzes the information to present the information at a timing suitable for the user. The apparatus of the second embodiment receives information to be presented to the user and information specifying the timing for presenting the information from a supplier (such as an advertiser) of the presentation information, and displays the contents of the presentation information and the presentation timing. By changing, it was possible to present information without getting bored. In the devices of the first and second embodiments, whether the information supply source such as the advertiser has actually presented the user with the advertisement information incorporated into the device or the transmitted advertisement etc. I can't know how.
[0064]
The third embodiment is configured to solve such a problem. That is, the environment-driven information presentation device according to the third embodiment communicates with a supplier (advertiser or advertising agency) of the presentation information so that the device presents information (including advertisement) to the user. , The supplier is notified that the information has been presented (information presentation result).
[0065]
Thereby, for example, the advertiser who is the supplier of the presentation information can know whether or not the advertisement information incorporated into the device or transmitted to the device is actually presented to the user. Further, it is possible to know how effective the timing specified by the advertiser is, and to which user the advertisement is presented.
[0066]
FIG. 7 is a block diagram showing a schematic configuration of the environment-driven information presentation apparatus according to the present embodiment. In the present embodiment, a presentation result transmission unit 30 is added to the schematic configuration of FIG. 1 according to the first embodiment. The presentation result receiving unit 31 is included in the system on the supplier side of the presentation information. The same parts as those in the first embodiment are given the same reference numerals.
[0067]
In this embodiment, for the information selected by the selection unit 13, for example,
(Caaaa, “How about going out to a department store?”, 123-45-6789)
In this way, a destination such as a telephone number is added at the end. This destination is not limited to a telephone number, but may be any destination as long as it can be recognized as a destination of a supplier that sends a presentation result.
[0068]
When this information is presented to the user, the presentation result transmitting unit 30 notifies the supplier of the presentation information that this information has been presented.
Specifically, when information is selected by the selection unit 13, the presentation result transmission unit 30 identifies a destination added to the information, and the destination includes, for example,
(Caaa, “How about going out to a department store?”)
Thus, the contents presented to the user are transmitted to the presentation result receiving unit 31. For example, a modem or the like is used for this transmission, and a connection is established by calling the telephone number of the destination of the supplier to establish communication.
[0069]
The presentation result receiving unit 31 starts communication by the telephone received from the presentation result transmitting unit 30 and receives the presentation result. Thereby, the presentation result receiving unit 31 can know that the received content information has been presented.
[0070]
The operations until the presentation unit 14 presents the presentation information selected by the selection unit 13 based on the analysis rule are the same as those in the first embodiment and the second embodiment. FIG. 8 is a flowchart showing the flow of processing until the presentation information selected by the selection unit 13 is transmitted and the advertiser as the supplier receives the transmission information.
[0071]
The presentation result transmission unit 30 checks whether the selection unit 13 has selected the presentation information (step 801). When the presentation information is selected, the process proceeds to step 803, and when it is not selected, the process returns to step 801 (step 802). When the presentation information is selected, a destination to which the selected presentation information is transmitted is checked (step 803). Information presented to the destination is transmitted by communication (step 804).
[0072]
On the other hand, the advertiser side receives the presentation information transmitted from the presentation result transmitting unit 30 through communication via the presentation result receiving unit 31.
[Effect of the third embodiment]
According to this embodiment, the advertiser who is the supplier of the presentation information can know whether or not the information to be presented has been actually presented to the user. Thereby, for example, it is possible to quantitatively calculate a sponsor fee to be paid to the information presentation agent according to the number of times of information presentation to the user.
[0073]
In addition, it is possible to quantitatively analyze how information is presented, and to create an advertisement that is more effective for the user when the advertisement is next transmitted.
[Modification of Third Embodiment]
In the second embodiment, as the presentation result, for example,
(Caaa, “How about going out to a department store?”)
The presentation result was transmitted / received using the information selected by the selection unit 13. However, any information can be transmitted and received as long as it is possible to know that the information has been presented. For example, even if the content of the information is not included, when the information is presented, the presentation result transmitting unit 30 only connects to the presentation result receiving unit 31, and the type of information notified to the destination is one type. If it is, it can be seen that the information has been presented. This method is effective even when there are a plurality of types of information and it is desired to know that any one of the plurality of information has been presented.
[0074]
For example, an identifier such as (No. 003) may be added to the apparatus, and the identifier may be included in the content of information to be transmitted / received. Then, it is possible to know which device has presented the information.
[0075]
In the third embodiment, for example, an advertiser can know that information has been presented. At this time, privilege information such as a discount is calculated for the user who has actually presented the information. Thus, the information may be distributed to the user who has presented the information. This makes it possible to present information according to the user's preference, and to promote the user's willingness to receive the information presenting by the present apparatus, and hence the willingness to purchase products by the information presenting.
[0076]
[Fourth Embodiment]
The fourth embodiment is based on not only environmental information around the user but also environmental information from an object independent of the user (here, “artificial life” is taken as an example of a virtual object). The present invention relates to an environment-driven information presentation device that performs presentation.
[0077]
In any of the first to third embodiments described above, in order to analyze the timing appropriate for the user, information representing the environment around the user is acquired and used. In these embodiments, for example, if the user always performs the same action, the information acquired by the environment information input unit 10 will always be in the same pattern, so information may be often presented at the same timing. There is sex. If it does so, it will be able to foresee for some time at which timing information presentation will be performed, and it will become possible to attract a user's attention.
[0078]
Also, if the user always receives information from the same device, the user may get bored with the information presented from the device itself. The fourth embodiment solves such a problem.
[0079]
In the fourth embodiment, as information used by the analysis unit 12 to analyze timing suitable for the user, not only the environment information of the user but also the digital that the user keeps other than the apparatus of the present embodiment It also adds environmental information from pets (artificial life forms), in other words, objects that are independent of the user. Thereby, the timing of information presentation can be diversified.
[0080]
In addition, it is possible not only to present information from the same device at all times, but also to present various information such as information presentation based on a request from a digital pet, so that the user is not bored.
[0081]
FIG. 9 is a block diagram illustrating a schematic configuration of an environment-driven information presentation device according to the fourth embodiment. This embodiment is different from the above-described schematic configuration of FIG. 1 according to the first embodiment in that an external information input unit 40 for inputting information on an object independent of a user such as a digital pet, and a selection unit 13 And a presentation method selection unit 41 that selects a presentation method of the presentation information selected by (1) is added. The same parts as those in the first embodiment are given the same reference numerals.
[0082]
The presentation method selection unit 41 selects the presentation method of presenting the presentation information selected by the selection unit 13 as it is when performing normal information presentation, and presents the information presentation based on the external input information from the external information input unit 40. When performing, the presentation method which presents the said presentation information as a request | requirement from a digital pet is selected.
[0083]
In the present embodiment, the state (external information) of the digital pet input from the external information input unit 40 is similar to the environment information input unit 10.
(..., s, s, s, u, s, s, s, s, s, t)
Are input to the analysis unit 12 as a series. Here, “s” means that the digital pet is in a normal state, “t” means that exercise is insufficient, and “u” means that the stomach is hungry.
[0084]
The analysis unit 12 handles the digital pet sequence input from the external information input unit 40 independently of the environment information input from the environment information input unit 10.
The analysis rule storage unit 11 represents an analysis rule for analyzing the sequence input from the external information input unit 40, for example, (t, u), and stores it similarly to the analysis rule for the environment information. The analysis unit 12 analyzes the status of the digital pet by a method similar to the matching between the sequence representing the environment information and the analysis rule of the environment information. Here, since the state “t” is input from the external information input unit 40 and matches the analysis rule “t” stored in the analysis rule storage unit 11, the analysis unit 12 does not have enough exercise for the digital pet. Judge that there is. External information input and analysis are performed in parallel with environmental information input and analysis.
[0085]
For example, the selection unit 13 includes a rule “t” and information to be presented to the user when the digital pedal is insufficiently exercised.
(Caaaa, t, “How about going out to a department store?”)
Is stored as related. Here, when at least one of the rules “caaa” and “t” matches the related information in the analysis unit 12, the selection unit 13 combines information with (state, presentation information), that is,
(T, “How about going to a department store?”)
Select.
[0086]
Further, the presentation method selection unit 41 refers to the “state” portion of the combination information (state, presentation information) selected by the selection unit 13, so that the combination information is input by the environment information input unit 10. It is determined whether it is due to an input from the external information input unit 40, and in the case of an input from the environment information input unit 10, a presentation method of presenting the presentation information selected by the selection unit 13 as it is is selected. In the case of using external input information from the external information input unit 40, a presentation method for presenting the presentation information as a request from the digital pet is selected.
[0087]
Here, in the combination information (state, presentation information) selected by the selection unit 13, the state part is “t”, which is included in (t, u) stored in the analysis rule storage unit 11. It is determined that the input is from the information input unit 40, and the presentation information is presented to the user as a request from the digital pet.
[0088]
In the presentation method selection unit 41, for example,
(“How about going out?”, “Please take me!”)
(“I have”, “I want to see”)
As such, a table of a set such as “Ending when presented as it is” and “Ending when requested by a digital pet” is stored, and using this, the ending of the presentation information is determined according to the selected presentation method. Deform. In this example,
"How about going out to the XX department store?"
Since the presentation method that presents the presentation information as a request from the digital pet is selected, refer to the table and replace the “Would you like to go out” part with “Take me!”
"Please take me to the department store!"
It transforms into the presentation information.
[0089]
Next, the presentation unit 14 reproduces the presentation information “Please take me to the department store!” Generated by the presentation method selection unit 41 with the voice of the digital pet and presents it to the user. Display on the screen a video representing the gesture you want to take outside.
[0090]
In this way, for example, when presenting information for prompting the user to “go to ○ × department store” according to environmental information including the user, “How about going out to ○ × department store?” Is presented. In the case of environmental information, it can be done in various ways, such as “Please take me to the department store!”. Therefore, it can be expected that the user feels freshness even when the equivalent information is presented.
[0091]
The processes until the analysis rule is selected by the selection unit 13 are the same as those in the first embodiment, the second embodiment, and the third embodiment.
FIG. 10 is a flowchart showing the flow of processing until the presentation method selection unit 41 selects an information presentation method and information is presented by the selected method.
[0092]
When the sequence of information input from the environment information input unit 10 and the external information input unit 40 matches the rule stored in the analysis rule storage unit 11 in step 303 illustrated in FIG. 3, the selection unit 13 matches. The presentation information that matches the rule is selected (step 1001).
[0093]
Next, it is checked whether or not the matched rule is a digital pet rule (step 1002). If the rule is not a digital pet rule, the presentation method selection unit 41 proceeds to step 1004 to select “present as it is” and to step 1006. Transition. The presentation information selected by the selection unit 13 is presented as it is by the presentation unit 14.
[0094]
On the other hand, if the matched rule is a digital pet rule in step 1002, the presentation method selection unit 41 selects “digital pet required” (step 1003) and proceeds to step 1005. In this step, the presentation information is transformed in accordance with the presentation method of presenting the presentation information as a request from the digital pet to the user, and a frightening gesture that the digital pet wants to take outside is expressed. Generated video. The presenting unit 14 presents the presentation information transformed in step 1005 and the video image of the digital pet to the user (step 1006).
[0095]
[Effect of Fourth Embodiment]
According to the present embodiment, the timing of information presentation is generated based not only on environmental information around the user, but also on the status of objects other than the user, such as digital pets. For this reason, the user receives information presentation at various timings and in various methods. Therefore, the user feels fresh with respect to the information presentation, and does not feel bored with the information presentation.
[0096]
In addition, information presentation from the device is not always performed inorganically, for example, in the form of a request from a digital pet to which the user is attached. , It is possible to attract the user's attention in a form that is not pressed properly.
[0097]
[Modification of Fourth Embodiment]
In the above-described fourth embodiment, it has been described that an object other than the user such as an artificial life represented by a digital pet exists outside the apparatus. However, this may exist inside the apparatus.
[0098]
In the fourth embodiment, the environment information sequence around the user and the sequence of the external information input unit 40 are handled independently to analyze the timing of presenting information. The timing of presenting information may be generated by referring to the states of the two, such that the timing of presenting information generated by the digital pet is valid only when it seems to be free.
[0099]
Further, in the fourth embodiment, two types of “presentation as it is” and “digital pet is requested” are described as examples of the presentation method options stored in the presentation method selection unit 41. Is not limited to two types. For example, when a digital pet requests a user to make a gesture that he / she wants to go out, instead of displaying an image of the digital pet, an image expressing the gesture that the robot is intimidating may be displayed. Alternatively, various modifications and additions may be made such as making the digital pet's voice angry.
[0100]
Further, the analysis rule for performing transmission / reception described in the second embodiment may include a method of presenting information when the analysis rule is selected. Thereby, since the method of presenting information to the user itself changes, it becomes possible to perform information presentation that does not get bored.
The present invention is not limited to the first to fourth embodiments described above, and can be implemented with various modifications.
[0101]
【The invention's effect】
As described above, according to the present invention, the trouble of selecting and selecting desired information from information unnecessary for the information presenter is reduced, while the information presenter is timely and bored. It is possible to provide an environment-driven information presentation device that can provide effective information presentation to the information presenter.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an environment-driven information presentation apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram showing generation of related objects according to the embodiment.
FIG. 3 is a flowchart showing a schematic operation of the embodiment.
FIG. 4 is a flowchart showing the operation of repeated presentation according to the embodiment.
FIG. 5 is a block diagram showing a schematic configuration of an environment-driven information presentation apparatus according to a second embodiment of the present invention.
FIG. 6 is a flowchart showing an operation flow until the information transmitted from the analysis rule transmission unit is stored in the analysis rule storage unit according to the embodiment;
FIG. 7 is a block diagram showing a schematic configuration of an environment-driven information presentation apparatus according to a third embodiment of the present invention.
FIG. 8 is a flowchart showing the flow of processing from when the presentation information selected by the selection unit is transmitted until the advertiser as the supply source receives the transmission information according to the embodiment;
FIG. 9 is a block diagram showing a schematic configuration of an environment-driven information presentation device according to a fourth embodiment of the present invention.
FIG. 10 is a flowchart showing a flow of information presentation processing according to the embodiment.
[Explanation of symbols]
10 ... Environmental information input section
11. Analysis rule storage unit
12 ... Analysis part
13 ... Selection part
14 ... presentation part
20: Analysis rule transmitter
21 ... Analysis rule receiver
22 ... Analysis rule addition part
30 ... Presentation result transmission unit
31 ... Presentation result receiver
40: External information input section
41 ... Presentation information selection section

Claims (7)

被情報呈示者の周囲の環境情報を入力する環境情報入力手段と、
情報呈示のタイミングを決定するための解析規則を記憶する解析規則記憶手段と、
前記環境情報手段から入力された環境情報を解析するとともに前記解析規則記憶手段に記憶されている解析規則とのマッチングを行う第1の解析手段と、
前記第1の解析手段において解析規則とのマッチングが成立した場合に、前記環境情報の内容に応じた第1の呈示情報を選択する第1の選択手段と、
前記被情報呈示者を除く他の対象物からの外部情報を入力する外部情報入力手段と、
前記外部情報入力手段から入力された外部情報を解析をするとともに前記解析規則記憶手段に記憶されている解析規則とのマッチングを行う第2の解析手段と、
前記第2の解析手段において解析規則とのマッチングが成立した場合に、前記外部情報の内容に応じた第2の呈示情報を選択する第2の選択手段と、
前記第1の選択手段により選択された第1の呈示情報と、前記第2の選択手段により選択された第2の呈示情報とを判別し、判別結果に応じた呈示方法を選択する呈示方法選択手段と、
を具備することを特徴とする環境駆動型情報呈示装置。
Environmental information input means for inputting environmental information around the information presenter;
An analysis rule storage means for storing an analysis rule for determining the timing of information presentation;
First analysis means for analyzing environment information input from the environment information means and matching with analysis rules stored in the analysis rule storage means;
First matching means for selecting first presentation information according to the contents of the environmental information when matching with an analysis rule is established in the first analysis means;
External information input means for inputting external information from other objects excluding the information presenter;
Second analysis means for analyzing external information input from the external information input means and matching with an analysis rule stored in the analysis rule storage means;
Second matching means for selecting second presentation information according to the content of the external information when matching with an analysis rule is established in the second analysis means;
A presentation method selection for discriminating between the first presentation information selected by the first selection means and the second presentation information selected by the second selection means and selecting a presentation method according to the discrimination result Means,
An environment-driven information presentation device comprising:
前記選択手段により選択された呈示情報を前記タイミングに従って前記被情報呈示者に対し呈示する呈示手段を具備することを特徴とする請求項1記載の環境駆動型情報呈示装置。  The environment-driven information presentation apparatus according to claim 1, further comprising a presentation unit that presents the presentation information selected by the selection unit to the information presenter according to the timing. 前記解析規則又は前記第1若しくは第2の選択手段が選択する呈示情報の内容又は前記呈示手段による情報呈示の方法を編集する編集手段をさらに具備することを特徴とする請求項2に記載の環境駆動型情報呈示装置。  The environment according to claim 2, further comprising editing means for editing the analysis rule, the content of the presentation information selected by the first or second selection means, or a method of information presentation by the presentation means. Drive-type information presentation device. 情報呈示者から送信された解析規則又は呈示情報の少なくとも一方を受信する解析規則受信手段と、
前記解析規則受信手段によって受信された解析規則を、前記解析規則記憶手段により記憶された解析規則に追加し、又は当該解析規則を編集する解析規則編集手段と、
をさらに具備することを特徴とする請求項1乃至3のいずれかに記載の環境駆動型情報呈示装置。
An analysis rule receiving means for receiving at least one of an analysis rule or presentation information transmitted from an information presenter;
An analysis rule received by the analysis rule receiving means is added to the analysis rule stored by the analysis rule storage means, or an analysis rule editing means for editing the analysis rule;
The environment-driven information presentation device according to claim 1, further comprising:
前記第1の選択手段による呈示情報の選択結果を情報呈示者に送信する選択結果送信手段をさらに具備することを特徴とする請求項1乃至4のいずれかに記載の環境駆動型情報呈示装置。  5. The environment-driven information presentation apparatus according to claim 1, further comprising selection result transmission means for transmitting a selection result of the presentation information by the first selection means to an information presenter. 前記選択結果送信手段の送信結果に応じて前記情報呈示者から配信された特典情報を受信する手段をさらに具備することを特徴とする請求項5に記載の環境駆動型情報呈示装置。  6. The environment-driven information presentation device according to claim 5, further comprising means for receiving privilege information distributed from the information presenter in accordance with a transmission result of the selection result transmission means. 被情報呈示者の周囲の環境情報を入力する環境情報入力手段と、
前記被情報呈示者を除く他の対象物からの外部情報を入力する外部情報入力手段と、
情報呈示のタイミングを決定するための解析規則を記憶する解析規則記憶手段と、
前記環境情報手段から入力された環境情報と前記解析規則記憶手段に記憶されている解析規則との第1のマッチングおよび前記外部情報入力手段から入力された外部情報と前記解析規則記憶手段に記憶されている解析規則との第2のマッチングを行う解析手段と、
前記第1のマッチングが成立した場合に、前記環境情報の内容に応じた第1の呈示情報を選択し、前記第2のマッチングが成立した場合に、前記外部情報の内容に応じた第2の呈示情報を選択する選択手段と、
前記第1の選択手段により選択された第1の呈示情報と、前記第2の選択手段により選択された第2の呈示情報とを判別し、判別結果に応じた呈示方法を選択する呈示方法選択手段と、
を具備することを特徴とする環境駆動型情報呈示装置。
Environmental information input means for inputting environmental information around the information presenter;
External information input means for inputting external information from other objects excluding the information presenter;
An analysis rule storage means for storing an analysis rule for determining the timing of information presentation;
First matching between the environment information input from the environment information means and the analysis rule stored in the analysis rule storage means, and external information input from the external information input means and stored in the analysis rule storage means An analysis means for performing a second matching with an analysis rule,
When the first matching is established, the first presentation information corresponding to the contents of the environment information is selected, and when the second matching is established, the second information corresponding to the contents of the external information is selected. A selection means for selecting presentation information;
A presentation method selection for discriminating between the first presentation information selected by the first selection means and the second presentation information selected by the second selection means and selecting a presentation method according to the discrimination result Means,
An environment-driven information presentation device comprising:
JP07055998A 1998-03-19 1998-03-19 Environment-driven information presentation device Expired - Fee Related JP3655085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07055998A JP3655085B2 (en) 1998-03-19 1998-03-19 Environment-driven information presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07055998A JP3655085B2 (en) 1998-03-19 1998-03-19 Environment-driven information presentation device

Publications (2)

Publication Number Publication Date
JPH11272685A JPH11272685A (en) 1999-10-08
JP3655085B2 true JP3655085B2 (en) 2005-06-02

Family

ID=13435020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07055998A Expired - Fee Related JP3655085B2 (en) 1998-03-19 1998-03-19 Environment-driven information presentation device

Country Status (1)

Country Link
JP (1) JP3655085B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134581A (en) 1999-11-02 2001-05-18 Nec Corp Method, device, and receiver for advertisement, and recording medium
JP2001202310A (en) * 2000-01-20 2001-07-27 Square Co Ltd INFORMATION PROVIDING METHOD, RECORDING MEDIUM CONTAINING PROGRAM FOR IMPLEMENTING THE METHOD, AND INFORMATION PROVIDING SYSTEM
JP2002041558A (en) * 2000-07-21 2002-02-08 E-Media Management System Co Ltd Method for device for providing character information
JP2002041276A (en) * 2000-07-24 2002-02-08 Sony Corp Interactive operation-supporting system, interactive operation-supporting method and recording medium
US6931656B1 (en) * 2000-10-11 2005-08-16 Koninklijke Philips Electronics N.V. Virtual creature displayed on a television
JP2002150140A (en) * 2000-11-15 2002-05-24 Nec Corp Voice banner advertising system and voice banner advertising method
JP2002216026A (en) * 2000-11-17 2002-08-02 Sony Corp Information communication system, agent terminal, information distribution system, storage medium with agent program stored, storage medium with agent access program stored, storage medium with exclusive processing program stored, agent program, agent access program and exclusive processing program
JP2004056226A (en) * 2002-07-16 2004-02-19 Sanyo Electric Co Ltd Digital broadcast receiver
JP6174443B2 (en) * 2013-09-12 2017-08-02 俊久 齋藤 Agent who lives virtually

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2948752B2 (en) * 1995-12-01 1999-09-13 株式会社ウイング・ラボ Distribution system using interactive media
JPH09261169A (en) * 1996-03-21 1997-10-03 Sony Corp Communication system, basf station for the communication system and portable communication terminal equipment for the communication system

Also Published As

Publication number Publication date
JPH11272685A (en) 1999-10-08

Similar Documents

Publication Publication Date Title
US6243104B1 (en) System and method for integrating a message into streamed content
US20120167146A1 (en) Method and apparatus for providing or utilizing interactive video with tagged objects
WO2021136363A1 (en) Video data processing and display methods and apparatuses, electronic device, and storage medium
US20080109851A1 (en) Method and system for providing interactive video
EP2293301A1 (en) Method for generating streaming media increment description file and method and system for cutting in multimedia in streaming media
JP2007515098A (en) Providing additional information
CN101647035A (en) Media with embedded advertising
WO2008051538A2 (en) Product information display and product linking
TW200921539A (en) Embedded video player advertisement display
US20150294370A1 (en) Target Area Based Monetization Using Sensory Feedback
KR101492249B1 (en) System for providing customized advertisement and contents
KR20120128511A (en) System and method for providing information on product exposed
JP3655085B2 (en) Environment-driven information presentation device
TW201319981A (en) System and method for displaying information of television advertised product and recording media thereof
CN111448802A (en) Method and device for data tracking and presentation
KR20000017807A (en) A advertisement operating system based on network and advertisement operating method thereof
JP2008299660A (en) Method and system for analyzing effect of content reproduced by electronic pop, electron pop and analysis server
KR101502984B1 (en) Method and apparatus for providing information of objects in contents and contents based on the object
JP6849842B1 (en) Augmented reality system
JP2021163287A (en) Augmenting reality system
KR100926123B1 (en) Advertising method using text content included in digital content
JP6905615B1 (en) Augmented reality system
US20050256765A1 (en) Differentiated web advertising services in display devices
JP2007293462A (en) Server for analyzing user and for effectively performing advertisement through internet
KR100955693B1 (en) Advertising method using text content.

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees