[go: up one dir, main page]

WO2004075542A1 - Program reception device and program display device - Google Patents

Program reception device and program display device Download PDF

Info

Publication number
WO2004075542A1
WO2004075542A1 PCT/JP2004/001376 JP2004001376W WO2004075542A1 WO 2004075542 A1 WO2004075542 A1 WO 2004075542A1 JP 2004001376 W JP2004001376 W JP 2004001376W WO 2004075542 A1 WO2004075542 A1 WO 2004075542A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
program
video
time
target
Prior art date
Application number
PCT/JP2004/001376
Other languages
French (fr)
Japanese (ja)
Inventor
Yumiko Kato
Hideyuki Yoshida
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Publication of WO2004075542A1 publication Critical patent/WO2004075542A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital

Definitions

  • the present invention relates to a device for receiving and displaying program data such as a television broadcast, and more particularly to a device for marking an object appearing in a program.
  • the viewer takes notes while watching the program or memorizes it in one corner of the head, so that the viewer can remember the object of interest and end the program. Later, they call friends and tell them about the objects that appeared in the program.
  • bookmark radio system for example, refer to Japanese Patent Application No. 2002-123456.
  • the user terminal stores specific information arranged in the program data.
  • a decryption key is obtained from the server device based on the information, and the encrypted data is decrypted into official music data using the obtained decryption key. This allows the user to reliably obtain the desired song data without having to take notes or go to a store to purchase a CD or the like.
  • “bookmarking” in the above-mentioned conventional technology is a simple operation such as a button operation, and can be said to be effective as an operation of designating music to be broadcast in radio broadcasting or the like. It is difficult to specify the individual objects that appear in a.
  • the above-mentioned “bookmarking” in the conventional technology can be applied to a case where it is sufficient to specify only a temporal position, such as music, but is not a time-consuming object, such as an object appearing in television broadcasting.
  • a temporal position such as music
  • a time-consuming object such as an object appearing in television broadcasting.
  • the user can only obtain official music data by marking, and cannot say that the information is transmitted to a third party. For example, if you get nice song data and want to give it to a third party, look up the title, singer's name, etc. of that song, and then call that third party, Or create and send an email. In other words, there is a problem that in order to communicate to a third party, troublesome work such as searching for an object to be communicated or making a telephone call is required. Disclosure of the invention
  • An object of the present invention is to provide a convenient program receiving device and the like that can reliably transmit information about an object to a desired third party without checking information or making a telephone call.
  • a program receiving device receives program data including a video stream and additional information associated with a target appearing in a video indicated by the video stream.
  • a program receiving apparatus comprising: a receiving unit configured to receive and store the program data; an input unit configured to receive a predetermined input process by an operator; and a recording unit configured to record time information indicating a time at which the input process is performed.
  • a “sticky note” process for specifying the time position of the program is performed. Subsequently, the target appearing in the sticky video is specified, and the target is identified. Information is extracted from the additional information and sent to the destination, so when the operator finds an object to be conveyed to a third party while watching the program, the operator can simply perform a simple operation such as attaching a tag. Can reliably, automatically, and automatically transmit information about the subject to a third party. Wear.
  • the additional information includes information for identifying a target appearing in the video in association with information on the target, and the information for specifying the target includes a frame image including an image of the target.
  • the time position in the video stream and the spatial position of the target image in the frame image may be included.
  • the program data further includes an audio stream and an audio stream, and the additional information is further associated with an object appearing in the audio stream and the audio stream. It may be.
  • the object may include not only an object such as a product but also a copyrighted work or service such as music.
  • the target specifying means presents to the operator the video indicated by the video stream received by the receiving means at a time corresponding to the time, and specifies the target according to the operator's instruction for the presentation. I do.
  • the target specifying means specifies the target in accordance with the designation of the spatial position of the video by the operator for the presentation.
  • the operator can specify the target by specifying the spatial position with respect to the video on which the tag is attached, so that even when a plurality of targets are displayed on one screen, the target can be specified.
  • the information can be transmitted by narrowing down to the target.
  • the target specifying unit may present a list of targets appearing in the video to the operator together with the video, and may specify the target according to a selection instruction by the operator for the presentation.
  • the operator can specify the target by selecting from the list of targets, and thus can easily and reliably narrow down the target to be transmitted to the third party.
  • the target specifying means acquires a character string from an operator, and acquires the acquired sentence.
  • the target may be specified according to a character string. This allows the operator to specify a specific target by inputting a character string, so that, for example, many different targets are displayed in an extremely small display area, or different targets are displayed on the screen. Even if it is difficult to specify the target by the pointing device, the intended target can be specified without fail even if the target device is difficult to display.
  • the target specifying means may acquire the voice of the operator, and may specify the target according to the acquired voice.
  • the input unit accepts an utterance by an operator as input processing
  • the recording unit may record time information indicating a time at which the utterance was performed. May perform the voice recognition on the utterance accepted by the input unit, thereby identifying the target. That is, the time position or the spatial position of the program may be specified by the voice of the operator.
  • the time position of the program may be specified from the timing of the utterance, and the target may be narrowed down based on the uttered content. As a result, the operator can paste a tag and narrow down targets by extremely simple operations.
  • the extraction unit further extracts video data indicating a video in which the target appears, from the video stream received by the reception unit, and the transmission unit includes the video data together with information on the target. Data may be sent to the destination.
  • the program data includes an audio stream
  • the extracting unit further extracts audio data corresponding to the video data from the audio stream received by the receiving unit.
  • the transmitting unit may transmit the audio data to the destination together with the information on the target and the video data.
  • the transmission / reception device includes transmission message acquisition means for acquiring a transmission message from an operator, The transmission means may transmit the transmission message acquired by the transmission message acquisition means to the destination together with the information on the target, the video data and the audio data.
  • the transmitting unit transmits only information selected from the information on the target, the video data, the audio data, and the transmission message to the destination according to an attribute of a reception function of the destination. Is also good. As a result, only the data that can be processed by the receiving device is automatically selected and transmitted, so that the selection process by the operator is not required, and the unnecessary data is transmitted because the data that cannot be received is transmitted. Data transfer is avoided.
  • a program display device obtains program data including a video stream and additional information corresponding to an object appearing in a video indicated by the video stream.
  • a program display device for acquiring and displaying the program data, input means for receiving a predetermined input process by an operator, and indicating a time at which the input process was performed. Recording means for recording time information; and a target appearing in a video indicated by the video stream re-displayed by the display means at a time corresponding to the time indicated by the time information re-recorded by the recording means.
  • a target specifying means, extracting means for extracting information on the specified target from the additional information obtained by the display means, and the extracted information on the target are designated. Characterized in that it comprises a transmitting means for transmitting via a previously channel.
  • the remote control button is pressed.
  • simple operations such as pressing and speaking, not only specific scenes, but also objects appearing in the program can be marked in real time, such as attaching sticky notes. Therefore, it is free from troublesome things such as writing down notes of interesting objects while watching the program or memorizing it in one corner of the head, so that the user can concentrate on watching the program.
  • the present invention it is possible to avoid occurrence of useless communication based on ambiguous memory between a broadcast station and a viewer, between a viewer and an information providing site, between viewers, and the like.
  • the communication between them is assured and smooth, and the practical value of the present invention is extremely high.
  • the present invention can be realized not only as such a program receiving device and a program displaying device, but also as a program receiving method and a program data displaying method in which characteristic means provided in these devices are used as steps. Or implement such means as a program that causes a computer to function. You can also. It goes without saying that the program can be distributed via a recording medium such as a CD-ROM and a transmission medium such as the Internet.
  • FIG. 1 is a diagram showing an overall configuration of a broadcast system according to an embodiment of the present invention.
  • FIG. 2 is an external view of a remote controller for a broadcast receiving device in the broadcasting system.
  • FIG. 3 is a flowchart showing an outline of the characteristic functions of the broadcasting system.
  • FIG. 4 is a diagram showing a data structure of broadcast data of a program with program additional information broadcasted from a broadcasting station of the broadcasting system.
  • FIG. 5 is a data structure diagram showing contents of content information included in the program additional information shown in FIG.
  • FIG. 6 is a diagram showing a specific example of the program additional information shown in FIG.
  • FIG. 7 is a functional block diagram showing a detailed configuration of the broadcast receiving device according to the first embodiment.
  • FIG. 8 is a diagram showing a data structure of a destination database of the broadcast receiving device.
  • FIG. 9 is a flowchart showing an operation procedure of the broadcast receiving device.
  • FIG. 10 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device.
  • FIG. 11 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus according to the second embodiment.
  • Fig. 12 is a diagram showing an example (first half) of content information in which details and time position of objects appearing in a program are described in the program additional information. You.
  • FIG. 13 is a diagram showing an example (second half) of content information in which details and time positions of objects appearing in a program are described in the program additional information.
  • FIG. 14 is a diagram showing an example of content information in which a spatial position of an object appearing in a program is described in the program additional information.
  • FIG. 15 is a flowchart showing the operation procedure of the broadcast receiving device.
  • FIG. 16 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device.
  • FIG. 17 is a more detailed diagram of the flowchart shown in FIG. 15 with respect to the interaction processing between the viewer and the broadcast receiving device.
  • Fig. 18 is a diagram showing the process until the transmission information is generated from the video and audio streams of the program.
  • FIG. 19 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus according to the third embodiment.
  • FIG. 20 is a flowchart showing the operation procedure of the broadcast receiving device.
  • FIG. 21 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device.
  • FIG. 22 is a diagram illustrating an example (first half) of program additional information in which a service is an object.
  • FIG. 23 is a diagram illustrating an example (second half) of the program additional information in which the service is an object.
  • FIG. 24 is a diagram illustrating an example (first half) of the program additional information in which a work (BGM) is an object.
  • FIG. 25 is a diagram showing an example (second half) of program additional information in which a work (BGM) is an object.
  • FIG. 26 is a functional block diagram illustrating a detailed configuration of the broadcast receiving apparatus according to the fourth embodiment.
  • FIG. 27 is a flowchart showing the operation procedure of the broadcast receiving device.
  • FIG. 28 is a diagram illustrating a state of a dialogue between the viewer and the broadcast receiving device.
  • FIG. 29 is a functional block diagram showing a detailed configuration of the broadcast receiving device according to the fifth embodiment.
  • FIG. 30 is a flowchart showing an operation procedure of the broadcast receiving device.
  • FIG. 31 is a diagram illustrating a state of a dialogue between the viewer and the broadcast receiving device.
  • FIG. 32 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus according to the sixth embodiment.
  • FIG. 33 is a diagram showing the data structure of the time ⁇ recognition result table storage unit of the broadcast receiving apparatus.
  • FIG. 34 is a flowchart showing the operation procedure of the broadcast receiving device.
  • FIG. 35 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device.
  • FIG. 36 is a more detailed diagram of the flowchart shown in FIG. 34 regarding the interaction processing between the viewer and the broadcast receiving device.
  • FIG. 37 is a diagram illustrating the principle of specifying an object.
  • FIG. 38 is a functional block diagram showing a configuration of one broadcast receiving apparatus having the functions of the broadcast receiving apparatuses of Embodiments 1 to 6.
  • FIG. 39 is a diagram illustrating an operation mode of the broadcast receiving device.
  • FIG. 40 is a diagram illustrating an example (first half) of program additional information in which music information or the like is an object.
  • FIG. 41 is a diagram illustrating an example (second half) of program additional information in which music information or the like is an object.
  • FIG. 1 is a diagram illustrating an overall configuration of a broadcast system 10 according to Embodiment 1 of the present invention.
  • the broadcast system 10 uses a simple mark-up process, such as pressing a button on a remote control when a viewer finds an interesting object while watching a program (hereinafter, such a process is referred to as “tagging a tag”).
  • This is a TV broadcasting system that can automatically transmit information about the object to friends, etc. by pre-processing.
  • Broadcast receiver (TVZS TB) 31 a and 31 b as a program receiver according to the present invention installed at 30 c, remote controller 32, fax 33, and mobile terminal 4 0a and 40b, and a stationary telephone 50 etc.
  • the broadcast station 20 and the broadcast receiving devices 31a and 31b are connected by a CATV network or the like, and two-way communication is possible, and the broadcast receiving devices 31a and 31b and the fax 3 3.
  • the mobile terminals 40a and 40b and the stationary telephone 50 are connected to a communication network such as a telephone network.
  • the broadcast station 20 is a broadcast station that creates and broadcasts a program with program additional information.
  • the program additional information 22 is additional data that is multiplexed and transmitted together with the video and audio 21, and in the present embodiment, detailed information on the product appearing in the video and the video are Includes product information, etc., in which the information to be specified is described in accordance with MPEG (Moving Picture Expert Group) -7.
  • the broadcast receivers 31a and 31b are two-way broadcast receivers as TV receivers or STBs (Set Top Boxes) used in conjunction with them, and appear in programs according to the instructions of the viewer. This is a device that can paste a sticky note on an attached object and send information about the attached object to a specified destination.
  • STBs Set Top Boxes
  • the remote controller 32 remotely controls the broadcast receiving device 31a.
  • Remote control and also has a function as a user interface for attaching sticky notes.
  • this remote controller 32 in addition to the general operation button 32b, also displays an interesting product or the like while watching a program.
  • Sticky note button for attaching a sticky note 3 2 a, display screen 3 2 c for displaying programs and user interface images transmitted from the broadcast receiving device 3 1 a, and audio for the broadcast receiving device 3 1 a
  • a microphone 32d for giving instructions is provided.
  • the FAX 33 is a facsimile receiver that receives images and the like.
  • the mobile terminals 40a and 4Ob are a mobile phone, a PDA (Personal Digital Assistant), and the like, which can perform data communication via the Internet.
  • the stationary telephone 50 is a telephone that does not have a data communication function and can only make voice calls.
  • FIG. 3 is a flowchart showing an outline of characteristic functions of the broadcasting system 10 configured as described above.
  • the viewer presses the sticky button 3 2 a of the remote controller 32 when he or she finds a favorite product while watching the program (S 1).
  • the broadcast receiving device 31a stores the time when the sticky button 32a is pressed, and when the program ends or is interrupted, it stores it. Specify the video corresponding to the time and the information (product data) related to the product that appeared in the video and present it to the viewer to narrow down the objects and request transmission confirmation (S12) ).
  • the broadcast receiving device 31a transmits the product data and the transmission message. Then, the video and audio in which the product appears are transmitted to the specified destination via the network (S13). At this time, the broadcast receiving device 31a limits the type of information to be transmitted, such as only video and text or only sound, according to the device attributes of the destination device.
  • a broadcast receiver 31b that can receive multimedia data such as video and audio text, video, audio, product information, URL (Uniform Resource Locator) and sender
  • For fax 33 which can send messages and receive video data excluding audio and text data, send video, product information, URL, and text-type sender messages to receive multimedia data.
  • video, URL, and text-type sender messages are sent, and for stationary phones 50 that can receive only audio, product information and sender messages are sent as audio.
  • the broadcast receiving device 31a accumulates such a transmission history, and transmits the transmission history to the broadcast station 20 when a certain period of time has elapsed.
  • the broadcast station 20 can totalize the advertising effect by totalizing the frequency of sticky notes attached to the programs.
  • the broadcasting system 10 in the present embodiment when a viewer finds an article to introduce to a third party or a favorite product while watching a program, he or she can take notes. Instead of having to memorize it in one corner of the head, simply press the sticky button 3 2a on the remote controller 32 to attach the sticky note to a specific page of the book, or It is possible to mark specific images, scenes, etc. in the program, such as sandwiching Shiori J.
  • the viewer can use the broadcast receiver 3 1 Just give a simple instruction to a, and the video that has been marked so far, the sound accompanying the video, A UR indicating the information about the product that appeared in the image and the website related to the video can be sent to the specified destination as transmission data, such as a message to be transmitted to the other party.
  • FIG. 4 is a diagram showing a data structure of broadcast data of a program with program additional information broadcasted from the broadcast station 20.
  • Broadcast data is broadly composed of an image-audio data stream 21 and program additional information 22.
  • Image ⁇ The audio data stream 21 is the main information that constitutes a program or commercial, and is composed of a set of scenes 21b corresponding to scenes. Each scene 21b is a camera camera. Each shot 21a is composed of a group of frame images that are cut off for each motion.
  • the program additional information 22 is a data stream that is multiplexed with the image / audio stream 21.
  • the content information that collects product information which is information on products appearing in a program, is included.
  • the individual product information 1 to m included in the content information is one of the information transmitted from the broadcast receiving device 31a to other devices via the network, and includes scenes in which the product appears and Associated with the shot. This is to enable the viewer to specify the product that appeared in the scene shot from the scene shot where the viewer pasted the sticky note.
  • FIG. 5 is a data structure diagram showing the content of the content information included in the program additional information 22 transmitted from the broadcast station 20.
  • the content information includes detailed information on each object (commodity) appearing in a program when the objects (products) are classified as objects 1 to n.
  • Detailed information for each object includes product description indicating the name and manufacturer of the product, sales information indicating the selling price and the store, and information related to the product.
  • URL indicating the address of the website (that is, the source address of the product), the start time position, which is the time position in the program in which the product appears, and the time displayed. It includes the duration time.
  • the program additional information 22 also includes image information (lower right in FIG. 5) for specifying the spatial position in the frame images of the individual objects 1 to n specified as described above. This image information is used to distinguish a plurality of products displayed at the same time position in a program. Note that the coordinates, shape, movement trajectory, and the like in the frame image are used as information for specifying the spatial position of the
  • FIG. 6 is a diagram showing a specific example of the program additional information 22 shown in FIG.
  • various tags conforming to MPEG 7 are used to declare a plurality of objects appearing in the program as shown in the first part 221 or individual objects as shown in the second part 222. It shows an example that describes the product description and time position of the object.
  • four objects were declared as clothes for actor A appearing in the program: outerwear B, pants C, shoes D, and hat E.
  • FIG. 7 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus 100, which is an example of the broadcast receiving apparatus 31a shown in FIG.
  • the broadcast receiving apparatus 100 is a television broadcast receiver capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to the outside, a broadcast receiving unit 101, Control section 102, time selection input section 103, image table Display section 104, sound output section 105, information selection section 106, transmission information storage section 107, transmission section 108, destination database 109, and destination input section 110.
  • the broadcast receiving unit 101 is a receiving circuit for receiving broadcast data broadcast from the broadcast station 20 or a TS (Transport Stream) decoder, etc., and transmits received broadcast data from a video / audio stream. It is demultiplexed into the following program contents and additional program information and sent to the control unit 102.
  • TS Transport Stream
  • the image display section 104 is a display for displaying program contents, an operation screen for the viewer to talk with the broadcast receiving apparatus 100, and the like, or a display screen 3 2 provided in the remote controller 32. and c.
  • the sound output unit 105 is a speaker or the like that outputs sound or sound that constitutes the contents of the program.
  • the time selection input section 103 is a sticky button 32 a or the like provided on the remote controller 32, and issues an instruction to the broadcast receiving apparatus 100 that the viewer wants to attach a sticky note.
  • Input means for the viewer that is, an input means for the viewer to select a time position or the like while watching the program.
  • the control unit 102 temporarily stores the program contents (video / sound stream) received by the broadcast receiving unit 101, and a time position instruction is issued from the time selection input unit 103. At that time, from the program being watched at that time, image shots or scenes including that time position and audio or sound units are extracted, and each component is controlled to interact with the viewer. CPU, storage device, etc.
  • the information selection unit 106 includes the image shots extracted by the control unit 102 or the program additional information corresponding to the scene and sound or sound unit (in the present embodiment, the extracted image shots and the like). Appearance and all objects described in the program additional information) are selected from the program additional information stored in the control unit 102, and the selected program additional information is selected by the control unit 1. 0 according to 2 It is stored in the transmission information storage unit 107 together with the image shot or scene and the audio or sound unit extracted by the above.
  • the transmission information storage unit 107 is a memory or the like that temporarily stores the transmission information sent from the information selection unit 106.
  • the destination database 109 is, as shown in FIG. 8, a memory card or the like that stores information of a destination that is a destination of transmission information.
  • FIG. 8 shows an example of a destination database 109 including items such as “name”, address Z number, and “attribute” of the destination.
  • “Type” specifies the type of the destination device (such as PCZT eIFaX), and “Video”, “Sound”, and “Text” specify the type of data that can be transmitted. Column.
  • the destination input unit 110 is a remote controller 32, etc., which allows the viewer to select the destination of the transmission information from the destination database 109 and directly input the destination of the transmission information by button or voice. Or input means for doing so.
  • the transmission unit 108 reads out the transmission information stored in the transmission information storage unit 107 according to the instruction from the control unit 102, and selects the destination or destination selected by the viewer from the destination database 109. It is a communication interface such as a modem for transmitting via a network to a destination directly input by the input unit 110.
  • FIG. 9 is a flowchart showing the operation procedure of broadcast receiving apparatus 100.
  • FIG. 10 is a diagram showing a dialogue between the viewer and the broadcast receiving apparatus 100.
  • the control unit 102 which has received the signal for selecting the time position from the time selection input unit 103, records the time as time information (time stamp), and was watching at that time.
  • an image shot or scene including the time position and a voice or sound unit are extracted (S'lO1). Then, the time information, the extracted image shot or scene, and the sound or sound unit are sent to the information selection unit 106.
  • the information selection unit 106 transmits the program shot information related to the image shot or scene and the sound or sound unit sent from the control unit 102 to the broadcast data stored in the control unit 102. (S102), and the selected program additional information is stored in the transmission information storage unit 107 together with the image shot or scene and audio or sound unit (S103). ).
  • the information selection unit 106 specifies all objects pointing to the scene extracted by the control unit 102 by the start time position and the duration from the program additional information, and The product description, sales information, related URL, etc. of the object are extracted and stored in the transmission information storage unit 107 together with the scene and sound unit as product information.
  • the information selecting unit 106 refers to the start time position and the duration of each object described in the program additional information, so that the time information notified from the control unit 102 can be obtained.
  • a time section that goes back a certain time in the past from the time shown I Identifies all objects that appear, extracts the product description, sales information, related URLs, etc.
  • the control unit 102 reads the transmission information stored in the transmission information storage unit 107 as in the screen display example shown in FIG. 10B. By reading it out and displaying it on the image display unit 104, it is possible to select the extracted image shot or scene and voice or sound unit.
  • the program additional information (that is, product information) is presented to the viewer (S104). At this time, if information on a plurality of sticky notes is stored in the transmission information storage unit 107, the control unit 102 sends a confirmation video and product information to the viewer for each of the plurality of sticky notes. Present and ask for instructions to send or not.
  • the transmitting unit 108 displays the screen shown in FIG. 10 (c).
  • the destinations registered in the destination database 109 are read out, displayed as a list of destinations on the image display section 104, and the destination input section 111 is input from the viewer. Selection of a destination or input by 0 is accepted (S105).
  • the viewer can use the destination input section 110 or the like to attach a message (sender message) to be attached to the transmission information and send it. Can be entered at
  • the transmission unit 108 reads out the transmission information stored in the transmission information storage unit 107, and sends it to the determined destination together with the input sender message. And transmits it via the network (S106). At this time, the transmission unit 108 selects and transmits only transmittable information by referring to the “device attributes” of the destination database 109, and transmits data that can transmit transmission information. It is transmitted after being converted to the type. For example, if the destination is “Yamamoto-san J” in the destination database 109 in FIG. 8, the transmission unit 108 will output information (video, product information, transmission (Sender message) as data, and in the case of Mr.
  • the sending unit 108 converts the product information and sender message in the sent information to voice and sends it over the phone.
  • the viewer can view the program.
  • the sticker button 3 2a on the controller 32 By simply pressing the sticker button 3 2a on the controller 32, after the end or interruption of the program, the information on the product can be automatically transmitted to the desired destination together with the related video scene. it can. Therefore, it is free from troublesome work such as taking a memo while watching the program and storing it in one corner of the head, which obstructs the viewing of the program.
  • the information with the sticky note is transmitted to the other party by communication via the network, the content to be transmitted is more reliably transmitted to the other party than by verbal communication by telephone or the like.
  • the other party receiving such sticky information does not only include information for identifying the product but also detailed information such as the price of the product, the store, and the video scene in which the product appeared. If you are interested in the product, ask the sender for various information about the product or obtain various information about the product using the Internet, etc. It is possible to make a purchase decision without having to do any troublesome work such as
  • the other party receiving the tag information is not limited to an intelligent terminal device such as a PC as a receiving device, but may be a simple terminal device such as a facsimile receiver. You only need to own it. This is because it is possible to receive various kinds of information on products, video scenes, and the like by using the image text.
  • FIG. 11 is a diagram showing a detailed configuration of the broadcast receiving apparatus 200 according to the present embodiment, that is, the broadcast receiving apparatus 200 which is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram.
  • the broadcast receiving apparatus 200 is capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to an external device in units of objects (here, products appearing in a program).
  • the broadcast receiving apparatus 200 has almost the same configuration as the broadcast receiving apparatus 100 in the first embodiment. However, instead of the transmission information storing section 107 in the first embodiment, the time information storing section 2 0 1 and a spatial position selection input unit 202, and a control unit 102 a and a function added in place of the control unit 102 and the information selection unit 106 in the first embodiment.
  • Embodiment 6 is different from Embodiment 1 in including 6a.
  • the same components as those in the first embodiment will be denoted by the same reference numerals, and the description thereof will be omitted.
  • the control unit 102a determines the time by referring to a built-in timer or the like when the time position instruction is issued from the time selection input unit 103, and determines the timing when the tag is attached. Is stored in the time information storage unit 201 as a time stamp (time information) indicating the time stamp.
  • the time information storage unit 201 is a memory for temporarily storing time information sent from the control unit 102a.
  • the spatial position selection input unit 202 is an arrow key or button provided on the remote controller 32, a pointing device, a touch panel, or the like. Individual objects This is an input means for designating the spatial position of the mouse.
  • the information selection unit 106a is configured to provide a video stream, an audio stream, and a video stream before and after including the time indicated by the time information stored in the time information storage unit 201 after the end of the program viewing or after the viewing is stopped.
  • the program additional information corresponding to the time is acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105.
  • an object in the video (such as a product that the viewer is interested in) is specified and specified.
  • An image shot containing the selected object is cut out from the video stream, product information corresponding to the object is extracted from the program additional information, and the image shot and the product information are extracted.
  • the selected information is sent to the transmission unit 108.
  • FIGS. 12 and 13 show content information in which details and time positions of objects appearing in a program are described in program additional information 22 transmitted from broadcast station 20 in the present embodiment. It is a figure showing the example of.
  • the objects "Jacket BJ and" Pants CJ etc. "are declared as the clothes of the A actor appearing in the program.
  • Information is described, and the start time position, duration, etc., are described as the time position of those objects in the video stream.
  • FIG. 14 is a diagram showing an example of content information in which the spatial position of an object appearing in a program is described in the program additional information 22 transmitted from the broadcast station 20 in the present embodiment. is there.
  • the product that appears in the program ⁇ Jacket BJ
  • the shape type (“length Square)) and the positions of the vertices are specified.
  • FIG. 15 is a flowchart illustrating the operation procedure of the broadcast receiving apparatus 200.
  • FIG. 16 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device 200.
  • control unit 102a receiving the signal for selecting the time position from the time selection input unit 103 specifies the time and stores it in the time information storage unit 201 as time information. Yes (S201).
  • the information selection unit 106a sets the video stream and audio stream of a certain section including the time indicated by the time information stored in the time information storage unit 201. And the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105. (S202).
  • the information selection unit 106a based on the spatial position instruction by the viewer using the spatial position selection input unit 202 for the presentation ( S203), the object in the video stream (such as a product that the viewer is interested in) is specified, and the product information corresponding to the object is extracted from the program additional information (S203).
  • the information selection section 106a sets the program addition By determining whether the spatial position of each object described in the information is within the area of the rectangular frame, all the objects included in the rectangular frame are specified.
  • the transmission unit 108 reads out the destinations registered in the destination database 109 as shown in the screen display example shown in FIG. 16 (c) and sets the image display unit as a transmission destination list.
  • a list is displayed in 104, and selection or input of a destination by the destination input unit 110 is received from the viewer (S205).
  • the transmission unit 108 sends the image shot, the audio stream, and the program additional information extracted by the information selection unit 106a to the determined destination, and sends them to the network. Transmission via the network (S206).
  • FIG. 17 is a more detailed flowchart of FIG. 15 relating to the dialog processing between the viewer and the broadcast receiving device 200. On the left side of the figure, the operation flow of the broadcast receiving device 200 is shown, and on the right side of the figure, the operation flow of the viewer is shown correspondingly.
  • the control unit 102a specifies the time and records it as a time position in the time information storage unit 201 (S211).
  • the information selection unit 106a refers to the time position recorded in the time information storage unit 201, and the time position is determined.
  • the surrounding images are acquired from the control unit 102a and presented to the viewer via the image display unit 104 (S212). For example, an image of a section that goes back 30 seconds in the past from the time the tag was attached is played back slowly and presented to the viewer for confirmation.
  • the viewer watches the video (S2222) and checks whether there is an object to be introduced to a third party in the video (S2223). , if it finds what you want to introduce a third person using a Y e s :), the remote one ipecac Toro one la 3 2 Potan or arrow keys Chief with (S 2 2 3, introduction in the image Specify what you want with a pointer (S2224).
  • the information selection unit 106 a monitors the confirmation video slowly while monitoring whether or not the viewer has specified the object in the video (S 2 13). If an instruction is given by (Yes in S213), a more detailed time position and spatial position are specified based on the instruction (S214). For example, when the information selection unit 106a obtains an instruction of “stop playback” by the remote controller 32 from the viewer while the confirmation video is being played, the video time corresponding to the timing is obtained. While recording the position, the playback of the confirmation image is stopped and a still image is displayed. Subsequently, when the viewer obtains the designation of the spatial position on the display screen by the remote controller 32, the The spatial position is recorded, and the recorded time position and spatial position are updated and stored as more accurate spatiotemporal arrangement information.
  • the information selection unit 106a obtains, from the spatio-temporal arrangement information, the time position information described in the content information of the program additional information shown in FIG. 13, and the content shown in FIG.
  • the spatial position information described in the information the object corresponding to the time position and the spatial position specified by the viewer is specified (S215), and the object is determined from the video stream of the program.
  • the section in which the character appears is cut out (S2 16).
  • the cut-out video stream is combined with the content information of the object finally corrected and selected based on the spatiotemporal arrangement information (S2117), and the transmission section 10 is transmitted as transmission information.
  • FIG. 18 shows the video of the program. ⁇ Until transmission information is generated from the audio stream.
  • FIG. 18 (a) when a viewer attaches a sticky note in the video stream of a program, as shown in Fig. 18 (b), after the end of the program, etc.
  • the video stream of a certain section including the video with the tag attached (for example, a section that goes back 30 seconds in the past from the time when the tag was attached) is played back to the viewer for confirmation.
  • the viewer finds something he wants to introduce to a third party the viewer stops playback and, as shown in Fig. 18 (c), moves the intended object from the still image.
  • a point is specified, as shown in Fig. 18 (d), a video stream of a certain section (for example, an image shot) including the still image is cut out, and the image stream corresponding to the object is extracted. Sent to third parties along with product information.
  • a sticky note button 32 of the remote controller 32 is used. By simply pressing a, the time position can be temporarily stored. Then, after the program ends or is interrupted, the intended object is individually and specifically specified by designating the spatial position in the video with the tag attached thereto, and the detailed information of the object is given together with the detailed information of the object. It is possible to send an image shot or the like containing a to a third party. Therefore, compared to the first embodiment, the information to be transmitted to the third party can be narrowed down to only information on the article to be introduced, and a smaller amount of information can be sent to the third party more accurately. Can be transmitted.
  • the viewer selects not only the time position of the program but also a desired item from a list of items appearing in the video at the time position.
  • it is characterized in that it is possible to transmit narrowed-down product information on an object-by-object basis.
  • the overall configuration of broadcast system 10 shown in FIG. 1 is common to the present embodiment.
  • FIG. 19 is a diagram showing a detailed configuration of the broadcast receiving apparatus 300 in the present embodiment, that is, the broadcast receiving apparatus 300 which is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram.
  • the broadcast receiving apparatus 300 is capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to an external device in units of objects (here, products appearing in a program).
  • the broadcast receiving apparatus 300 has substantially the same configuration as the broadcast receiving apparatus 200 in the second embodiment, but includes an information selection unit 106a and a spatial position selection input unit 202 in the second embodiment.
  • Embodiment 2 is different from Embodiment 2 in that an information selection unit 106 b and a selection input unit 301 are provided instead of the above.
  • points different from the second embodiment will be mainly described.
  • the selection input section 301 is an operation button 3 2b such as an arrow key provided on the remote controller 32, and is used by the viewer to select a desired object from the list of objects displayed on the image display section 104. It is an input means for selecting an object.
  • the information selection unit 106b stores the video stream, the audio stream before and after the time including the time indicated by the time information stored in the time information storage
  • the program additional information corresponding to the time is acquired from the control unit 102a, and the video stream and the audio stream are displayed as images.
  • the product information described in the program additional information is analyzed and presented to the image display unit 104 as a list. Then, based on the selection by the viewer using the selection input unit 301 for the presentation, an object (such as a product that the viewer is interested in) is specified, and an image shot including the specified object is specified.
  • the transmitting unit 108 cuts out the video stream, extracts the product information corresponding to the object from the program ancillary information, and uses those image shots and product information as selected information. Send to
  • broadcast receiving apparatus 300 Next, the operation of broadcast receiving apparatus 300 according to the present embodiment configured as described above will be described.
  • FIG. 20 is a flowchart showing the operation procedure of the broadcast receiving apparatus 300.
  • FIG. 21 is a diagram illustrating a state of a dialogue between the viewer and the broadcast receiving device 300.
  • control unit 102a receiving the signal for selecting the time position from the time selection input unit 103 specifies the time and stores it in the time information storage unit 201 as time information. Yes (S301).
  • the information selection unit 106b sets the video stream and audio stream of a certain section including the time indicated by the time information stored in the time information storage unit 201.
  • the stream and the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105.
  • it analyzes the product information described in the program additional information and presents it to the image display unit 104 as a list of objects as shown in the screen display example shown in Fig. 21 (b).
  • Output (S302) For example, if the program additional information corresponding to the time at which the tag was attached is the content information shown in FIGS.
  • the information selection unit 106b will select the A actor's clothes appearing in the video. As a result, detailed information (such as “Material”, “Release size”, “Price”, “Release color”, “Release color”) Product features such as pattern, “manufacturing company”, “sales company”, and position on the screen) are displayed in a list. Further, when the program additional information corresponding to the time when the tag is attached is the content information shown in FIGS. 22 and 23, the service corresponding to the contents of the dialog (in this example, “Overseas travel package” )) Is similarly displayed as a list of objects, and if the additional program information corresponding to the time when the tag was attached is the content information shown in FIGS. 24 and 25, the tag is displayed. Works such as music ( ⁇ BGMJ in this example) corresponding to the pasted time are similarly listed as objects.
  • the information selection unit 106b selects one or more objects from the object list. (Products that interest the viewer, etc.), extract the product information corresponding to the specified object from the program additional information, and select it along with the image shot and audio stream containing the object. The information is sent to the transmission unit 108 as the information.
  • the transmission unit 108 reads the destinations registered in the destination database 109 as shown in the screen display example shown in FIG. 21 (c), and sets the image display unit 100 as a destination list. 4 and a selection or input of a transmission destination by the destination input unit 110 is received from the viewer (S304).
  • the transmission unit 108 is extracted by the information selection unit 106 b.
  • the image shot, the audio stream, and the program additional information are transmitted to the determined destination via the network (S305).
  • the viewer can use the sticky button of the remote controller 32 when he or she finds an article to be introduced to a third party or a favorite product while watching the program.
  • the time position can be temporarily stored.
  • a list of objects appearing on the sticky video is displayed.
  • the viewer can specify the intended objects individually and specifically from the list.
  • an image shot or the like including the object can be transmitted to a third party. Therefore, compared to the first embodiment, the information to be transmitted to the third party can be narrowed down to only the information on the article to be introduced from the list of objects, and the information amount can be reduced with a smaller size.
  • the message can be accurately transmitted to the third party.
  • the viewer selects not only the time position of the program but also articles appearing in the video at the time position using a character string, and narrows down the objects in units of objects. It is unique in that it can send product information.
  • the overall configuration of the broadcasting system 10 shown in FIG. 1 is common to the present embodiment.
  • FIG. 26 is a diagram illustrating a detailed configuration of the broadcast receiving apparatus 400 according to the present embodiment, that is, a broadcast receiving apparatus 400 that is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram.
  • the broadcast receiving apparatus 400 uses an object (here, a commercial appearing in a program) to attach a tag to a received video and transmit various kinds of information corresponding to the tag to the outside.
  • object here, a commercial appearing in a program
  • TV receiver that can be used in units.
  • the broadcast receiving apparatus 400 has substantially the same configuration as the broadcast receiving apparatus 200 in the second embodiment, but has an information selection unit 100 in the second embodiment.
  • Embodiment 6 is different from Embodiment 2 in that an information selection unit 106 c and a character input unit 401 are provided in place of 6 a and the spatial position selection input unit 202.
  • an information selection unit 106 c and a character input unit 401 are provided in place of 6 a and the spatial position selection input unit 202.
  • the character input section 401 is an operation button 32b, such as an arrow key, provided on the remote controller 32, a keyboard, a handwritten character recognition device, and the like. This is an input means for specifying an object with a character string for.
  • a virtual keyboard for inputting characters using the arrow keys and buttons of the remote controller 32 with respect to the keyboard displayed on the image display unit 104 is included.
  • the information selection unit 106c sets the video stream, the audio stream, and the time before and after the time including the time indicated by the time information stored in the time information storage unit 201 after the end of the program viewing or after the viewing is stopped. From the control unit 102a, the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105, and characters are input from the viewer. By accepting character input via the input unit 401, performing language processing and semantic analysis on the received character string, and collating it with the product information described in the program additional information, the object corresponding to the character string (viewing Products that the user is interested in), an image shot containing the identified object is cut out from the video stream, and product information corresponding to the object is attached to the program. The information is extracted from the additional information, and the image shot and the product information are transmitted to the transmission unit 108 as the selected information.
  • broadcast receiving apparatus 400 Next, the operation of broadcast receiving apparatus 400 according to the present embodiment configured as described above will be described.
  • FIG. 27 is a flowchart showing the operation procedure of broadcast receiving apparatus 400.
  • FIG. 28 is a diagram illustrating a dialogue between the viewer and the broadcast receiving device 400.
  • control unit 102a receiving the signal for selecting the time position from the time selection input unit 103 specifies the time and stores it in the time information storage unit 201 as time information. Yes (S401).
  • the information selection unit 106c sets the video stream and audio for a certain section including the time indicated by the time information stored in the time information storage unit 201.
  • the stream and the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105.
  • the viewer is prompted to input a character string specifying the object (S402).
  • the information selection unit 106c performs linguistic processing and semantic analysis of the character string input from the character input unit 401, and extracts the relevant program additional information. Then, the extracted information is sent to the transmission unit 108 as transmission information (S404). For example, if the program additional information corresponding to the time when the tag was attached is the content information shown in FIGS. 12 and 13, and the viewer inputs ⁇ Jacket of actor A, The information selection unit 106c decomposes the input character string into ⁇ elements, and compares the character string between each noun and the product name etc.
  • the transmission unit 108 reads out the destinations registered in the destination database 109 and sets the image display unit as a transmission destination list.
  • a list is displayed in 104, and selection or input of a transmission destination by the destination input unit 110 is received from the viewer (S405).
  • the transmission unit 108 sends the image shot, the audio stream, and the program additional information extracted by the information selection unit 106c to the determined destination, and sends the network to the determined destination. Transmission via the network (S406).
  • the tag button 3 2 of the remote controller 3 2 By simply pressing a, the time position can be temporarily stored. Then, after the program ends or is interrupted, the object appearing in the video with the tag attached is specified by a character string, so that the viewer can obtain detailed information of the object along with the image show including the object. Can be sent to a third party. Therefore, compared to the first embodiment, the information to be transmitted to the third party can be narrowed down to only the information about the article to be introduced by inputting a character string, and the information amount of a smaller size can be reduced. More accurately communicating messages to third parties it can.
  • the viewer specifies not only the time position of the program but also the articles appearing in the video at the time position by voice, and the product information narrowed down in units of objects is specified.
  • the feature is that it can be transmitted.
  • the overall configuration of the broadcasting system 10 shown in FIG. 1 is common to the present embodiment.
  • FIG. 29 is a diagram illustrating a detailed configuration of the broadcast receiving device 500 according to the present embodiment, that is, a broadcast receiving device 500 that is an example of the broadcast receiving device 31 a shown in FIG. It is a block diagram.
  • the broadcast receiving apparatus 500 is capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to an external device in units of objects (here, products appearing in a program).
  • the broadcast receiving apparatus 500 has almost the same configuration as the broadcast receiving apparatus 200 in the second embodiment, but the information selecting section 100 in the second embodiment.
  • Embodiment 6 differs from Embodiment 2 in that an information selection unit 106 d, a microphone phone 501, and a speech recognition unit 502 are provided instead of 6a and the spatial position selection input unit 202.
  • the microphone 501 is a microphone 32 d or the like provided in the remote controller 32, and sends the voice uttered by the viewer to the voice recognition unit 502.
  • the voice recognition unit 502 is a voice recognition device or the like that recognizes the voice of the viewer input to the microphone-mouth phone 501, performs voice recognition of the viewer, performs language processing and semantic analysis. The result is sent to the information selection unit 106 d.
  • the information selection unit 106 d calculates the video stream, the audio stream, and the time before and after the time indicated by the time information stored in the time information storage unit 201 after the end of program viewing or after viewing interruption. From the control unit 102a, and presents and outputs the video stream and the audio stream to the image display unit 104 and the audio output unit 105, as well as the audio recognition unit. By matching the recognition result of the viewer's voice sent from 502 with the product information described in the program additional information, an object corresponding to the voice uttered by the viewer (interested by the viewer) Products, etc.), and cut out image shots containing the specified objects from the video stream, extract product information corresponding to the objects from the program additional information, and extract those image shots. Kit and product information Are transmitted to the transmitting unit 108 as the selected information.
  • broadcast receiving apparatus 500 Next, the operation of broadcast receiving apparatus 500 according to the present embodiment configured as described above will be described.
  • FIG. 30 is a flowchart showing the operation procedure of broadcast receiving apparatus 500.
  • FIG. 31 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device 500.
  • the signal for selecting the time position is input from the time selection input section 103.
  • the control unit 102a that has received the time specifies the time, and stores it in the time information storage unit 201 as time information (S501).
  • the information selection unit 106 d sets the video stream and audio of a certain section including the 0 ⁇ increment indicated by the time information stored in the time information storage unit 201.
  • the stream and the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented to the image display unit 104 and the audio output unit 105.
  • the viewer is prompted to input a voice for designating the object (S502).
  • the voice recognition unit 502 when the viewer utters a voice specifying the object toward the microphone 501 (S503), the voice recognition unit 502 performs recognition, language processing, and semantic analysis of the voice input to the microphone 501, and based on the recognition result, the information selection unit 106d extracts the corresponding program additional information ( S504), the extracted information is sent to the transmission unit 108 as transmission information.
  • the program additional information corresponding to the time when the tag was attached is the content information shown in FIGS. 12 and 13, and when the viewer utters "Jacket J of actor A, the voice recognition The unit 502 recognizes the input speech, breaks it down into morphemes, and compares each noun with the product name etc.
  • the transmission unit 108 reads out the destinations registered in the destination database 109 as shown in a screen display example shown in FIG. 31 (c), and sets the image display unit as a transmission destination list. Listed in 104, and from viewers, The selection or input of the transmission destination by the destination input unit 110 is accepted (S550). When the destination is determined, the transmission unit 108 directs the image shot, audio stream, and program additional information extracted by the information selection unit 106 d to the determined destination. And sends it via the network (S506).
  • a sticky note button 32 of the remote controller 32 is used. By simply pressing a, the time position can be temporarily stored. Then, after the program ends or is interrupted, the object appearing in the video with the sticky note is specified by audio, so that the viewer can obtain detailed information of the object and an image shot including the object. Can be sent to a third party. Therefore, as compared with the first embodiment, the information to be transmitted to the third party can be narrowed down to only the information on the article to be introduced by simply giving a simple utterance toward the broadcast receiving apparatus 500, and the processing is simple. Thus, the message can be more accurately transmitted to a third party.
  • the viewer designates the time position of the program and the article appearing in the video at the time position at the same time by his / her own sound, and the product is narrowed down on an object basis.
  • the feature is that information can be transmitted.
  • the overall configuration of broadcast system 10 shown in FIG. 1 is common to the present embodiment.
  • FIG. 32 is a diagram illustrating a detailed configuration of the broadcast receiving apparatus 600 according to the present embodiment, that is, a broadcast receiving apparatus 600 that is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram.
  • This broadcast receiving apparatus 600 corresponds to the attachment of a tag to a received video by a viewer and the tag. It is a television broadcast receiver that can transmit various types of information to the outside on an object (in this case, a product that appears in a program) unit.
  • Broadcast receiver 101 controller 102b, image display 1 04, sound output section 105, information selection section 106 e, transmission section 108, destination database 109, destination input section 110a, microphone / mouthphone 611, voice recognition section 6 0 2 and time 'recognition result table storage section 63.
  • the broadcast receiving apparatus 600 has substantially the same configuration as the broadcast receiving apparatus 100 in the first embodiment, but has a time selection input section 103 and a transmission information storage section 107 in the first embodiment. Instead, a microphone 61, a voice recognition unit 602 and time ⁇ a point including a recognition result table storage unit 603, and a control unit 102, an information selection unit 106 in the first embodiment, Instead of the destination input unit 110, a simplified control unit 102b, an information selection unit 106e with added functions, and a destination input unit 110a with added functions It differs from the first embodiment in that it is provided.
  • the same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted.
  • the control unit 102 b corresponds to the function of the control unit 102 according to the first embodiment except for the processing for the time selection input unit 103.
  • the program contents (video / audio stream) received by the broadcast receiving unit 101 are temporarily stored, and the program contents and the stored program contents are requested in response to a request from the information selecting unit 106 e. It sends program ancillary information to the information selection unit 106 e and controls each component to interact with the viewer.
  • the microphone 601 is a microphone microphone 3 2d or the like provided in the remote controller 32, and sends the voice uttered by the viewer to the voice recognition unit 602.
  • the voice recognition unit 602 records the time (time stamp) at that time and transmits the voice.
  • a speech recognition device or the like that recognizes the received speech, recognizes the viewer's speech, performs language processing and semantic analysis, and pairs recognition result information indicating the recognition result with time information indicating the recorded time. The time is stored in the recognition result table storage unit 603.
  • the time and recognition result table storage unit 603 is a memory or the like for temporarily storing the recognition result information and the time information sent from the speech recognition unit 602, for example, as shown in FIG. It has a data structure in which recognition result information and time information are stored in pairs.
  • the information selection unit 106 e reads the time information and the recognition result information stored in the recognition result table storage unit 603 after the end of program viewing or after the viewing is stopped, and sets the time indicated by the read time information.
  • the program additional information before and after that is obtained from the control unit 102b.
  • product information corresponding to the recognition result information is extracted, and the extracted product information is presented and output to the image display unit 104, thereby prompting the viewer to confirm, and obtaining the confirmation.
  • the image shot and the sound including the product information are read from the control unit 102b, and the product information, the image shot, and the sound are sent to the transmission unit 108.
  • the destination input section 11 Oa is an input means for the viewer to select a destination of transmission information from the destination database 109 and directly input a destination of transmission information. Not only the buttons of the remote controller 32, etc., but also the microphone 32d provided in the remote controller 32 and a recognition processing device for the voice inputted to the microphone mouthphone 32d. Is also included. Next, the operation of broadcast receiving apparatus 600 thus configured according to the present embodiment will be described.
  • FIG. 34 is a flowchart showing the operation procedure of broadcast receiving apparatus 600.
  • FIG. 35 shows a dialogue between the viewer and the broadcast receiver 600. is there.
  • the voice is input to the voice recognition unit 602 via the microphone 601, and the voice recognition unit 602 records the time at which the voice was input, and performs the voice recognition process.
  • the recognition result information indicating the recognition result and the time information indicating the recording time are paired and stored in the recognition result table storage unit 603 (S 602). ).
  • the information selection unit 106 e When the viewing of the program by the viewer ends or is interrupted, the information selection unit 106 e reads out the time information and the recognition result information stored in the recognition result table storage unit 603. After acquiring the additional information before and after the program including the indicated time from the control unit 102b, it performs linguistic processing and semantic analysis of the recognition result information, and from the acquired program additional information, the product information corresponding to the recognition result information Is extracted (S603). Then, the information selection unit 106 e presents and outputs the extracted product information to the image display unit 104 as shown in the screen display example shown in FIG. Prompts the utterance of the destination.
  • the transmitting unit 1 The information selection unit 106 e, which has received the notification from 08, reads the image shot and sound including the presented product information from the control unit 102b, and transmits And send it to the sending unit 108. Soshi Then, the transmitting unit 108 transmits the transmission information to the destination specified by the viewer via the network (S 605).
  • the speech is recognized by the destination input unit 110a, and then the destination database 109 is referred to by the transmission unit 108. Then, the destination of “Mr. B” is specified, and the product information and the like are transmitted to the “Mr.
  • FIG. 36 shows the flowchart of FIG. 34 in more detail with respect to the interaction processing between the viewer and the broadcast receiving device 600.
  • the operation flow of the broadcast receiving device 600 is shown, and on the right side of the figure, the operation flow of the viewer is shown correspondingly.
  • the speech recognition unit 602 identifies the uttered time, performs recognition processing on the uttered speech, and uses the time and the recognition result as time information and recognition result information. Time ⁇ Stored in the recognition result table storage unit 603 (S610).
  • the information selection unit 106 e reads the time information and the recognition result information stored in the recognition result table storage unit 603. After acquiring from the control unit 102b the program additional information before and after including the time indicated by the read time information, the recognition result information is subjected to language processing and semantic analysis, and the recognition result is obtained from the acquired program additional information.
  • the object (product information) corresponding to the information is extracted (S611), presented and output to the image display unit 104, and the viewer is urged to confirm and utter the destination (S61). 2).
  • viewers see a confirmation screen of the object they uttered. Watch the image (S622), check whether there is something you want to introduce to the third person in the video (S622), and if you find something you want to introduce to the third party (Yes in S623), send to a third party, such as "Send it to Mr. B", to the destination input section 110a such as a microphone and a microphone provided in the remote controller 32. (S 6 2 4).
  • the transmission unit 108 monitors whether or not the viewer has given an instruction to specify the transmission destination (S613), and if the transmission destination is specified by the viewer (S61). (Yes in 3), and notifies the information selection unit 106 e of this.
  • the information selection unit 106 e reads out the video ⁇ sound stream from the control unit 102 b, cuts out a section including the object (S 614), and cuts out the video.
  • the stream (image shot, etc.) and the numerical value of the space-time layout of the object are corrected, and the content information of the finally selected object is combined (S615), and the transmission information and And sends it to the transmission unit 108.
  • FIG. 37 is a diagram illustrating the principle of specifying an object in the present embodiment.
  • the viewer finds an object to be transmitted to a third party while watching a program, the viewer emits a sound identifying the object, thereby attaching a sticky note to the video stream of the program and displaying the object.
  • the time position in the video stream is specified in real time by the time of speech (by time stamp processing), and after the program is over, the time position of the speech spoken during program viewing is determined. Speech recognition enables further narrowing down to specific objects.
  • the designation of the time position and the designation of the spatial position are performed simultaneously with only one utterance.
  • the viewer while watching the program, When you find an article you want to introduce to a third party or find a product you like, just say a utterance that identifies the product, and put the time position and the product on a sticky note on the program. It can be stored temporarily. After the end or interruption of the program, after checking the video on which the user has attached a sticky note, by specifying the destination by utterance, etc., the image of the product appears along with the product information. Shots can be sent to a third party. Therefore, as compared with the first embodiment, the time position on the program and the object of the object to be transmitted to the third party by simply uttering the broadcast receiving apparatus 600 at the same time are specified at the same time. The message can be transmitted to a third party more accurately with simple operations. As described above, the program receiving apparatus according to the present invention has been described based on Embodiments 1 to 6, but the present invention is not limited to these embodiments.
  • a multi-functional broadcast receiving apparatus capable of attaching a tag by a plurality of methods may be configured. Specific examples are described below.
  • FIG. 38 is a diagram illustrating one broadcast receiving device 700 having functions of the broadcast receiving devices according to the first to sixth embodiments.
  • the broadcast receiving device 700 has a broadcast receiving unit 701, a broadcast data storage unit 702, a button input unit 703, an audio input unit 704, a pointing device 705, and an image display unit 7. 06, sound output unit 707, control unit 710, video / audio signal processing unit 711, tag processing unit 712, voice recognition unit 713, transmission unit 714, destination database 711 5 and a destination determination unit 7 16.
  • the broadcast receiving unit 701 corresponds to the broadcast receiving unit 101 in the above embodiment
  • the broadcast data storage unit 702 is the control unit 10 in the above embodiment.
  • 102 a and 102 b correspond to a built-in storage unit
  • the button input unit 703 and the pointing device 705 are the time selection input unit 103 and the destination input unit in the above embodiment.
  • the voice input unit 704 corresponds to the microphone microphones 501, 601 in the above embodiment
  • the image display unit 706 corresponds to the image display in the above embodiment.
  • the sound output unit 707 corresponds to the sound output unit 105 in the above embodiment
  • the control unit 710 and the video / audio signal processing unit 711 correspond to the above embodiment.
  • the tag information storage section 7 12 a stores the time information storage section 201, the transmission information storage section 107, and the time-recognition result table storage section 60 3 in the above embodiment.
  • the information selection unit 712 b is a processing unit having the functions of the information selection units 106, 106b, 106c, 106d, and 106e in the above embodiment.
  • the voice recognition unit 711 corresponds to the voice recognition function of the voice recognition unit 502, the voice recognition unit 602, and the destination input unit 110a in the above embodiment
  • the transmission unit 714 Corresponds to the transmitting section 108 in the above embodiment
  • the destination database 715 corresponds to the destination database 109 in the above embodiment
  • the destination determining section 716 corresponds to the above embodiment.
  • the tag processing unit 712 of the broadcast receiving device 700 specifies an object appearing in the program (sticking process of a tag) according to a preset operation mode. For example, as shown in the table of FIG.
  • the time position of the sticky note is determined by the button input section 703, the voice input section 704, and the like. ⁇ Determined by a predetermined input from one of the pointing devices 705, and the object in the image at that time position is specified by automatically searching for all objects registered in the program additional information.
  • operation mode ⁇ 2 The position is specified by the button input unit 703 and the pointing device 705, and in the operation mode “3”, a list of objects included in the video at the specified time position is displayed, and the button input unit An object is specified by the input device 703 and the pointing device 705.
  • the operation mode “4” the object is specified by inputting a character string using the button input unit 703 and the pointing device 705.
  • an object is specified by the sound input to the audio input unit 704, and in the operation mode “6”, the time is determined by the sound input to the audio input unit 704.
  • the position and the spatial position (object) are specified at the same time.
  • the viewer selects a desired mode from six types of user interfaces (operation modes) in advance with respect to the method of attaching the tag.
  • a desired mode from six types of user interfaces (operation modes) in advance with respect to the method of attaching the tag.
  • you can attach a tag while viewing a program and send that information to a third party in a way that suits you.
  • a tag is attached in real time to the broadcast data transmitted from the broadcasting station 20, but the data to be attached with the tag is a broadcast receiving device.
  • the broadcast data may be broadcast data stored in advance. That is, the present invention can be realized not only as a broadcast receiving device, but also as a recording / playback device for playing back stored broadcast data.
  • a program display device that acquires and displays program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream, and acquires the program data
  • Display means for receiving and displaying predetermined input processing by the operator; recording means for recording time information indicating the time at which the input processing was performed; and time information recorded by the recording means.
  • the present invention can also be realized as a program display device including transmission means for transmitting information about an object to a designated destination via a communication path. This makes it possible to attach the tag according to the present invention to storage-type broadcast data or playback data of a previously recorded program.
  • the time position and the spatial position (object) of the product appearing in the program based on the utterance of the viewer during the viewing of the program are specified.
  • the transmission destination was specified by the utterance of, these three types of specification may be performed simultaneously. For example, if the viewer utters, "Let's look good on that jacket, Mr. B" while watching the program, the time position is specified from the utterance time by voice recognition or the like of the broadcast receiver, and the voice ⁇ The destination may be specified from the “Jacket”, and the object is specified, and the voice “to the person”. Thus, the viewer can complete the attachment of the tag and the designation of the transmission destination for each object by one utterance during the viewing of the program.
  • the program receiving apparatus of the present invention can be applied not only to television broadcasting using terrestrial waves, satellites, and CATV, but also to video distribution systems using the Internet using a data communication network. That is, the present invention can be applied to any communication system that distributes the program contents and the program additional information in the above embodiment.
  • the related URL transmitted from the broadcast receiving device 31a to the third party is a web site that provides information related to the object (product) transmitted to the third party.
  • URL but instead, or in addition, the product is registered as a URL to be sent to a third party.
  • the URL may be a Web site that distributes the program itself on demand.
  • a third party who receives the product information including the URL on a PC or the like receives the URL on the PC when he / she does not see the program on which the product appeared and wishes to view the program. Click to view the program.
  • the additional information is described in conformity with MPEG7, but a format for electronic commerce such as c XML, x CB, eb XML or CIIZX ML is used to describe product information and the like. It may be described according to.
  • information that is not included in the e-commerce format may be described according to the format that describes the detailed information attached to the product.
  • the additional information is described in conformity with MPEG7.
  • the format as shown in FIGS. It may be described according to the description format.
  • the additional information is described in conformity with MPEG7, but may be described in accordance with a voice data format such as VoiceXML in order to describe voice information and the like.
  • the present invention is directed to a program receiving apparatus or the like for receiving and displaying program data distributed in a terrestrial broadcast, satellite broadcast, CATV, or other television broadcast, or in a video distribution system over the Internet using a data communication network.
  • a program receiving apparatus or the like for receiving and displaying program data distributed in a terrestrial broadcast, satellite broadcast, CATV, or other television broadcast, or in a video distribution system over the Internet using a data communication network.
  • it can be used as a program receiving device or the like that can mark targets appearing in a program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

A broadcast reception device (100) that receives program data including a video/audio stream representing a program content and additional information associated with an object that appears in the program. The device comprises a broadcast reception unit (101) that receives broadcast data; a time selection input unit (103) that receives an “sticky attaching” operation performed by an operator; a control unit (102) that records time information indicating the time at which the “sticky attaching” operation is performed; an information selection unit (106) that identifies an object appearing in the video/audio stream based on the time information and extracts information on the object from the additional information; and a transmission unit (108) that transmits the extracted information on the object to a specified destination via a communication line.

Description

明 細 書  Specification
番組受信装置及び番組表示装置 技術分野  Program receiving device and program display device
本発明は、 テレビ放送等の番組データを受信したり表示したりする装 置等に関し、 特に、 番組に登場した対象に対してマーク付けをする装置 に関する。 背景技術  The present invention relates to a device for receiving and displaying program data such as a television broadcast, and more particularly to a device for marking an object appearing in a program. Background art
テレビ放送で放送された番組やコマーシャルを視聴している際に、 番 組に登場した物品等の対象 (以下、 「オブジェク ト」 ともいう。) に興味 をもったときに、 そのことを第 3者に伝えたいと思う ことがある。 たと えば、 番組に登場した俳優 Aが着ていたジャケッ トが 「すごくステキな ジャケッ トだなあ」 と思ったときに、 親しい友人に、 ぜひ、 そのジャケ ッ トを紹介してあげたいと思うことがある。  When watching a program or commercial broadcast on television, if you are interested in an object (such as an “object”) that appeared in the program, you can do so in the third place. There is something I want to tell people. For example, when the jacket that actor A appeared on the program wore was thought to be a very nice jacket, I would like to introduce that jacket to a close friend. There is.
このような場合に、 視聴者は、 番組の視聴中にメ モをとつたり、 頭の 片隅に記憶しておくなどして、 興味をもったオブジェク トのことを覚え ておき、 番組の終了後などに友人に電話し、 番組に登場したオブジェク トのことを伝えたりする。  In such a case, the viewer takes notes while watching the program or memorizes it in one corner of the head, so that the viewer can remember the object of interest and end the program. Later, they call friends and tell them about the objects that appeared in the program.
ところが、 番組の視聴中にメモをとることは、 たいへん煩わしいこと である。 通常は番組の視聴中にメ モをとることを想定していない場合が 多く、 手の届く範囲にメ モ帳を置いていない。 また、 くつろいでテレビ 番組を見ているときにメ モ書きすることはたいへん億劫である。 かとい つて、 番組に登場した物品のことを頭の片隅に留めておくのは、 ドラマ 等の番組に集中して視聴することへの妨げとなり、 興ざめである。  However, taking notes while watching a program is very cumbersome. Usually, it is not assumed that a memo is taken while watching a program, and the memo book is not placed within reach. Also, writing notes while relaxing and watching a TV program can be a daunting task. On the other hand, keeping articles that appeared in a program in one corner of the head is an obstacle to focusing on programs such as dramas, which is an exciting activity.
このような番組視聴中におけるメモ書き等の煩わしい操作を解消する 従来の技術として、 ブックマークラジオシステムがある (たとえば、 特 願 2 0 0 2— 1 2 3 4 5 6号公報参照)。 この従来技術では、 ユーザがラ ジォ放送を受信しているときに、 いわゆるブックマークを付けるような 操作の入力があった場合に、 ユーザ端末は、 番組データ中に配置された 特定の情報を記憶しておき、 その情報に基づいて、 サーバ装置から復号 キーを取得し、 取得した復号キーを用いて暗号化データを正式曲データ に復号する。 これによつて、 ユーザは、 メモ等をとつたり、 販売店に行 つて C D等を購入したりすることなく、 欲しい曲データを確実に入手す ることができるというものである。 Eliminate such cumbersome operations such as writing notes while watching a program As a conventional technique, there is a bookmark radio system (for example, refer to Japanese Patent Application No. 2002-123456). According to this conventional technique, when a user receives an operation for attaching a so-called bookmark while receiving a radio broadcast, the user terminal stores specific information arranged in the program data. In advance, a decryption key is obtained from the server device based on the information, and the encrypted data is decrypted into official music data using the obtained decryption key. This allows the user to reliably obtain the desired song data without having to take notes or go to a store to purchase a CD or the like.
しかしながら、 上記の従来技術における 「ブックマーク付け」 は、 ボ タン操作等の単純な操作であり、 ラジォ放送等において放送される音楽 を指定する操作と しては有効といえるが、 テレビ放送等の映像に登場す る個々のオブジェク トを指定することは困難である。 つまり、 上記の従 来技術における 「ブックマーク付け」 は、 音楽のように、 時間的な位置 だけを特定すれば足りるケースに適用することができるものの、 テレビ 放送に登場するォブジェク 卜のように、時間的な位置と空間的な位置(表 示画面上の位置) が特定されなければならないケースに適用することが できないという問題がある。  However, "bookmarking" in the above-mentioned conventional technology is a simple operation such as a button operation, and can be said to be effective as an operation of designating music to be broadcast in radio broadcasting or the like. It is difficult to specify the individual objects that appear in a. In other words, the above-mentioned “bookmarking” in the conventional technology can be applied to a case where it is sufficient to specify only a temporal position, such as music, but is not a time-consuming object, such as an object appearing in television broadcasting. However, there is a problem that it cannot be applied to the case where the physical position and the spatial position (position on the display screen) must be specified.
また、 上記の従来技術では、 ユーザは、 マーク付けによって正式曲デ —タを入手することができるに止まり、 そのことを第 3者に伝達すると いうことができない。 たとえば、 すてきな曲データを入手したので、 第 3者に伝えたいと思った場合には、 その曲のタイ トルや歌手名等を調べ た後に、 その第 3者に電話をして伝えたり、 電子メールを作成して送信 したりする必要がある。 つまり、 第 3者に伝達するために、 伝えたいォ ブジェク トのことを調べたり、 電話をかけたりする等の煩わしい作業が 必要になるという問題がある。 発明の開示 Further, according to the above-described conventional technology, the user can only obtain official music data by marking, and cannot say that the information is transmitted to a third party. For example, if you get nice song data and want to give it to a third party, look up the title, singer's name, etc. of that song, and then call that third party, Or create and send an email. In other words, there is a problem that in order to communicate to a third party, troublesome work such as searching for an object to be communicated or making a telephone call is required. Disclosure of the invention
そこで、 本発明は、 このような状況に鑑みてなされたものであり、 テ レビ放送等の映像に登場するオブジェク トに対して簡単な操作によって マーク付けをすることができ、 かつ、 そのオブジェク 卜に関する情報を 調べたり、 電話をかけたりすることなぐ、 希望する第 3者にそのォブジ ェク 卜に関する情報を確実に伝達することができる便利な番組受信装置 等を提供することを目的とする。  Therefore, the present invention has been made in view of such a situation, and it is possible to mark an object appearing in a video such as a television broadcast by a simple operation, and furthermore, the object can be marked. An object of the present invention is to provide a convenient program receiving device and the like that can reliably transmit information about an object to a desired third party without checking information or making a telephone call.
上記目的を達成するために、 本発明に係る番組受信装置は、 映像ス ト リームと前記映像ス トリ一厶が示す映像に登場する対象に対応づけられ た付加情報とを含む番組データを受信する番組受信装置であって、 前記 番組データを受信し記憶する受信手段と、 操作者による所定の入力処理 を受け付ける入力手段と、 前記入力処理が行われた時刻を示す時刻情報 を記録する記録手段と、 前記受信手段によリ受信された番組データを参 照することにより、 前記記録手段に記録された時刻情報が示す時刻に対 応ずる時間において前記受信手段によリ受信された映像ス トリームが示 す映像に登場する対象を特定する対象特定手段と、 特定された対象に関 する情報を前記受信手段に受信された付加情報の中から抽出する抽出手 段と、 抽出された前記対象に関する情報を指定された宛先に通信路を介 して送信する送信手段とを備えることを特徴とする。  In order to achieve the above object, a program receiving device according to the present invention receives program data including a video stream and additional information associated with a target appearing in a video indicated by the video stream. A program receiving apparatus, comprising: a receiving unit configured to receive and store the program data; an input unit configured to receive a predetermined input process by an operator; and a recording unit configured to record time information indicating a time at which the input process is performed. By referring to the program data re-received by the receiving means, the video stream re-received by the receiving means at a time corresponding to the time indicated by the time information recorded in the recording means is indicated. Object identification means for identifying an object appearing in a video, and extraction means for extracting information about the identified object from the additional information received by the receiving means. Transmitting means for transmitting the information on the object to a designated destination via a communication path.
これによつて、 所定の入力操作によって、 番組の時間位置を特定する ための 「付箋の貼り付け」 処理が行われ、 続いて、 付箋が貼られた映像 に登場した対象が特定され、 その対象に関する情報が付加情報から抽出 されて宛先に送信されるので、 操作者は、 番組の視聴中に第 3者に伝え たい対象を発見したときに、付箋を貼るような簡単な操作をするだけで、 確実、 かつ、 自動的に、 対象に関する情報を第 3者に伝達することがで きる。 As a result, by a predetermined input operation, a “sticky note” process for specifying the time position of the program is performed. Subsequently, the target appearing in the sticky video is specified, and the target is identified. Information is extracted from the additional information and sent to the destination, so when the operator finds an object to be conveyed to a third party while watching the program, the operator can simply perform a simple operation such as attaching a tag. Can reliably, automatically, and automatically transmit information about the subject to a third party. Wear.
なお、 前記付加情報には、 前記映像に登場する対象を特定する情報と 当該対象に関する情報とが対応づけられて含まれ、 前記対象を特定する 情報には、 当該対象の画像を含むフ レーム画像の前記映像ス トリームに おける時間位置及び当該対象の画像のフ レーム画像における空間位置が 含まれていてもよい。 また、 前記番組データには、 さらに、 音響ス トリ ーム及び音声ス ト リームが含まれ、 前記付加情報は、 さらに、 前記音響 ス トリーム及び前記音声ス トリームに登場する対象にも対応づけられて いてもよい。 そして、 前記対象には、 商品等の物体だけでなく、 音楽等 の著作物やサービスが含まれてもよい。  In addition, the additional information includes information for identifying a target appearing in the video in association with information on the target, and the information for specifying the target includes a frame image including an image of the target. The time position in the video stream and the spatial position of the target image in the frame image may be included. Further, the program data further includes an audio stream and an audio stream, and the additional information is further associated with an object appearing in the audio stream and the audio stream. It may be. The object may include not only an object such as a product but also a copyrighted work or service such as music.
ここで、 前記対象特定手段は、 前記時刻に対応する時間において前記 受信手段によリ受信された映像ス トリームが示す映像を操作者に提示し、 その提示に対する操作者の指示に従って前記対象を特定する。たとえば、 前記対象特定手段は、 前記提示に対する操作者による映像の空間位置の 指定に従って前記対象を特定する。  Here, the target specifying means presents to the operator the video indicated by the video stream received by the receiving means at a time corresponding to the time, and specifies the target according to the operator's instruction for the presentation. I do. For example, the target specifying means specifies the target in accordance with the designation of the spatial position of the video by the operator for the presentation.
これによつて、 操作者は、 付箋を貼った映像に対する空間位置を指定 することで対象を特定することができるので、 1 つの画面に複数の対象 が表示されている場合であっても、 特定の対象に絞りこんで情報を送信 することができる。  With this, the operator can specify the target by specifying the spatial position with respect to the video on which the tag is attached, so that even when a plurality of targets are displayed on one screen, the target can be specified. The information can be transmitted by narrowing down to the target.
また、 前記対象特定手段は、 前記映像とともに、 前記映像に登場する 対象の一覧を操作者に提示し、 その提示に対する操作者による選択指示 に従って前記対象を特定してもよい。 これによつて、 操作者は、 対象の 一覧から選択することによって対象を特定することができるので、 簡単 な操作で、 かつ、 確実に、 第 3者に伝達したい対象を絞り込むことがで ぎる。  Further, the target specifying unit may present a list of targets appearing in the video to the operator together with the video, and may specify the target according to a selection instruction by the operator for the presentation. Thus, the operator can specify the target by selecting from the list of targets, and thus can easily and reliably narrow down the target to be transmitted to the third party.
また、 前記対象特定手段は、 操作者から文字列を取得し、 取得した文 字列に従って前記対象を特定してもよい。 これによつて、 操作者は、 文 字列の入力によって特定の対象を指定することができるので、たとえば、 極めて小さい表示領域中に多くの異なる対象が表示されていたり、 異な る対象が画面上で重 って表示されているために、 ポインティングデバ イスによって対象を指定することが困難な場合であっても、 確実に、 意 図する対象を指定することができる。 Further, the target specifying means acquires a character string from an operator, and acquires the acquired sentence. The target may be specified according to a character string. This allows the operator to specify a specific target by inputting a character string, so that, for example, many different targets are displayed in an extremely small display area, or different targets are displayed on the screen. Even if it is difficult to specify the target by the pointing device, the intended target can be specified without fail even if the target device is difficult to display.
また、 前記対象特定手段は、 操作者の音声を取得し、 取得した音声に 従って前記対象を特定してもよい。 同様に、 前記入力手段は、 操作者に よる発話を入力処理として受け付け、 前記記録手段は、 前記発話が行わ れた時刻を示す時刻情報を記録してもよいし、 同時に、 前記対象特定手 段は、 前記入力手段が受け付けた発話に対して音声認識を行うことで、 前記対象を特定してもよい。 つまり、 操作者の音声によって、 番組に対 する時間位置や空間位置を特定してもよい。 特に、 番組の視聴中に、 操 作者が対象を特定する発話をした場合には、 発話したタイミングから番 組の時間位置を特定し、発話した内容から対象の絞り込みをすればよい。 これによつて、 操作者は、 極めて簡単な操作によって付箋の貼り付けと 対象の絞リ込みができる。  Further, the target specifying means may acquire the voice of the operator, and may specify the target according to the acquired voice. Similarly, the input unit accepts an utterance by an operator as input processing, and the recording unit may record time information indicating a time at which the utterance was performed. May perform the voice recognition on the utterance accepted by the input unit, thereby identifying the target. That is, the time position or the spatial position of the program may be specified by the voice of the operator. In particular, when the operator speaks to identify the target while watching the program, the time position of the program may be specified from the timing of the utterance, and the target may be narrowed down based on the uttered content. As a result, the operator can paste a tag and narrow down targets by extremely simple operations.
また、 前記抽出手段は、 さらに、 前記対象が登場する映像を示す映像 データを前記受信手段に受信された映像ス トリームの中から抽出し、 前 記送信手段は、 前記対象に関する情報とともに、 前記映像データを前記 宛先に送信してもよい。 同様に、 前記番組データには、 音声ス ト リーム が含まれ、 前記抽出手段は、 さらに、 前記映像データに対応する音声デ ータを前記受信手段に受信された音声ス トリームの中から抽出し、 前記 送信手段は、 前記対象に関する情報及び前記映像データとともに、 前記 音声データを前記宛先に送信してもよい。 さらに、 前記送受信装置は、 操作者から送信メ ッセージを取得する送信メ ッセージ取得手段を備え、 前記送信手段は、 前記対象に関する情報、 前記映像データ及び前記音声 データとともに、 前記送信メッセージ取得手段が取得した送信メ ッセー ジを前記宛先に送信してもよい。 In addition, the extraction unit further extracts video data indicating a video in which the target appears, from the video stream received by the reception unit, and the transmission unit includes the video data together with information on the target. Data may be sent to the destination. Similarly, the program data includes an audio stream, and the extracting unit further extracts audio data corresponding to the video data from the audio stream received by the receiving unit. The transmitting unit may transmit the audio data to the destination together with the information on the target and the video data. Further, the transmission / reception device includes transmission message acquisition means for acquiring a transmission message from an operator, The transmission means may transmit the transmission message acquired by the transmission message acquisition means to the destination together with the information on the target, the video data and the audio data.
これによつて、 対象に関する情報だけでなく、 その対象が登場する映 像や音声も一緒に送信されるので、 その対象が番組に登場したときの全 体の状況が詳細に第 3者に伝えられる。  As a result, not only information about the target but also the video and audio in which the target appears are transmitted together, so that the overall situation when the target appeared in the program can be communicated to a third party in detail. Can be
また、 前記送信手段は、 前記宛先の受信機能に関する属性に応じて、 前記対象に関する情報、 前記映像データ、 前記音声データ及び前記送信 メ ッセージの中から、 選択した情報だけを前記宛先に送信してもよい。 これによつて、 受信装置が処理可能なデータだけが自動的に選別されて 送信されるので、 操作者による選別処理が不要になるとともに、 受信不 可能なデータが送信されて しまうことによる無駄なデータ転送が回避さ れる。  In addition, the transmitting unit transmits only information selected from the information on the target, the video data, the audio data, and the transmission message to the destination according to an attribute of a reception function of the destination. Is also good. As a result, only the data that can be processed by the receiving device is automatically selected and transmitted, so that the selection process by the operator is not required, and the unnecessary data is transmitted because the data that cannot be received is transmitted. Data transfer is avoided.
また、 上記目的を達成するために、 本発明に係る番組表示装置は、 映 像ス トリームと前記映像ス トリームが示す映像に登場する対象に対応づ けられた付加情報とを含む番組データを取得して表示する番組表示装置 であって、 前記番組データを取得して表示する表示手段と、 操作者によ る所定の入力処理を受け付ける入力手段と、 前記入力処理が行われた時 刻を示す時刻情報を記録する記録手段と、 前記記録手段によリ記録され た時刻情報が示す時刻に対応する時間において前記表示手段によリ表示 された映像ス トリームが示す映像に登場する対象を特定する対象特定手 段と、 特定された対象に関する情報を前記表示手段によ リ取得された付 加情報の中から抽出する抽出手段と、 抽出された前記対象に関する情報 を指定された宛先に通信路を介して送信する送信手段とを備えることを 特徴とする。  Further, in order to achieve the above object, a program display device according to the present invention obtains program data including a video stream and additional information corresponding to an object appearing in a video indicated by the video stream. A program display device for acquiring and displaying the program data, input means for receiving a predetermined input process by an operator, and indicating a time at which the input process was performed. Recording means for recording time information; and a target appearing in a video indicated by the video stream re-displayed by the display means at a time corresponding to the time indicated by the time information re-recorded by the recording means. A target specifying means, extracting means for extracting information on the specified target from the additional information obtained by the display means, and the extracted information on the target are designated. Characterized in that it comprises a transmitting means for transmitting via a previously channel.
これによつて、 テレビ放送等のリアルタイムな放送だけでなく、 蓄積 型データ放送の視聴時や、 録画再生装置による録画済み放送の再生時に おいても、 「付箋の貼り付け」 が可能となる。 As a result, not only real-time broadcasting such as TV broadcasting, but also storage It is also possible to “paste a sticky note” when watching a digital data broadcast or when playing back a recorded broadcast by a recording and playback device.
以上のように、 本発明に係る番組受信装置等により、 テレビ放送等の 番組の視聴中に、 第 3者に伝えたい商品等の対象 (オブジェク ト) を発 見したときに、 リモコンのボタンを押したり発声したりする等の簡単な 操作によって、 特定のシーンだけでなく、 番組に登場したオブジェク 卜 に対して、 付箋を貼り付けるように、 リアルタイムにマーク付けをする ことができる。 したがって、 興味あるオブジェク トのことを、 番組の視 聴中にメモ書きしたり、 頭の片隅に記憶しておく等の煩わしいことから 解放され、 番組の視聴に集中して楽しむことができる。  As described above, when the program receiving device or the like according to the present invention finds a target (object) of a product or the like to be conveyed to a third party while watching a program such as a television broadcast, the remote control button is pressed. By simple operations such as pressing and speaking, not only specific scenes, but also objects appearing in the program can be marked in real time, such as attaching sticky notes. Therefore, it is free from troublesome things such as writing down notes of interesting objects while watching the program or memorizing it in one corner of the head, so that the user can concentrate on watching the program.
そして、 番組の視聴が終了した後等において、 送信先を指定するだけ で、 付箋を貼りつけたオブジェク トに関する商品情報、 販売情報、 関連 U R L等の詳細な情報を、 そのオブジェク 卜が登場した映像及び音響、 あるいは、 自分のメ ッセージとともに、 その第 3者に自動送信すること ができる。 したがって、 興味を持ったオブジェク 卜について、 インター ネッ ト等で詳細な情報を調べたり、 伝えたい第 3者に電話をかけたり、 電子メールを作成ししたりする等の手間が不要になるとともに、 そのォ ブジェク 卜に関する情報を確実に第 3者に伝達することができる。  After the viewing of the program has been completed, for example, by simply specifying the transmission destination, detailed information such as product information, sales information, and related URLs relating to the object on which the sticky note is pasted is displayed in the video where the object appeared. And it can be sent automatically to the third party along with the sound or your own message. This eliminates the need to look up detailed information on the object of interest on the Internet, call a third party to communicate, or create an e-mail. Information about the object can be reliably transmitted to a third party.
このように、 本発明により、 放送局と視聴者間、 視聴者と情報提供サ ィ ト、 視聴者間等における、 あいまいな記憶に基づく無駄な通信の発生 が回避されるとともに、 番組に関する視聴者間のコミュニケ一シヨ ンが 確実かつ円滑化され、 本発明の実用的価値は極めて高い。  As described above, according to the present invention, it is possible to avoid occurrence of useless communication based on ambiguous memory between a broadcast station and a viewer, between a viewer and an information providing site, between viewers, and the like. The communication between them is assured and smooth, and the practical value of the present invention is extremely high.
なお、 本発明は、 このような番組受信装置及び番組表示装置と して実 現することができるだけでなく、 これらの装置が備える特徴的な手段を ステツプとする番組受信方法及び番組データ表示方法と して実現したり、 そのような手段をコンピュータに機能させるプログラムとして実現する こともできる。 そして、 プログラムについては、 C D— R O M等の記録 媒体ゃィンターネッ ト等の伝送媒体を介して配信することができるのは 言うまでもない。 図面の簡単な説明 It should be noted that the present invention can be realized not only as such a program receiving device and a program displaying device, but also as a program receiving method and a program data displaying method in which characteristic means provided in these devices are used as steps. Or implement such means as a program that causes a computer to function. You can also. It goes without saying that the program can be distributed via a recording medium such as a CD-ROM and a transmission medium such as the Internet. BRIEF DESCRIPTION OF THE FIGURES
図 1 は、 本発明の実施の形態における放送システムの全体構成を示す 図である。  FIG. 1 is a diagram showing an overall configuration of a broadcast system according to an embodiment of the present invention.
図 2は、 同放送システムにおける放送受信装置用のリ モートコン ト口 ーラの外観図である。  FIG. 2 is an external view of a remote controller for a broadcast receiving device in the broadcasting system.
図 3は、 同記放送システムの特徴的な機能の概略を示すフローチヤ一 トである。  FIG. 3 is a flowchart showing an outline of the characteristic functions of the broadcasting system.
図 4は、 同放送システムの放送局から放送される番組付加情報付き番 組の放送データのデータ構造を示す図である。  FIG. 4 is a diagram showing a data structure of broadcast data of a program with program additional information broadcasted from a broadcasting station of the broadcasting system.
図 5は、 図 4に示された番組付加情報に含まれるコンテンツ情報の内 容を示すデータ構造図である。  FIG. 5 is a data structure diagram showing contents of content information included in the program additional information shown in FIG.
図 6は、 図 5に示された番組付加情報の具体例を示す図である。 図 7は、 実施の形態 1 における放送受信装置の詳細な構成を示す機能 ブロック図である。  FIG. 6 is a diagram showing a specific example of the program additional information shown in FIG. FIG. 7 is a functional block diagram showing a detailed configuration of the broadcast receiving device according to the first embodiment.
図 8は、 同放送受信装置の宛先データベースのデータ構造を示す図で ある。  FIG. 8 is a diagram showing a data structure of a destination database of the broadcast receiving device.
図 9は、 同放送受信装置の動作手順を示すフローチャートである。 図 1 0は、 視聴者と放送受信装置との対話の様子を示す図である。 図 1 1 は、 実施の形態 2における放送受信装置の詳細な構成を示す機 能ブロック図である。  FIG. 9 is a flowchart showing an operation procedure of the broadcast receiving device. FIG. 10 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device. FIG. 11 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus according to the second embodiment.
図 1 2は、 番組付加情報のうち、 番組に登場するオブジェク トの詳細 及び時間位置が記述されたコンテンツ情報の例 (前半部) を示す図であ る。 Fig. 12 is a diagram showing an example (first half) of content information in which details and time position of objects appearing in a program are described in the program additional information. You.
図 1 3は、 番組付加情報のうち、 番組に登場するオブジェク トの詳細 及び時間位置が記述されたコンテンツ情報の例 (後半部) を示す図であ る。  FIG. 13 is a diagram showing an example (second half) of content information in which details and time positions of objects appearing in a program are described in the program additional information.
図 1 4は、 番組付加情報のうち、 番組に登場するオブジェク トの空間 位置が記述されたコンテンツ情報の例を示す図である。  FIG. 14 is a diagram showing an example of content information in which a spatial position of an object appearing in a program is described in the program additional information.
図 1 5は、 放送受信装置の動作手順を示すフローチャー トである。 図 1 6は、 視聴者と放送受信装置との対話の様子を示す図である。 図 1 7は、 視聴者と放送受信装置との対話処理に関して、 図 1 5に示 されたフローチャー トをより詳細化した図である。  FIG. 15 is a flowchart showing the operation procedure of the broadcast receiving device. FIG. 16 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device. FIG. 17 is a more detailed diagram of the flowchart shown in FIG. 15 with respect to the interaction processing between the viewer and the broadcast receiving device.
図 1 8は、 番組の映像 ■ 音声ス トリームから送信情報が生成されるま での過程を示す図である。  Fig. 18 is a diagram showing the process until the transmission information is generated from the video and audio streams of the program.
図 1 9は、 実施の形態 3における放送受信装置の詳細な構成を示す機 能ブロック図である。  FIG. 19 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus according to the third embodiment.
図 2 0は、 放送受信装置の動作手順を示すフローチャー トである。 図 2 1 は、 視聴者と放送受信装置との対話の様子を示す図である。 図 2 2は、サービスをォブジェク トとする番組付加情報の例 (前半部) を示す図である。  FIG. 20 is a flowchart showing the operation procedure of the broadcast receiving device. FIG. 21 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device. FIG. 22 is a diagram illustrating an example (first half) of program additional information in which a service is an object.
図 2 3は、サービスをォブジェク トとする番組付加情報の例 (後半部) を示す図である。  FIG. 23 is a diagram illustrating an example (second half) of the program additional information in which the service is an object.
図 2 4は、 著作物 ( B G M ) をオブジェク トとする番組付加情報の例 (前半部) を示す図である。  FIG. 24 is a diagram illustrating an example (first half) of the program additional information in which a work (BGM) is an object.
図 2 5は、 著作物 (B G M ) をオブジェク トとする番組付加情報の例 (後半部) を示す図である。  FIG. 25 is a diagram showing an example (second half) of program additional information in which a work (BGM) is an object.
図 2 6は、 実施の形態 4における放送受信装置の詳細な構成を示す機 能ブロック図である。 図 2 7は、 放送受信装置の動作手順を示すフローチャー トである。 図 2 8は、 視聴者と放送受信装置との対話の様子を示す図である。 図 2 9は、 実施の形態 5における放送受信装置の詳細な構成を示す機 能ブロック図である。 FIG. 26 is a functional block diagram illustrating a detailed configuration of the broadcast receiving apparatus according to the fourth embodiment. FIG. 27 is a flowchart showing the operation procedure of the broadcast receiving device. FIG. 28 is a diagram illustrating a state of a dialogue between the viewer and the broadcast receiving device. FIG. 29 is a functional block diagram showing a detailed configuration of the broadcast receiving device according to the fifth embodiment.
図 3 0は、 放送受信装置の動作手順を示すフローチャートである。 図 3 1 は、 視聴者と放送受信装置との対話の様子を示す図である。 図 3 2は、 実施の形態 6における放送受信装置の詳細な構成を示す機 能ブロック図である。  FIG. 30 is a flowchart showing an operation procedure of the broadcast receiving device. FIG. 31 is a diagram illustrating a state of a dialogue between the viewer and the broadcast receiving device. FIG. 32 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus according to the sixth embodiment.
図 3 3は、 同放送受信装置の時間 ■ 認識結果テーブル記憶部のデータ 構造を示す図である。  FIG. 33 is a diagram showing the data structure of the time ■ recognition result table storage unit of the broadcast receiving apparatus.
図 3 4は、 放送受信装置の動作手順を示すフローチャー トである。 図 3 5は、 視聴者と放送受信装置との対話の様子を示す図である。 図 3 6は、 視聴者と放送受信装置との対話処理に関して、 図 3 4に示 されたフローチャー トをより詳細化した図である。  FIG. 34 is a flowchart showing the operation procedure of the broadcast receiving device. FIG. 35 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device. FIG. 36 is a more detailed diagram of the flowchart shown in FIG. 34 regarding the interaction processing between the viewer and the broadcast receiving device.
図 3 7は、 オブジェク 卜が特定される原理を示す図である。  FIG. 37 is a diagram illustrating the principle of specifying an object.
図 3 8は、 実施の形態 1 〜 6の放送受信装置が備える機能を併せ持つ 1 つの放送受信装置の構成を示す機能ブロック図である。  FIG. 38 is a functional block diagram showing a configuration of one broadcast receiving apparatus having the functions of the broadcast receiving apparatuses of Embodiments 1 to 6.
図 3 9は、 同放送受信装置の動作モー ドを説明する図である。  FIG. 39 is a diagram illustrating an operation mode of the broadcast receiving device.
図 4 0は、 音楽情報等をオブジェク トとする番組付加情報の例 (前半 部) を示す図である。  FIG. 40 is a diagram illustrating an example (first half) of program additional information in which music information or the like is an object.
図 4 1 は、 音楽情報等をオブジェク トとする番組付加情報の例 (後半 部) を示す図である。 発明を実施するための最良の形態  FIG. 41 is a diagram illustrating an example (second half) of program additional information in which music information or the like is an object. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 本発明の実施の形態について図面を用いて詳細に説明する。 (実施の形態 1 ) 図 1 は、 本発明の実施の形態 1 における放送システム 1 0の全体構成 を示す図である。 この放送システム 1 0は、 視聴者が番組の視聴中に興 味ある対象 (オブジェク ト) を発見した時にリモコンのボタンを押す等 の簡単なマーク付け処理 (以下、 このような処理を 「付箋を貼る」 とい う。) をしておく ことで、そのオブジェク トに関する情報等を友人等に自 動送信することが可能なテレビ放送システムであり、 放送局 2 0と、 各 家庭内 3 0 a 〜 3 0 cに設置された本発明に係る番組受信装置と しての 放送受信装置 ( T VZS T B) 3 1 a及び 3 1 b、 リモー トコ ン トロー ラ 3 2、 F A X 3 3と、 携帯端末 4 0 a及び 4 0 bと、 据え置き型電話 5 0等から構成される。 こ こで、 放送局 2 0と放送受信装置 3 1 a及び 3 1 bとは、 C A T V網等によって接続され、双方向通信が可能であり、 放送受信装置 3 1 a及び 3 1 b、 F A X 3 3、 携帯端末 4 0 a及び 4 0 b、 据え置き型電話 5 0は、 電話網等の通信ネッ トワークに接続されて いる。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. (Embodiment 1) FIG. 1 is a diagram illustrating an overall configuration of a broadcast system 10 according to Embodiment 1 of the present invention. The broadcast system 10 uses a simple mark-up process, such as pressing a button on a remote control when a viewer finds an interesting object while watching a program (hereinafter, such a process is referred to as “tagging a tag”). This is a TV broadcasting system that can automatically transmit information about the object to friends, etc. by pre-processing. Broadcast receiver (TVZS TB) 31 a and 31 b as a program receiver according to the present invention installed at 30 c, remote controller 32, fax 33, and mobile terminal 4 0a and 40b, and a stationary telephone 50 etc. Here, the broadcast station 20 and the broadcast receiving devices 31a and 31b are connected by a CATV network or the like, and two-way communication is possible, and the broadcast receiving devices 31a and 31b and the fax 3 3. The mobile terminals 40a and 40b and the stationary telephone 50 are connected to a communication network such as a telephone network.
放送局 2 0は、 番組付加情報付きの番組を作成し放送する放送局であ る。 ここで、 番組付加情報 2 2は、 映像及び音響 2 1 と共に多重化され て送信される付加的なデータであり、 本実施の形態では、 映像に登場す る商品に関する詳細な情報やその映像を特定する情報等を M P E G (Moving Picture Expert Group) ― 7に準拠して記述された商品情報 等が含まれる。  The broadcast station 20 is a broadcast station that creates and broadcasts a program with program additional information. Here, the program additional information 22 is additional data that is multiplexed and transmitted together with the video and audio 21, and in the present embodiment, detailed information on the product appearing in the video and the video are Includes product information, etc., in which the information to be specified is described in accordance with MPEG (Moving Picture Expert Group) -7.
放送受信装置 3 1 a及び 3 1 bは、 テレビ受像機又はそれに付随して 使用される S T B (Set Top Box) と しての双方向放送受信機であり、 視 聴者の指示に従って、 番組に登場したオブジェク 卜に対して付箋を貼り 付けるとともに、 貼り付けたオブジェク 卜に関する情報を指定した宛先 に送信することが可能な装置である。  The broadcast receivers 31a and 31b are two-way broadcast receivers as TV receivers or STBs (Set Top Boxes) used in conjunction with them, and appear in programs according to the instructions of the viewer. This is a device that can paste a sticky note on an attached object and send information about the attached object to a specified destination.
リモー トコ ン トローラ 3 2は、 放送受信装置 3 1 aを遠隔で操作する ためのリモコンであり、 付箋を貼るためのユーザインターフェースと し ての機能も備える。 つまり、 このリモートコン トローラ 3 2は、 図 2に 示されるように、 一般的な操作ポタン 3 2 bの他に、 番組の視聴中に興 味ある商品等を見つけたときにその映像に対して付箋を貼るための付箋 ポタン 3 2 a、 放送受信装置 3 1 aから送信されてく る番組やユーザィ ンターフェース用の画像を表示する表示画面 3 2 c、 放送受信装置 3 1 aに対して音声による指示を与えるためのマイクロホン 3 2 d等を備え る。 The remote controller 32 remotely controls the broadcast receiving device 31a. Remote control, and also has a function as a user interface for attaching sticky notes. In other words, as shown in FIG. 2, this remote controller 32, in addition to the general operation button 32b, also displays an interesting product or the like while watching a program. Sticky note button for attaching a sticky note 3 2 a, display screen 3 2 c for displaying programs and user interface images transmitted from the broadcast receiving device 3 1 a, and audio for the broadcast receiving device 3 1 a A microphone 32d for giving instructions is provided.
F A X 3 3は、 画像等を受信するファクシミ リ受信機である。 携帯端 末 4 0 a及び 4 O bは、 インタ一ネッ トによるデータ通信が可能な携帯 電話機や P D A ( Personal Digital Assistant) 等である。 据え置き型電 話 5 0は、 データ通信の機能をもたない、 音声による通話だけが可能な 電話機である。  FAX 33 is a facsimile receiver that receives images and the like. The mobile terminals 40a and 4Ob are a mobile phone, a PDA (Personal Digital Assistant), and the like, which can perform data communication via the Internet. The stationary telephone 50 is a telephone that does not have a data communication function and can only make voice calls.
図 3は、 以上のように構成された放送システム 1 0の特徴的な機能の 概略を示すフローチャー トである。 視聴者は、 番組の視聴中に、 気に入 つた商品を見つけたときに、 リモートコン トロ一ラ 3 2の付箋ボタン 3 2 aを押す ( S 1 )。 この操作に対して、 放送受信装置 3 1 aは、 付箋ボ タン 3 2 aが押されたときの時刻を記憶しておき、 その番組が終了ある いは中断したときに、 それまでに記憶していた時刻に対応する映像やそ の映像に登場した商品に関する情報 (商品データ) 等を特定し、 視聴者 に提示することで、 オブジェク トを絞り込んだり、 送信確認を求めたり する (S 1 2 )。 これに対して、 視聴者が、 内容を確認し、 オブジェク ト を絞り込んだり、 自らのメッセージ等を入力した後に送信先を指定する と、 放送受信装置 3 1 aは、 その商品データ、 送信メ ッセージ、 その商 品が登場する映像及び音声等を、 指定された送信先に、 ネッ トワークを 介して送信する ( S 1 3 )。 このとき、 放送受信装置 3 1 aは、 送信先装置の機器属性に応じて、 映像とテキス トだけ、 音響だけというように、 送信する情報の種類を限 定する。 たとえば、 映像 ■ 音響 ' テキス ト等のマルチメディアデータを 受信することが可能な放送受信装置 3 1 bに対しては、 映像、 音響、 商 品情報、 U R L ( ( Uniform Resource Locator) 及ぴ送信者メ ッセージ を送信し、 音声を除く映像 ' テキス トデータの受信が可能な F A X 3 3 に対しては、 映像、 商品情報、 U R L及びテキス トタイプの送信者メ ッ セージを送信し、 マルチメディアデータの受信が可能な携帯端末 4 0 a に対しては、 映像、 音響、 商品情報及び音声タイプの送信者メ ッセージ を送信し、 音声を除く映像 - テキス トデータの受信が可能な携帯端末 4 O bに対しては、 映像、 U R L及びテキス トタイプの送信者メ ッセージ を送信し、 音声のみの受信が可能な据え置き型電話 5 0に対しては、 商 品情報及び送信者メ ッセージを音声と して送信する。 FIG. 3 is a flowchart showing an outline of characteristic functions of the broadcasting system 10 configured as described above. The viewer presses the sticky button 3 2 a of the remote controller 32 when he or she finds a favorite product while watching the program (S 1). In response to this operation, the broadcast receiving device 31a stores the time when the sticky button 32a is pressed, and when the program ends or is interrupted, it stores it. Specify the video corresponding to the time and the information (product data) related to the product that appeared in the video and present it to the viewer to narrow down the objects and request transmission confirmation (S12) ). On the other hand, if the viewer confirms the content, narrows down the objects, or specifies the destination after inputting his own message, etc., the broadcast receiving device 31a transmits the product data and the transmission message. Then, the video and audio in which the product appears are transmitted to the specified destination via the network (S13). At this time, the broadcast receiving device 31a limits the type of information to be transmitted, such as only video and text or only sound, according to the device attributes of the destination device. For example, for a broadcast receiver 31b that can receive multimedia data such as video and audio text, video, audio, product information, URL (Uniform Resource Locator) and sender For fax 33, which can send messages and receive video data excluding audio and text data, send video, product information, URL, and text-type sender messages to receive multimedia data. For mobile terminals 40a capable of transmitting video, audio, product information and voice type sender messages, and for mobile terminals 4Ob capable of receiving video-text data excluding audio For example, video, URL, and text-type sender messages are sent, and for stationary phones 50 that can receive only audio, product information and sender messages are sent as audio. To.
また、 放送受信装置 3 1 aは、 このような送信に関する履歴を蓄積し ておき、 一定期間が経過した時などに、 放送局 2 0に対して、 その送信 履歴を送信する。 これによつて、 放送局 2 0は、 番組に対して付箋が貼 られた頻度等を集計することで、 広告効果の集計を行うことができる。 このように、 本実施の形態における放送システム 1 0によれば、 視聴 者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を 見つけたときに、 メモをとつたり、 頭の片隅に記憶しておいたりするこ となく、 リモートコン トローラ 3 2の付箋ボタン 3 2 aを押すだけで、 本の特定ページに付箋を貼り付けておく ように、 あるいは、 本に 「しお リ J を挟んでおく ように、 番組における特定の映像やシーン等に対して マーク付けしておく ことができる。 そして、 その番組の終了後あるいは 中断後に、 視聴者は、 放送受信装置 3 1 aに対して簡単な指示をするだ けで、 それまでにマーク しておいた映像、 その映像に伴う音響、 その映 像に登場した商品に関する情報、 その映像に関連した W e bサイ トを示 す U Rし、 相手に伝えたいメッセージ等を送信データと して、 指定した 送信先に送信することができる。 Also, the broadcast receiving device 31a accumulates such a transmission history, and transmits the transmission history to the broadcast station 20 when a certain period of time has elapsed. Thus, the broadcast station 20 can totalize the advertising effect by totalizing the frequency of sticky notes attached to the programs. As described above, according to the broadcasting system 10 in the present embodiment, when a viewer finds an article to introduce to a third party or a favorite product while watching a program, he or she can take notes. Instead of having to memorize it in one corner of the head, simply press the sticky button 3 2a on the remote controller 32 to attach the sticky note to a specific page of the book, or It is possible to mark specific images, scenes, etc. in the program, such as sandwiching Shiori J. After the program ends or is interrupted, the viewer can use the broadcast receiver 3 1 Just give a simple instruction to a, and the video that has been marked so far, the sound accompanying the video, A UR indicating the information about the product that appeared in the image and the website related to the video can be sent to the specified destination as transmission data, such as a message to be transmitted to the other party.
以下、 放送局 2 0から送られてく る放送データの詳細な構造、 放送受 信装置 3 1 aの詳細な処理等について説明する。  Hereinafter, a detailed structure of the broadcast data transmitted from the broadcast station 20 and a detailed process of the broadcast receiving device 31a will be described.
図 4は、 放送局 2 0から放送される番組付加情報付き番組の放送デー タのデータ構造を示す図である。 放送データは、 大きく分けて、 画像 - 音声のデータス トリーム 2 1 と番組付加情報 2 2とから構成される。 画 像 ■ 音声のデータス トリ一ム 2 1 は、 番組やコマーシャルを構成する主 情報であり、 場面に相当するシーン 2 1 bの集まりからなり、 個々のシ —ン 2 1 bは、 撮影カメラの動きごとに切れるショ ッ ト 2 1 aの集まり からなり、 個々のショ ッ ト 2 1 aは、 フ レーム画像の集まりからなる。 番組付加情報 2 2は、 画像■ 音声ス トリ一ム 2 1 と多重化されるデー タス トリームであり、 本実施の形態では、 番組に登場する商品に関する 情報である商品情報を集めたコンテンツ情報が含まれる。 コンテンツ情 報に含まれる個々の商品情報 1 〜 mは、 放送受信装置 3 1 aからネッ ト ワークを介して他の装置に送信される情報の一つであり、 その商品が登 場するシーンやショ ッ トと関連付けられている。 これは、 視聴者が付箋 を貼り付けたシーンゃショ ッ 卜から、 そのシーンゃショ ッ トに登場した 商品の特定を可能にするためである。  FIG. 4 is a diagram showing a data structure of broadcast data of a program with program additional information broadcasted from the broadcast station 20. Broadcast data is broadly composed of an image-audio data stream 21 and program additional information 22. Image ■ The audio data stream 21 is the main information that constitutes a program or commercial, and is composed of a set of scenes 21b corresponding to scenes. Each scene 21b is a camera camera. Each shot 21a is composed of a group of frame images that are cut off for each motion. The program additional information 22 is a data stream that is multiplexed with the image / audio stream 21. In the present embodiment, the content information that collects product information, which is information on products appearing in a program, is included. The individual product information 1 to m included in the content information is one of the information transmitted from the broadcast receiving device 31a to other devices via the network, and includes scenes in which the product appears and Associated with the shot. This is to enable the viewer to specify the product that appeared in the scene shot from the scene shot where the viewer pasted the sticky note.
図 5は、 放送局 2 0から送信されてく る番組付加情報 2 2に含まれる コンテンッ情報の内容を示すデータ構造図である。コンテンッ情報には、 番組に登場する個々の物品 (商品) をオブジェク ト 1 〜 n と して区分し た場合における、 それらオブジェク トごとの詳細な情報が含まれる。 ォ ブジヱク トごとの詳細な情報と しては、 その商品の名前や製造会社等を 示す商品説明、 販売価格や販売店等を示す販売情報、 その商品に関連し た W e bサイ トのア ドレス (つまり、 その商品の情報源ア ドレス) を示 す関連 U R L、 その商品が登場する番組における時間位置であるスター ト時間位置、及び、表示されている時間を示す継続時間長等が含まれる。 また、 番組付加情報 2 2には、 上記のように特定された個々のォブジ ェク ト 1 〜 nのフレーム画像における空間位置を特定する画像情報 (図 5における右下) も含まれる。 この画像情報は、 番組における同一の時 間位置に表示される複数の商品それぞれを区別するために用いられる。 なお、 オブジェク トの空間位置を指定する情報として、 フレーム画像に おける座標、 形状、 移動軌跡等が用いられる。 FIG. 5 is a data structure diagram showing the content of the content information included in the program additional information 22 transmitted from the broadcast station 20. The content information includes detailed information on each object (commodity) appearing in a program when the objects (products) are classified as objects 1 to n. Detailed information for each object includes product description indicating the name and manufacturer of the product, sales information indicating the selling price and the store, and information related to the product. URL indicating the address of the website (that is, the source address of the product), the start time position, which is the time position in the program in which the product appears, and the time displayed. It includes the duration time. The program additional information 22 also includes image information (lower right in FIG. 5) for specifying the spatial position in the frame images of the individual objects 1 to n specified as described above. This image information is used to distinguish a plurality of products displayed at the same time position in a program. Note that the coordinates, shape, movement trajectory, and the like in the frame image are used as information for specifying the spatial position of the object.
図 6は、 図 5に示された番組付加情報 2 2の具体例を示す図である。 ここでは、 M P E G 7に準拠した各種タグによって、 前半部 2 2 1 に示 されるように、 番組に登場する複数のオブジェク トを宣言したり、 後半 部 2 2 2に示されるように、 個々のオブジェク 卜の商品説明や時間位置 を記述した例が示されている。 具体的には、 前半部 2 2 1 には、 番組に 登場する A俳優の衣服として、 4つのオブジェク ト 「上着 B」、 「ズボン C」、 「靴 D」 及び 「帽子 E」 が宣言され、 後半部 2 2 2では、 「上着 B」 については、その商品説明が Γ Fブラン ドの冬用のジャケッ ト Jであり、 スター ト時間位置 1 力 Γ T 0 0 : 0 2 : 4 5 : 0 F 0 0」 であり、 継続 時間長 1 が Γ P 3 4 2 D」 であり、 スター ト時間位置 2が 「 T 0 0 : 3 4 : 2 3 : 0 F 2 0 J であり、 継続時間長 2が Γ P 1 8 2 5 D J である 旨が記述されている。  FIG. 6 is a diagram showing a specific example of the program additional information 22 shown in FIG. Here, various tags conforming to MPEG 7 are used to declare a plurality of objects appearing in the program as shown in the first part 221 or individual objects as shown in the second part 222. It shows an example that describes the product description and time position of the object. Specifically, in the first half, 221, four objects were declared as clothes for actor A appearing in the program: outerwear B, pants C, shoes D, and hat E. In the latter part, the description of “Outerwear B” is Γ F brand winter jacket J, start time position 1 force Γ T 00: 0 2: 45 : 0 F 0 0 ”, duration 1 is ΓP 3 4 2 D”, start time position 2 is “T 0 0: 3 4: 2 3: 0 F 2 0 J, and continue It is described that the time length 2 is Γ P 1825 DJ.
図 7は、 図 1 に示された放送受信装置 3 1 aの一実施例である放送受 信装置 1 0 0の詳細な構成を示す機能ブロック図である。 この放送受信 装置 1 0 0は、 受信した映像に対する視聴者による付箋の貼付及びその 付箋に該当する各種情報の外部への送信が可能なテレビ放送受信機であ リ、 放送受信部 1 0 1 、 制御部 1 0 2、 時間選択入力部 1 0 3、 画像表 示部 1 0 4、 音響出力部 1 0 5、 情報選択部 1 0 6、 送信情報記憶部 1 0 7、 送信部 1 0 8、 宛先データベース 1 0 9及び宛先入力部 1 1 0か ら構成される。 FIG. 7 is a functional block diagram showing a detailed configuration of the broadcast receiving apparatus 100, which is an example of the broadcast receiving apparatus 31a shown in FIG. The broadcast receiving apparatus 100 is a television broadcast receiver capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to the outside, a broadcast receiving unit 101, Control section 102, time selection input section 103, image table Display section 104, sound output section 105, information selection section 106, transmission information storage section 107, transmission section 108, destination database 109, and destination input section 110. You.
放送受信部 1 0 1 は、 放送局 2 0から放送されてきた放送データを受 信する受信回路や T S ( Transport Stream) デコーダ等であり、 受信し た放送データを映像 · 音響ス トリ一ムからなる番組内容と番組付加情報 とに多重分離して制御部 1 0 2に送る。  The broadcast receiving unit 101 is a receiving circuit for receiving broadcast data broadcast from the broadcast station 20 or a TS (Transport Stream) decoder, etc., and transmits received broadcast data from a video / audio stream. It is demultiplexed into the following program contents and additional program information and sent to the control unit 102.
画像表示部 1 0 4は、 番組内容や、 放送受信装置 1 0 0と視聴者が対 話するための操作画面等を表示するディスプレイ、 あるいは、 リモート コン トローラ 3 2に備えられた表示画面 3 2 c等である。 音響出力部 1 0 5は、 番組内容を構成する音声や音響を出力するス ピーカ等である。 時間選択入力部 1 0 3は、 リモー トコン トローラ 3 2に備えられた付 箋ボタン 3 2 a等であり、 視聴者が付箋を貼リ付けたい旨の指示をこの 放送受信装置 1 0 0に発するための入力手段、 つまり、 視聴者が番組視 聴中に時間位置等を選択するための入力手段である。  The image display section 104 is a display for displaying program contents, an operation screen for the viewer to talk with the broadcast receiving apparatus 100, and the like, or a display screen 3 2 provided in the remote controller 32. and c. The sound output unit 105 is a speaker or the like that outputs sound or sound that constitutes the contents of the program. The time selection input section 103 is a sticky button 32 a or the like provided on the remote controller 32, and issues an instruction to the broadcast receiving apparatus 100 that the viewer wants to attach a sticky note. Input means for the viewer, that is, an input means for the viewer to select a time position or the like while watching the program.
制御部 1 0 2は、 放送受信部 1 0 1 が受信した番組内容 (映像 ■ 音響 ス ト リーム) を一時的に蓄積したり、 時間選択入力部 1 0 3から時間位 置の指示が発せられたときに、 そのときに視聴されていた番組から、 そ の時間位置を含む画像ショ ッ ト又はシーン及び音声又は音響単位を抽出 したり、 視聴者と対話するために各構成要素を制御したりする C P Uや 記憶装置等である。  The control unit 102 temporarily stores the program contents (video / sound stream) received by the broadcast receiving unit 101, and a time position instruction is issued from the time selection input unit 103. At that time, from the program being watched at that time, image shots or scenes including that time position and audio or sound units are extracted, and each component is controlled to interact with the viewer. CPU, storage device, etc.
情報選択部 1 0 6は、 制御部 1 0 2によって抽出された画像ショ ッ ト 又はシーン及び音声又は音響単位に対応する番組付加情報 (本実施の形 態では、 抽出された画像ショッ ト等に登場、 かつ、 番組付加情報に記述 された全てのォブジ Iク ト) を、 制御部 1 0 2に蓄積されている番組付 加情報の中から選択し、 選択した番組付加情報を、 制御部 1 0 2によつ て抽出された画像ショ ッ ト又はシーン及び音声又は音響単位と共に、 送 信情報記憶部 1 0 7に格納する。 送信情報記憶部 1 0 7は、 情報選択部 1 0 6から送られてく る送信情報を一時的に格納するメモリ等である。 宛先データベース 1 0 9は、 図 8に示されるように、 送信情報の送り 先となる宛先の情報を記憶するメモリカード等である。 図 8には、 宛先 の 「名前」、 Γァ ドレス Z番号」、 「属性」 等の項目からなる宛先データべ —ス 1 0 9の例が示されている。 項目 「属性」 において、 「種別」 は、 送 信先機器の種別 ( P C Z T e I F a Xなど)、 「映像」、「音響」 及び Γテ キス ト」 は、 送信可能なデータの種別を特定する欄である。 The information selection unit 106 includes the image shots extracted by the control unit 102 or the program additional information corresponding to the scene and sound or sound unit (in the present embodiment, the extracted image shots and the like). Appearance and all objects described in the program additional information) are selected from the program additional information stored in the control unit 102, and the selected program additional information is selected by the control unit 1. 0 according to 2 It is stored in the transmission information storage unit 107 together with the image shot or scene and the audio or sound unit extracted by the above. The transmission information storage unit 107 is a memory or the like that temporarily stores the transmission information sent from the information selection unit 106. The destination database 109 is, as shown in FIG. 8, a memory card or the like that stores information of a destination that is a destination of transmission information. FIG. 8 shows an example of a destination database 109 including items such as “name”, address Z number, and “attribute” of the destination. In the item “Attribute”, “Type” specifies the type of the destination device (such as PCZT eIFaX), and “Video”, “Sound”, and “Text” specify the type of data that can be transmitted. Column.
宛先入力部 1 1 0は、リモートコン トローラ 3 2等であり、視聴者が、 送信情報の宛先を宛先データベース 1 0 9の中から選択したリ、 送信情 報の宛先をボタン又は音声で直接入力したりするための入力手段である。 送信部 1 0 8は、 制御部 1 0 2からの指示に従って、 送信情報記憶部 1 0 7に格納されている送信情報を読み出し、 宛先データベース 1 0 9か ら視聴者によって選択された宛先あるいは宛先入力部 1 1 0によって直 接入力された宛先に向けて、 ネッ トワークを介して送信するモデム等の 通信イ ンターフェースである。  The destination input unit 110 is a remote controller 32, etc., which allows the viewer to select the destination of the transmission information from the destination database 109 and directly input the destination of the transmission information by button or voice. Or input means for doing so. The transmission unit 108 reads out the transmission information stored in the transmission information storage unit 107 according to the instruction from the control unit 102, and selects the destination or destination selected by the viewer from the destination database 109. It is a communication interface such as a modem for transmitting via a network to a destination directly input by the input unit 110.
次に、 以上のように構成された放送受信装置 1 0 0の動作について説 明する。  Next, the operation of the broadcast receiving apparatus 100 configured as described above will be described.
図 9は、放送受信装置 1 0 0の動作手順を示すフローチャートである。 図 1 0は、視聴者と放送受信装置 1 0 0との対話の様子を示す図である。 いま、 視聴者が、 図 1 0 ( a ) に示されるように、 番組視聴中に時間 選択入力部 1 0 3を用いて時間位置を選択したとする ( S 1 0 0 )。たと えば、 A俳優が出演する場面を見ていた視聴者が A俳優の着ている上着 が気に入つたので、 ぜひ、 友人に伝えたいと思い、 リモートコン ト口一 ラ 3 2の付箋ボタン 3 2 aを押したとする。 それに対して、 時間選択入力部 1 0 3から時間位置を選択する信号を 受信した制御部 1 0 2は、 その時刻を時間情報 (タイムスタンプ) と し て記録し、 そのときに視聴されていた番組から、 その時間位置を含む画 像ショ ッ ト又はシーン及び音声又は音響単位を抽出する ( S 'l 0 1 )。そ して、 それら時間情報、 抽出した画像ショッ ト又はシーン及び音声又は 音響単位を情報選択部 1 0 6に送る。 FIG. 9 is a flowchart showing the operation procedure of broadcast receiving apparatus 100. FIG. 10 is a diagram showing a dialogue between the viewer and the broadcast receiving apparatus 100. Now, suppose that the viewer has selected a time position using the time selection input section 103 while viewing the program as shown in FIG. 10 (a) (S100). For example, a viewer who was watching the scene where A actor appeared appeared to like the outerwear worn by A actor, so he would like to tell his friend by all means. 2 Suppose you press a. On the other hand, the control unit 102, which has received the signal for selecting the time position from the time selection input unit 103, records the time as time information (time stamp), and was watching at that time. From the program, an image shot or scene including the time position and a voice or sound unit are extracted (S'lO1). Then, the time information, the extracted image shot or scene, and the sound or sound unit are sent to the information selection unit 106.
情報選択部 1 0 6は、 制御部 1 0 2から送られてきた画像ショ ッ ト又 はシーン及び音声又は音響単位と関連する番組付加情報を、 制御部 1 0 2に蓄積されている放送データの中から選択し (S 1 0 2 )、選択した番 組付加情報を、 それら画像ショ ッ ト又はシーン及び音声又は音響単位と 共に、 送信情報記憶部 1 0 7に格納する (S 1 0 3 )。  The information selection unit 106 transmits the program shot information related to the image shot or scene and the sound or sound unit sent from the control unit 102 to the broadcast data stored in the control unit 102. (S102), and the selected program additional information is stored in the transmission information storage unit 107 together with the image shot or scene and audio or sound unit (S103). ).
たとえば、 情報選択部 1 0 6は、 番組付加情報の中から、 制御部 1 0 2によって抽出されたシーンをスター ト時間位置及び継続時間長で指し ている全てのオブジェク トを特定するとともに、 そのオブジェク トの商 品説明、 販売情報及び関連 U R L等を抽出し、 商品情報として、 そのシ —ン及び音響単位と共に送信情報記憶部 1 0 7に格納する。 あるいは、 情報選択部 1 0 6は、 番組付加情報に記述されたォブジェク トごとのス タ一ト時間位置及び継続時間長を参照することで、 制御部 1 0 2から通 知された時間情報が示す時刻から一定時間だけ過去に遡った時間区間 Iこ 登場する全てのオブジェク トを特定し、それらオブジェク 卜の商品説明、 販売情報及び関連 U R L等を番組付加情報の中から抽出し、 商品情報と して、そのシーン及び音響単位と共に送信情報記憶部 1 0 7に格納する。 そして、 制御部 1 0 2は、 番組の視聴が終了又は中断した後に、 図 1 0 ( b ) に示される画面表示例のように、 送信情報記憶部 1 0 7に格納 されている送信情報を読み出して画像表示部 1 0 4に表示させることで、 抽出された画像ショ ッ ト又はシーン及び音声又は音響単位と選択された 番組付加情報 (つまり、 商品情報) を視聴者に提示する (S 1 0 4 )。 こ のとき、 複数の付箋についての情報が送信情報記憶部 1 0 7に格納され ている場合には、 制御部 1 0 2は、 それら複数の付箋ごとに、 視聴者に 確認映像と商品情報を提示し、 送信するか否かの指示を求める。 For example, the information selection unit 106 specifies all objects pointing to the scene extracted by the control unit 102 by the start time position and the duration from the program additional information, and The product description, sales information, related URL, etc. of the object are extracted and stored in the transmission information storage unit 107 together with the scene and sound unit as product information. Alternatively, the information selecting unit 106 refers to the start time position and the duration of each object described in the program additional information, so that the time information notified from the control unit 102 can be obtained. A time section that goes back a certain time in the past from the time shown I Identifies all objects that appear, extracts the product description, sales information, related URLs, etc. of those objects from the program additional information, and Then, it is stored in the transmission information storage unit 107 together with the scene and the sound unit. Then, after the viewing of the program ends or is interrupted, the control unit 102 reads the transmission information stored in the transmission information storage unit 107 as in the screen display example shown in FIG. 10B. By reading it out and displaying it on the image display unit 104, it is possible to select the extracted image shot or scene and voice or sound unit. The program additional information (that is, product information) is presented to the viewer (S104). At this time, if information on a plurality of sticky notes is stored in the transmission information storage unit 107, the control unit 102 sends a confirmation video and product information to the viewer for each of the plurality of sticky notes. Present and ask for instructions to send or not.
この提示に対して、 視聴者が、 自分が付箋を貼った映像や商品情報等 を確認し、 送信する旨の指示をすると、 送信部 1 0 8は、 図 1 0 ( c ) に示される画面表示例のように、 宛先データベース 1 0 9に登録されて いる宛先を読み出し、 送信先リス トと して、 画像表示部 1 0 4に一覧表 示するとともに、 視聴者から、 宛先入力部 1 1 0による送信先の選択又 は入力を受け付ける ( S 1 0 5 )。 なお、 視聴者は、 送信情報を確認した リ、 宛先を指定したりするときに、 宛先入力部 1 1 0等を用いて、 送信 情報に添付して送信したいメ ッセージ (送信者メッセージ) を任意に入 力することができる。  In response to this presentation, when the viewer confirms the video or product information on which the user has attached a sticky note and gives an instruction to transmit, the transmitting unit 108 displays the screen shown in FIG. 10 (c). As shown in the display example, the destinations registered in the destination database 109 are read out, displayed as a list of destinations on the image display section 104, and the destination input section 111 is input from the viewer. Selection of a destination or input by 0 is accepted (S105). When confirming the transmission information and specifying the destination, the viewer can use the destination input section 110 or the like to attach a message (sender message) to be attached to the transmission information and send it. Can be entered at
このようにして宛先が決定されると、 送信部 1 0 8は、 送信情報記憶 部 1 0 7に格納されている送信情報を読み出し、 入力された送信者メッ セージとともに、 決定された宛先に向けて、 ネッ トワークを介して送信 する (S 1 0 6 )。 このとき、 送信部 1 0 8は、 宛先データべ一ス 1 0 9 の 「機器属性」 等を参照することによって、 送信可能な情報だけを選択 して送信したり、 送信情報を送信可能なデータ種別に変換した後に送信 したりする。 たとえば、 宛先が、 図 8の宛先データベース 1 0 9におけ る 「山本さん J である場合には、 送信部 1 0 8は、 送信情報の中から音 響を除く情報 (映像、 商品情報、 送信者メ ッセージ) をデータ と して送 信し、 Γ斉藤さん J である場合には、 送信部 1 0 8は、 送信情報のうち、 商品情報と送信者メッセージを音声に変換した後に電話で送信する。 以上のように、 本実施の形態によれば、 視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を見つけたときにリモート コン トローラ 3 2の付箋ポタン 3 2 aを押すだけで、 番組の終了あるい は中断後に、 所望の送信先に、 その商品に関する情報を関連する映像シ —ン等とともに自動的に送信することができる。 したがって、 番組の視 聴中にメモをとつたり、 頭の片隅に記憶して'おく等の番組の視聴を妨げ る煩わしい作業から解放される。 そして、 付箋を貼った情報は、 ネッ ト ワークを介した通信によって相手側に伝達されるので、 電話等による口 頭の伝達に比べ、 より、 確実に、 伝えたい内容が相手側に伝達される。 また、 このような付箋情報を受け取った相手側は、 単に商品を識別す る情報だけでなく、 その商品の価格や販売店等の詳細な情報や、 その商 品が登場した映像シーンについても一緒に受け取ることができるので、 その商品に興味を持った場合には、 送り主に対してその商品についての 様々な情報を問い合わせたり、 インタ一ネッ ト等を用いて商品に関する 各種情報を入手したりする等の煩わしい作業をすることなく、 購入等の 判断をすることができる。 When the destination is determined in this way, the transmission unit 108 reads out the transmission information stored in the transmission information storage unit 107, and sends it to the determined destination together with the input sender message. And transmits it via the network (S106). At this time, the transmission unit 108 selects and transmits only transmittable information by referring to the “device attributes” of the destination database 109, and transmits data that can transmit transmission information. It is transmitted after being converted to the type. For example, if the destination is “Yamamoto-san J” in the destination database 109 in FIG. 8, the transmission unit 108 will output information (video, product information, transmission (Sender message) as data, and in the case of Mr. Saito J, the sending unit 108 converts the product information and sender message in the sent information to voice and sends it over the phone. As described above, according to the present embodiment, when a viewer finds an article to be introduced to a third party, a favorite product, or the like while watching a program, the viewer can view the program. By simply pressing the sticker button 3 2a on the controller 32, after the end or interruption of the program, the information on the product can be automatically transmitted to the desired destination together with the related video scene. it can. Therefore, it is free from troublesome work such as taking a memo while watching the program and storing it in one corner of the head, which obstructs the viewing of the program. Since the information with the sticky note is transmitted to the other party by communication via the network, the content to be transmitted is more reliably transmitted to the other party than by verbal communication by telephone or the like. . In addition, the other party receiving such sticky information does not only include information for identifying the product but also detailed information such as the price of the product, the store, and the video scene in which the product appeared. If you are interested in the product, ask the sender for various information about the product or obtain various information about the product using the Internet, etc. It is possible to make a purchase decision without having to do any troublesome work such as
さらに、 本実施の形態によれば、 付箋情報を受け取る相手側は、 受信 装置と して、 P C等のインテリジェン トな端末装置だけに限られず、 フ ァクシミ リ受信機等の簡易な端末装置を所有していればよい。 画像ゃテ キス トによって、 商品に関する様々な情報や映像シーン等を受信するこ とができるからである。  Further, according to the present embodiment, the other party receiving the tag information is not limited to an intelligent terminal device such as a PC as a receiving device, but may be a simple terminal device such as a facsimile receiver. You only need to own it. This is because it is possible to receive various kinds of information on products, video scenes, and the like by using the image text.
(実施の形態 2 )  (Embodiment 2)
次に、 本発明の実施の形態 2における放送受信装置を説明する。 本実 施の形態における放送受信装置は、 視聴者が、 番組の時間位置だけでな く、 表示画面中の空間位置についても指定し、 オブジェク ト単位での絞 リ込んだ商品情報を送信することができる点に特徴を有する。 なお、 図 1 に示された放送システム 1 0の全体構成については、 本実施の形態に おいても共通する。 図 1 1 は、 本実施の形態における放送受信装置 2 0 0、 つまり、 図 1 に示された放送受信装置 3 1 aの一実施例である放送受信装置 2 0 0の 詳細な構成を示す機能プロック図である。 この放送受信装置 2 0 0は、 受信した映像に対する視聴者による付箋の貼付及びその付箋に該当する 各種情報の外部への送信がオブジェク ト (ここでは、 番組に登場する商 品) 単位で可能なテレビ放送受信機であり、 放送受信部 1 0 1 、 制御部 1 0 2 a、 時間選択入力部 1 0 3、 画像表示部 1 0 4、 音響出力部 1 0Next, a broadcast receiving apparatus according to Embodiment 2 of the present invention will be described. The broadcast receiving device according to the present embodiment allows the viewer to specify not only the time position of the program but also the spatial position on the display screen, and transmit the narrowed down product information for each object. The feature is that it can be. Note that the overall configuration of the broadcasting system 10 shown in FIG. 1 is also common in the present embodiment. FIG. 11 is a diagram showing a detailed configuration of the broadcast receiving apparatus 200 according to the present embodiment, that is, the broadcast receiving apparatus 200 which is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram. The broadcast receiving apparatus 200 is capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to an external device in units of objects (here, products appearing in a program). TV broadcast receiver, broadcast receiving unit 101, control unit 102a, time selection input unit 103, image display unit 104, sound output unit 10
5、 情報選択部 1 0 6 a、 送信部 1 0 8、 宛先データベース 1 0 9、 宛 先入力部 1 1 0、 時間情報記憶部 2 0 1 及び空間位置選択入力部 2 0 2 から構成される。 5.Information selection unit 106a, transmission unit 108, destination database 109, destination input unit 110, time information storage unit 201, and spatial position selection input unit 202 .
この放送受信装置 2 0 0は、 実施の形態 1 における放送受信装置 1 0 0とほぼ同様の構成を備えるが、 実施の形態 1 における送信情報記憶部 1 0 7に替えて、 時間情報記憶部 2 0 1 及び空間位置選択入力部 2 0 2 を備える点、 及び、 実施の形態 1 における制御部 1 0 2及び情報選択部 1 0 6に替えて、 機能が追加された制御部 1 0 2 a及び情報選択部 1 0 The broadcast receiving apparatus 200 has almost the same configuration as the broadcast receiving apparatus 100 in the first embodiment. However, instead of the transmission information storing section 107 in the first embodiment, the time information storing section 2 0 1 and a spatial position selection input unit 202, and a control unit 102 a and a function added in place of the control unit 102 and the information selection unit 106 in the first embodiment. Information selector 1 0
6 aを備える点において、 実施の形態 1 と異なる。 以下、 実施の形態 1 と同様の構成要素には同一の符号を付し、 その説明を省略し、 異なる点 を中心に説明する。 Embodiment 6 is different from Embodiment 1 in including 6a. Hereinafter, the same components as those in the first embodiment will be denoted by the same reference numerals, and the description thereof will be omitted.
制御部 1 0 2 aは、 時間選択入力部 1 0 3から時間位置の指示が発せ られたときに、内蔵のタイマ一等を参照することで、その時刻を特定し、 付箋が貼られたタイミングを示すタイムスタンプ (時間情報) と して時 間情報記憶部 2 0 1 に格納しておく。 時間情報記憶部 2 0 1 は、 制御部 1 0 2 aから送られてく る時間情報を一時的に格納するメモリ等である。 空間位置選択入力部 2 0 2は、 リモートコン トローラ 3 2に設けられ た矢印キーやボタン、ボインティングデバイス、タツチパネル等であリ、 視聴者が放送受信装置 2 0 0に対して、 表示画面内の個々のォブジェク 卜の空間位置を指定する入力手段である。 The control unit 102a determines the time by referring to a built-in timer or the like when the time position instruction is issued from the time selection input unit 103, and determines the timing when the tag is attached. Is stored in the time information storage unit 201 as a time stamp (time information) indicating the time stamp. The time information storage unit 201 is a memory for temporarily storing time information sent from the control unit 102a. The spatial position selection input unit 202 is an arrow key or button provided on the remote controller 32, a pointing device, a touch panel, or the like. Individual objects This is an input means for designating the spatial position of the mouse.
情報選択部 1 0 6 aは、 番組視聴終了後又は視聴中断後に、 時間情報 記憶部 2 0 1 に格納された時間情報が示す時刻を含む前後の映像ス トリ ーム、 音響ス トリ一厶及びその時刻に対応する番組付加情報を制御部 1 0 2 aから取得し、 その映像ス トリーム及び音響ス トリームを画像表示 部 1 0 4及び音響出力部 1 0 5に提示出力する。 そして、 その提示に対 する視聴者による空間位置選択入力部 2 0 2を用いた空間位置の指示に 基づいて、 映像中のオブジェク ト (視聴者が興味をもった商品など) を 特定し、 特定したオブジェク トを含む画像ショ ッ トを映像ス トリ一ムか ら切リ出したり、 オブジェク トに対応する商品情報を番組付加情報から 抽出したり し、 それら画像ショ ッ ト及び商品情報等を、 選択された情報 と して、 送信部 1 0 8に送る。  The information selection unit 106a is configured to provide a video stream, an audio stream, and a video stream before and after including the time indicated by the time information stored in the time information storage unit 201 after the end of the program viewing or after the viewing is stopped. The program additional information corresponding to the time is acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105. Then, based on a spatial position instruction by the viewer using the spatial position selection input unit 202 for the presentation, an object in the video (such as a product that the viewer is interested in) is specified and specified. An image shot containing the selected object is cut out from the video stream, product information corresponding to the object is extracted from the program additional information, and the image shot and the product information are extracted. The selected information is sent to the transmission unit 108.
図 1 2及び図 1 3は、 本実施の形態において放送局 2 0から送信され てくる番組付加情報 2 2のうち、 番組に登場するオブジェク 卜の詳細及 び時間位置が記述されたコ ンテンツ情報の例を示す図である。ここでは、 図 1 2において、番組に登場する A俳優の衣服と して、オブジェク ト「上 着 B J、 「ズボン C J 等が宣言され、 図 1 3において、 「上着 B J について は、 「素材」、 「発売サイズ」、 発売サイズごとの 「価格」、 「発売色」、 「発 売柄」、 「製造会社 (名前及び U R L )」、 「販売会社 (名前及び U R し)」 等の詳細な商品情報が記述され、 それらオブジェク トの映像ス トリーム 中における時間位置と して、 スター ト時間位置と継続時間長等が記述さ れている。  FIGS. 12 and 13 show content information in which details and time positions of objects appearing in a program are described in program additional information 22 transmitted from broadcast station 20 in the present embodiment. It is a figure showing the example of. Here, in Fig. 12, the objects "Jacket BJ and" Pants CJ etc. "are declared as the clothes of the A actor appearing in the program. , “Release size”, “Price” for each release size, “Release color”, “Release pattern”, “Manufacturer (name and URL)”, “Sales company (name and UR)”, etc. Information is described, and the start time position, duration, etc., are described as the time position of those objects in the video stream.
図 1 4は、 本実施の形態において放送局 2 0から送信されてく る番組 付加情報 2 2のうち、 番組に登場するォブジェク トの空間位置が記述さ れたコ ンテンツ情報の例を示す図である。 ここでは、 番組に登場する商 品 Γジャケッ ト B Jの表示画面における空間位置と して、形状タイプ(「長 方形」) や、 頂点の位置などが指定されている。 FIG. 14 is a diagram showing an example of content information in which the spatial position of an object appearing in a program is described in the program additional information 22 transmitted from the broadcast station 20 in the present embodiment. is there. Here, the product that appears in the program ΓJacket BJ The shape type (“length Square)) and the positions of the vertices are specified.
次に、 以上のような番組付加情報付き番組を受信した本実施の形態に おける放送受信装置 2 0 0の動作について説明する。  Next, the operation of the broadcast receiving apparatus 200 according to the present embodiment that has received the program with the program additional information described above will be described.
図 1 5は、 放送受信装置 2 0 0の動作手順を未すフローチャー トであ る。 図 1 6は、 視聴者と放送受信装置 2 0 0との対話の様子を示す図で ぬる。  FIG. 15 is a flowchart illustrating the operation procedure of the broadcast receiving apparatus 200. FIG. 16 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device 200.
いま、 視聴者が、 図 1 6 ( a ) に示されるように、 番組視聴中に時間 選択入力部 1 0 3を用いて時間位置を選択したとする ( S 2 0 0 )。たと えば、 A俳優が出演する場面を見ていた視聴者が A俳優の着ている上着 が気に入つたので、 ぜひ、 友人に伝えたいと思い、 リモートコン ト口一 ラ 3 2の付箋ポタン 3 2 a を押したとする。  Now, suppose that the viewer selects a time position using the time selection input unit 103 while viewing the program as shown in FIG. 16 (a) (S200). For example, a viewer who was watching the scene where A actor appeared appeared to like the outerwear worn by A actor, so he wanted to tell his friend by all means. 2 Suppose you press a.
それに対して、 時間選択入力部 1 0 3から時間位置を選択する信号を 受信した制御部 1 0 2 aは、 その時刻を特定し、 時間情報と して時間情 報記憶部 2 0 1 に格納する (S 2 0 1 )。  On the other hand, the control unit 102a receiving the signal for selecting the time position from the time selection input unit 103 specifies the time and stores it in the time information storage unit 201 as time information. Yes (S201).
視聴者による番組の視聴が終了又は中断すると、 情報選択部 1 0 6 a は、 時間情報記憶部 2 0 1 に格納されている時間情報が示す時刻を含む 一定区間の映像ス トリーム及び音声ス トリームと、 その時刻に対応する 番組付加情報とを制御部 1 0 2 aから取得し、 その映像ス ト リーム及び 音声ス ト リームを画像表示部 1 0 4及び音響出力部 1 0 5に提示出力す る ( S 2 0 2 )。  When the viewer stops or stops watching the program, the information selection unit 106a sets the video stream and audio stream of a certain section including the time indicated by the time information stored in the time information storage unit 201. And the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105. (S202).
そして、 情報選択部 1 0 6 aは、 図 1 6 ( b ) に示されるように、 そ の提示に対する視聴者による空間位置選択入力部 2 0 2を用いた空間位 置の指示に基づいて ( S 2 0 3 )、 映像ス トリー厶中のオブジェク ト (視 聴者が興味をもった商品など) を特定し、 そのオブジェク トに対応する 商品情報を番組付加情報から抽出し ( S 2 0 4 )、そのオブジェク トを含 む画像ショ ッ ト及び音声ス トリ一厶とともに、 選択された情報と して、 送信部 1 0 8に送る。 たとえば、 図 1 6 ( b ) に示されるように、 視聴 者が空間位置選択入力部 2 0 2を用いてオブジェク トを含む矩形枠を指 定すると、 情報選択部 1 0 6 aは、 番組付加情報に記述されたオブジェ ク トごとの空間位置がその矩形枠の領域内であるか否かを判断すること で、 その矩形枠に含まれる全てのオブジェク トを特定する。 Then, as shown in FIG. 16 (b), the information selection unit 106a, based on the spatial position instruction by the viewer using the spatial position selection input unit 202 for the presentation ( S203), the object in the video stream (such as a product that the viewer is interested in) is specified, and the product information corresponding to the object is extracted from the program additional information (S203). Along with the image shot and audio stream containing the object, as the selected information, Send to sending section 108. For example, as shown in FIG. 16 (b), when the viewer specifies a rectangular frame including an object using the spatial position selection input section 202, the information selection section 106a sets the program addition By determining whether the spatial position of each object described in the information is within the area of the rectangular frame, all the objects included in the rectangular frame are specified.
そして、 送信部 1 0 8は、 図 1 6 ( c ) に示される画面表示例のよう に、 宛先データベース 1 0 9に登録されている宛先を読み出し、 送信先 リス トと して、画像表示部 1 0 4に一覧表示するとともに、視聴者から、 宛先入力部 1 1 0による送信先の選択又は入力を受け付ける(S 2 0 5 )。 宛先が決定されると、 送信部 1 0 8は、 情報選択部 1 0 6 aによって抽 出された画像ショ ッ 卜と音声ス トリームと番組付加情報とを、 決定され た宛先に向けて、 ネッ トワークを介して送信する (S 2 0 6 )。  Then, the transmission unit 108 reads out the destinations registered in the destination database 109 as shown in the screen display example shown in FIG. 16 (c) and sets the image display unit as a transmission destination list. A list is displayed in 104, and selection or input of a destination by the destination input unit 110 is received from the viewer (S205). When the destination is determined, the transmission unit 108 sends the image shot, the audio stream, and the program additional information extracted by the information selection unit 106a to the determined destination, and sends them to the network. Transmission via the network (S206).
図 1 7は、 視聴者と放送受信装置 2 0 0との対話処理に関して、 図 1 5に示されたフローチヤ一卜をより詳細化したものである。 本図の左側 には、 放送受信装置 2 0 0の動作の流れが示され、 本図の右側には、 視 聴者の動作の流れが対応するように示されている。  FIG. 17 is a more detailed flowchart of FIG. 15 relating to the dialog processing between the viewer and the broadcast receiving device 200. On the left side of the figure, the operation flow of the broadcast receiving device 200 is shown, and on the right side of the figure, the operation flow of the viewer is shown correspondingly.
視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商 品等を見つけると、 リモー トコン トローラ 3 2の付箋ボタン 3 2 aを押 す ( S 2 2 0、 S 2 1 0 )。 すると、 制御部 1 0 2 aは、 その時刻を特定 し、 時間位置として時間情報記憶部 2 0 1 に記録しておく ( S 2 1 1 )。 視聴者による番組の視聴が終了又は中断すると ( S 2 2 1 )、情報選択 部 1 0 6 aは、 時間情報記憶部 2 0 1 に記録されている時間位置を参照 することで、 その時間位置周辺の映像を制御部 1 0 2 aから取得し、 画 像表示部 1 0 4を介して視聴者に提示する ( S 2 1 2 )。 たとえば、 付箋 が貼られた時刻から 3 0秒間だけ過去に遡った区間の映像をゆつく リ再 生することで視聴者に確認用と して提示する。 この提示に対して、 視聴者は、 その映像を視聴しながら ( S 2 2 2 )、 その映像中に第 3者に紹介したい物があるか否かを確認し ( S 2 2 3 )、 もし、 第 3者に紹介したい物を見つけた場合には ( S 2 2 3で Y e s:)、 リモ一 トコン トロ一ラ 3 2のポタンや矢印キ一等を用いて、 画像中の紹 介したい物をポインタ一等で指定する ( S 2 2 4 )。 When the viewer finds an article to introduce to a third party or a favorite product while watching the program, the viewer presses the sticky button 3 2a of the remote controller 32 (S22, S21) 0). Then, the control unit 102a specifies the time and records it as a time position in the time information storage unit 201 (S211). When the viewer stops or stops watching the program (S221), the information selection unit 106a refers to the time position recorded in the time information storage unit 201, and the time position is determined. The surrounding images are acquired from the control unit 102a and presented to the viewer via the image display unit 104 (S212). For example, an image of a section that goes back 30 seconds in the past from the time the tag was attached is played back slowly and presented to the viewer for confirmation. In response to this presentation, the viewer watches the video (S2222) and checks whether there is an object to be introduced to a third party in the video (S2223). , if it finds what you want to introduce a third person using a Y e s :), the remote one ipecac Toro one la 3 2 Potan or arrow keys Chief with (S 2 2 3, introduction in the image Specify what you want with a pointer (S2224).
—方、 情報選択部 1 0 6 aは、 確認映像をゆっく り再生しながら、 視 聴者から映像中の物を,指定する指示があつたか否か監視し ( S 2 1 3 )、 視聴者による指示があつた場合には ( S 2 1 3で Y e s )、その指示に基 づいて、 よリ詳細な時間位置と空間位置とを特定する (S 2 1 4 )。 たと えば、 情報選択部 1 0 6 aは、 確認映像を再生しているときに、 視聴者 からリモー トコン トローラ 3 2による Γ再生停止」の指示を取得すると、 そのタイ ミングに相当する映像の時間位置を記録するとともに、 確認映 像の再生を停止させて静止画を表示し、 続いて、 視聴者からリモ一 トコ ン トロ一ラ 3 2による表示画面中の空間位置の指定を取得すると、 その 空間位置を記録し、 記録した時間位置と空間位置とをより正確な時空間 配置情報と して更新し保持する。  The information selection unit 106 a monitors the confirmation video slowly while monitoring whether or not the viewer has specified the object in the video (S 2 13). If an instruction is given by (Yes in S213), a more detailed time position and spatial position are specified based on the instruction (S214). For example, when the information selection unit 106a obtains an instruction of “stop playback” by the remote controller 32 from the viewer while the confirmation video is being played, the video time corresponding to the timing is obtained. While recording the position, the playback of the confirmation image is stopped and a still image is displayed. Subsequently, when the viewer obtains the designation of the spatial position on the display screen by the remote controller 32, the The spatial position is recorded, and the recorded time position and spatial position are updated and stored as more accurate spatiotemporal arrangement information.
続いて、 情報選択部 1 0 6 aは、 その時空間配置情報から、 図 1 3に 示された番組付加情報のコンテンッ情報に記述された時間位置情報、 及 び、 図 1 4に示されたコンテンツ情報に記述された空間位置情報を参照 することで、 視聴者が指定した時間位置と空間位置に該当するオブジェ ク トを特定するとともに (S 2 1 5 )、 番組の映像ス トリームから、 その オブジェク トが登場する区間を切リ出す ( S 2 1 6 )。 そして、 切り出し た映像ス トリームと、 上記時空間配置情報によつて修正され最終的に選 択されたオブジェク トのコンテンツ情報とを組み合わせて (S 2 1 7 )、 送信情報として、 送信部 1 0 8に送る。  Subsequently, the information selection unit 106a obtains, from the spatio-temporal arrangement information, the time position information described in the content information of the program additional information shown in FIG. 13, and the content shown in FIG. By referring to the spatial position information described in the information, the object corresponding to the time position and the spatial position specified by the viewer is specified (S215), and the object is determined from the video stream of the program. The section in which the character appears is cut out (S2 16). Then, the cut-out video stream is combined with the content information of the object finally corrected and selected based on the spatiotemporal arrangement information (S2117), and the transmission section 10 is transmitted as transmission information. Send to 8.
図 1 8は、 番組の映像 ■音声ス トリームから送信情報が生成されるま での過程を示す図である。 図 1 8 ( a ) に示されるように、 視聴者によ つて番組の映像ス トリ一ム中に付箋が貼られると、 図 1 8 ( b ) に示さ れるように、 その番組の終了後等において、 付箋が貼られた映像を含む 一定区間 (例えば、 付箋が貼られた時刻から 3 0秒間だけ過去に遡った 区間) の映像ス トリームが確認用と して視聴者に再生される。 それに対 して、 視聴者が、 第 3者に紹介したい物を見つけたときに再生を停止さ せ、 図 1 8 ( c ) に示されるように、 静止画の中から意図するオブジェ ク トをポイン トして指定すると、 図 1 8 ( d ) に示されるように、 その 静止画を含む一定区間 (例えば、 画像ショ ッ ト) の映像ス トリームが切 リ出され、 そのオブジェク トに対応する商品情報とともに、 第 3者に送 信される。 Figure 18 shows the video of the program. ■ Until transmission information is generated from the audio stream. FIG. As shown in Fig. 18 (a), when a viewer attaches a sticky note in the video stream of a program, as shown in Fig. 18 (b), after the end of the program, etc. In, the video stream of a certain section including the video with the tag attached (for example, a section that goes back 30 seconds in the past from the time when the tag was attached) is played back to the viewer for confirmation. On the other hand, when the viewer finds something he wants to introduce to a third party, the viewer stops playback and, as shown in Fig. 18 (c), moves the intended object from the still image. When a point is specified, as shown in Fig. 18 (d), a video stream of a certain section (for example, an image shot) including the still image is cut out, and the image stream corresponding to the object is extracted. Sent to third parties along with product information.
以上のように、 本実施の形態によれば、 視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を見つけたときにリモート コン トローラ 3 2の付箋ポタン 3 2 a を押すだけで、 その時間位置を一 時的に記憶させておく ことができる。 そして、 番組の終了あるいは中断 後に、 付箋を貼った映像の中から空間位置を指定することで、 意図する オブジェク トを個別具体的に指定し、 そのオブジェク トの詳細な情報と 共に、 そのオブジェク トを含む画像ショ ッ ト等を第 3者に送信すること ができる。 したがって、実施の形態 1 に比べ、第 3者に送信する情報を、 紹介したい物品に関する情報だけに絞り込むことができ、 より小さいサ ィズの情報量で、 よリ的確に第 3者にメ ッセージを伝達することができ る。  As described above, according to the present embodiment, when a viewer finds an article to be introduced to a third party, a favorite product, or the like while watching a program, a sticky note button 32 of the remote controller 32 is used. By simply pressing a, the time position can be temporarily stored. Then, after the program ends or is interrupted, the intended object is individually and specifically specified by designating the spatial position in the video with the tag attached thereto, and the detailed information of the object is given together with the detailed information of the object. It is possible to send an image shot or the like containing a to a third party. Therefore, compared to the first embodiment, the information to be transmitted to the third party can be narrowed down to only information on the article to be introduced, and a smaller amount of information can be sent to the third party more accurately. Can be transmitted.
(実施の形態 3 )  (Embodiment 3)
次に、 本発明の実施の形態 3における放送受信装置を説明する。 本実 施の形態における放送受信装置は、 視聴者が、 番組の時間位置だけでな <、 その時間位置の映像中に登場する物品の一覧から所望の物品を選択 し、 オブジェク ト単位での絞り込んだ商品情報を送信することができる 点に特徴を有する。 なお、 図 1 に示された放送システム 1 0の全体構成 については、 本実施の形態においても共通する。 Next, a broadcast receiving apparatus according to Embodiment 3 of the present invention will be described. In the broadcast receiving apparatus according to the present embodiment, the viewer selects not only the time position of the program but also a desired item from a list of items appearing in the video at the time position. In addition, it is characterized in that it is possible to transmit narrowed-down product information on an object-by-object basis. The overall configuration of broadcast system 10 shown in FIG. 1 is common to the present embodiment.
図 1 9は、 本実施の形態における放送受信装置 3 0 0、 つまり、 図 1 に示された放送受信装置 3 1 aの一実施例である放送受信装置 3 0 0の 詳細な構成を示す機能ブロック図である。 この放送受信装置 3 0 0は、 受信した映像に対する視聴者による付箋の貼付及びその付箋に該当する 各種情報の外部への送信がオブジェク ト (ここでは、 番組に登場する商 品) 単位で可能なテレビ放送受信機であり、 放送受信部 1 0 1 、 制御部 1 0 2 a , 時間選択入力部 1 0 3、 画像表示部 1 0 4、 音響出力部 1 0 5、 情報選択部 1 0 6 b、 送信部 1 0 8、 宛先データベース 1 0 9、 宛 先入力部 1 1 0、 時間情報記憶部 2 0 1 及び選択入力部 3 0 1 から構成 される。  FIG. 19 is a diagram showing a detailed configuration of the broadcast receiving apparatus 300 in the present embodiment, that is, the broadcast receiving apparatus 300 which is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram. The broadcast receiving apparatus 300 is capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to an external device in units of objects (here, products appearing in a program). TV broadcast receiver, broadcast receiver 101, control unit 102a, time selection input unit 103, image display unit 104, sound output unit 105, information selection unit 106b , A transmission unit 108, a destination database 109, a destination input unit 110, a time information storage unit 201, and a selection input unit 301.
この放送受信装置 3 0 0は、 実施の形態 2における放送受信装置 2 0 0とほぼ同様の構成を備えるが、 実施の形態 2における情報選択部 1 0 6 a及び空間位置選択入力部 2 0 2に替えて、 情報選択部 1 0 6 b及び 選択入力部 3 0 1 を備える点において、 実施の形態 2と異なる。 以下、 実施の形態 2と異なる点を中心に説明する。  The broadcast receiving apparatus 300 has substantially the same configuration as the broadcast receiving apparatus 200 in the second embodiment, but includes an information selection unit 106a and a spatial position selection input unit 202 in the second embodiment. Embodiment 2 is different from Embodiment 2 in that an information selection unit 106 b and a selection input unit 301 are provided instead of the above. Hereinafter, points different from the second embodiment will be mainly described.
選択入力部 3 0 1 は、 リモー トコン トローラ 3 2に設けられた矢印キ —等の操作ボタン 3 2 bであり、 視聴者が画像表示部 1 0 4に表示され たオブジェク トのリス 卜から所望のオブジェク トを選択する入力手段で ある。  The selection input section 301 is an operation button 3 2b such as an arrow key provided on the remote controller 32, and is used by the viewer to select a desired object from the list of objects displayed on the image display section 104. It is an input means for selecting an object.
情報選択部 1 0 6 bは、 番組視聴終了後又は視聴中断後に、 時間情報 記憶部 2 0 1 に格納された時間情報が示す時刻を含む前後の映像ス ト リ ーム、 音響ス トリーム及びその時刻に対応する番組付加情報を制御部 1 0 2 aから取得し、 その映像ス トリーム及ぴ音響ス トリームを画像表示 部 1 0 4及び音響出力部 1 0 5に提示出力するとともに、 その番組付加 情報に記述された商品情報を解析し、 リス トと して画像表示部 1 0 4に 提示出力する。 そして、 その提示に対する視聴者による選択入力部 3 0 1 を用いた選択に基づいて、 オブジェク ト (視聴者が興味をもった商品 など) を特定し、 特定したオブジェク トを含む画像ショ ッ トを映像ス ト リームから切り出したり、 オブジェク 卜に対応する商品情報を番組付加 情報から抽出したり し、 それら画像ショ ッ ト及び商品情報等を、 選択さ れた情報と して、 送信部 1 0 8に送る。 The information selection unit 106b stores the video stream, the audio stream before and after the time including the time indicated by the time information stored in the time information storage The program additional information corresponding to the time is acquired from the control unit 102a, and the video stream and the audio stream are displayed as images. In addition to presenting and outputting the information to the unit 104 and the sound output unit 105, the product information described in the program additional information is analyzed and presented to the image display unit 104 as a list. Then, based on the selection by the viewer using the selection input unit 301 for the presentation, an object (such as a product that the viewer is interested in) is specified, and an image shot including the specified object is specified. The transmitting unit 108 cuts out the video stream, extracts the product information corresponding to the object from the program ancillary information, and uses those image shots and product information as selected information. Send to
次に、 以上のように構成された本実施の形態における放送受信装置 3 0 0の動作について説明する。  Next, the operation of broadcast receiving apparatus 300 according to the present embodiment configured as described above will be described.
図 2 0は、 放送受信装置 3 0 0の動作手順を示すフローチヤ一トであ る。 図 2 1 は、 視聴者と放送受信装置 3 0 0との対話の様子を示す図で ある。  FIG. 20 is a flowchart showing the operation procedure of the broadcast receiving apparatus 300. FIG. 21 is a diagram illustrating a state of a dialogue between the viewer and the broadcast receiving device 300.
いま、 視聴者が、 図 2 1 ( a ) に示されるように、 番組視聴中に時間 選択入力部 1 0 3を用いて時間位置を選択したとする ( S 3 0 0 )。たと えば、 A俳優が出演する場面を見ていた視聴者が A俳優の着ている上着 が気に入つたので、 ぜひ、 友人に伝えたいと思い、 リモートコン トロー ラ 3 2の付箋ポタン 3 2 a を押したとする。  Assume that the viewer selects a time position using the time selection input unit 103 while viewing a program as shown in FIG. 21 (a) (S300). For example, a viewer watching the scene in which A actor appeared appears to like the outerwear worn by A actor. Suppose you press.
それに対して、 時間選択入力部 1 0 3から時間位置を選択する信号を 受信した制御部 1 0 2 aは、 その時刻を特定し、 時間情報と して時間情 報記憶部 2 0 1 に格納する (S 3 0 1 )。  On the other hand, the control unit 102a receiving the signal for selecting the time position from the time selection input unit 103 specifies the time and stores it in the time information storage unit 201 as time information. Yes (S301).
視聴者による番組の視聴が終了又は中断すると、 情報選択部 1 0 6 b は、 時間情報記憶部 2 0 1 に格納されている時間情報が示す時刻を含む 一定区間の映像ス トリー厶及び音声ス トリームと、 その時刻に対応する 番組付加情報とを制御部 1 0 2 aから取得し、 その映像ス ト リーム及び 音声ス トリームを画像表示部 1 0 4及び音響出力部 1 0 5に提示出力す るとともに、 その番組付加情報に記述された商品情報を解析し、 図 2 1 ( b ) に示される画面表示例のように、 オブジェク トのリス トと して画 像表示部 1 0 4に提示出力する (S 3 0 2 )。 たとえば、 付箋が貼られた 時刻に対応する番組付加情報が図 1 2及び図 1 3に示されるコンテンツ 情報である場合には、 情報選択部 1 0 6 bは、 映像に登場した A俳優の 衣服と して、 「上着 B J、 「ズボン C」、 「靴 D」 等のォブジ Iク トを、 詳細 な情報 (「素材」、 「発売サイズ」、 「価格」、 「発売色」、 「発売柄」 等の商品 の特徴、 「製造会社」、 「販売会社」、 画面上の位置) とともに、 一覧にし て表示する。 さらに、 付箋が貼られた時刻に対応する番組付加情報が図 2 2及び図 2 3に示されるコンテンツ情報である場合には、 せりふの内 容に対応するサービス (この例では、 「海外旅行パック」) がォブジェク 卜と して同様に一覧表示され、 また、 付箋が貼られた時刻に対応する番 組付加情報が図 2 4及び図 2 5に示されるコンテンツ情報である場合に は、 付箋が貼られた時刻に対応する音楽等の著作物 (この例では、 Γ B G M J ) がオブジェク トと して同様に一覧表示される。 When the viewer stops or stops watching the program, the information selection unit 106b sets the video stream and audio stream of a certain section including the time indicated by the time information stored in the time information storage unit 201. The stream and the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105. At the same time, it analyzes the product information described in the program additional information and presents it to the image display unit 104 as a list of objects as shown in the screen display example shown in Fig. 21 (b). Output (S302). For example, if the program additional information corresponding to the time at which the tag was attached is the content information shown in FIGS. 12 and 13, the information selection unit 106b will select the A actor's clothes appearing in the video. As a result, detailed information (such as “Material”, “Release size”, “Price”, “Release color”, “Release color”) Product features such as pattern, “manufacturing company”, “sales company”, and position on the screen) are displayed in a list. Further, when the program additional information corresponding to the time when the tag is attached is the content information shown in FIGS. 22 and 23, the service corresponding to the contents of the dialog (in this example, “Overseas travel package” )) Is similarly displayed as a list of objects, and if the additional program information corresponding to the time when the tag was attached is the content information shown in FIGS. 24 and 25, the tag is displayed. Works such as music (ΓBGMJ in this example) corresponding to the pasted time are similarly listed as objects.
そして、 情報選択部 1 0 6 bは、 その提示に対する視聴者による選択 入力部 3 0 1 を用いた選択指示に基づいて ( S 3 0 3 )、オブジェク トリ ス 卜の中から 1 以上のオブジェク ト (視聴者が興味をもつた商品など) を特定し、 特定したオブジェク トに対応する商品情報を番組付加情報か ら抽出し、 そのオブジェク トを含む画像ショ ッ ト及び音声ス トリームと ともに、 選択された情報と して、 送信部 1 0 8に送る。  Then, based on a selection instruction by the viewer using the selection input unit 301 for the presentation (S303), the information selection unit 106b selects one or more objects from the object list. (Products that interest the viewer, etc.), extract the product information corresponding to the specified object from the program additional information, and select it along with the image shot and audio stream containing the object. The information is sent to the transmission unit 108 as the information.
送信部 1 0 8は、 図 2 1 ( c ) に示される画面表示例のように、 宛先 データベース 1 0 9に登録されている宛先を読み出し、 送信先リス トと して、 画像表示部 1 0 4に一覧表示するとともに、 視聴者から、 宛先入 力部 1 1 0による送信先の選択又は入力を受け付ける ( S 3 0 4 )。宛先 が決定されると、 送信部 1 0 8は、 情報選択部 1 0 6 bによって抽出さ れた画像シヨ ッ トと音声ス トリームと番組付加情報とを、 決定された宛 先に向けて、 ネッ トワークを介して送信する ( S 3 0 5 )。 The transmission unit 108 reads the destinations registered in the destination database 109 as shown in the screen display example shown in FIG. 21 (c), and sets the image display unit 100 as a destination list. 4 and a selection or input of a transmission destination by the destination input unit 110 is received from the viewer (S304). When the destination is determined, the transmission unit 108 is extracted by the information selection unit 106 b. The image shot, the audio stream, and the program additional information are transmitted to the determined destination via the network (S305).
以上のように、 本実施の形態によれば、 視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を見つけたときにリモート コン トロ一ラ 3 2の付箋ボタン 3 2 aを押すだけで、 その時間位置を一 時的に記憶させておく ことができる。 そして、 番組の終了あるいは中断 後に、 付箋を貼った映像に登場するォブジェク 卜の一覧が表示されるの で、 視聴者は、 その一覧から、 意図するォブジェク トを個別具体的に指 定することで、 そのオブジェク トの詳細な情報と共に、 そのオブジェク トを含む画像ショ ッ ト等を第 3者に送信することができる。したがって、 実施の形態 1 に比べ、 第 3者に送信する情報を、 オブジェク 卜の一覧表 の中から、 紹介したい物品に関する情報だけに絞り込むことができ、 よ リ小さいサイズの情報量で、 よリ的確に第 3者にメ ッセージを伝達する ことができる。  As described above, according to the present embodiment, the viewer can use the sticky button of the remote controller 32 when he or she finds an article to be introduced to a third party or a favorite product while watching the program. By simply pressing 3 2 a, the time position can be temporarily stored. Then, after the program ends or is interrupted, a list of objects appearing on the sticky video is displayed.The viewer can specify the intended objects individually and specifically from the list. Along with the detailed information of the object, an image shot or the like including the object can be transmitted to a third party. Therefore, compared to the first embodiment, the information to be transmitted to the third party can be narrowed down to only the information on the article to be introduced from the list of objects, and the information amount can be reduced with a smaller size. The message can be accurately transmitted to the third party.
(実施の形態 4 )  (Embodiment 4)
次に、 本発明の実施の形態 4における放送受信装置を説明する。 本実 施の形態における放送受信装置は、 視聴者が、 番組の時間位置だけでな く、 その時間位置の映像中に登場する物品を文字列で選択し、 オブジェ ク ト単位での絞リ込んだ商品情報を送信することができる点に特徴を有 する。 なお、 図 1 に示された放送システム 1 0の全体構成については、 本実施の形態においても共通する。  Next, a broadcast receiving apparatus according to Embodiment 4 of the present invention will be described. In the broadcast receiving apparatus according to the present embodiment, the viewer selects not only the time position of the program but also articles appearing in the video at the time position using a character string, and narrows down the objects in units of objects. It is unique in that it can send product information. The overall configuration of the broadcasting system 10 shown in FIG. 1 is common to the present embodiment.
図 2 6は、 本実施の形態における放送受信装置 4 0 0、 つまり、 図 1 に示された放送受信装置 3 1 a の一実施例である放送受信装置 4 0 0の 詳細な構成を示す機能ブロック図である。 この放送受信装置 4 0 0は、 受信した映像に対する視聴者による付箋の貼付及びその付箋に該当する 各種情報の外部への送信がオブジェク ト (ここでは、 番組に登場する商 品) 単位で可能なテレビ放送受信機であり、 放送受信部 1 0 1 、 制御部 1 0 2 a、 時間選択入力部 1 0 3、 画像表示部 1 0 4、 音響出力部 1 0FIG. 26 is a diagram illustrating a detailed configuration of the broadcast receiving apparatus 400 according to the present embodiment, that is, a broadcast receiving apparatus 400 that is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram. The broadcast receiving apparatus 400 uses an object (here, a commercial appearing in a program) to attach a tag to a received video and transmit various kinds of information corresponding to the tag to the outside. TV receiver that can be used in units. Broadcast receiver 101, control unit 102a, time selection input unit 103, image display unit 104, sound output unit 10
5、 情報選択部 1 0 6 C、 送信部 1 0 8、 宛先データベース 1 0 9、 宛 先入力部 1 1 0、 時間情報記憶部 2 0 1 及び文字入力部' 4 0 1 から構成 される。 5. It is composed of an information selection unit 106C , a transmission unit 108, a destination database 109, a destination input unit 110, a time information storage unit 201, and a character input unit 4101.
この放送受信装置 4 0 0は、 実施の形態 2における放送受信装置 2 0 0とほぼ同様の構成を備えるが、 実施の形態 2における情報選択部 1 0 The broadcast receiving apparatus 400 has substantially the same configuration as the broadcast receiving apparatus 200 in the second embodiment, but has an information selection unit 100 in the second embodiment.
6 a及び空間位置選択入力部 2 0 2に替えて、 情報選択部 1 0 6 c及び 文字入力部 4 0 1 を備える点において、 実施の形態 2と異なる。 以下、 実施の形態 2と異なる点を中心に説明する。 Embodiment 6 is different from Embodiment 2 in that an information selection unit 106 c and a character input unit 401 are provided in place of 6 a and the spatial position selection input unit 202. Hereinafter, points different from the second embodiment will be mainly described.
文字入力部 4 0 1 は、 リモー 卜コ ン トローラ 3 2に設けられた矢印キ —等の操作ポタン 3 2 b、 キーボード、 手書文字認識装置等であり、 視 聴者が放送受信装置 4 0 0に対して文字列によるオブジェク トの指定を するための入力手段である。 たとえば、 画像表示部 1 0 4に表示されだ キーボードに対して、 リモートコン トローラ 3 2の矢印キーやボタン等 を用いて文字を入力する仮想キーボード等が含まれる。  The character input section 401 is an operation button 32b, such as an arrow key, provided on the remote controller 32, a keyboard, a handwritten character recognition device, and the like. This is an input means for specifying an object with a character string for. For example, a virtual keyboard for inputting characters using the arrow keys and buttons of the remote controller 32 with respect to the keyboard displayed on the image display unit 104 is included.
情報選択部 1 0 6 cは、 番組視聴終了後又は視聴中断後に、 時間情報 記憶部 2 0 1 に格納された時間情報が示す時刻を含む前後の映像ス トリ ーム、 音響ス トリーム及びその時刻に対応する番組付加情報を制御部 1 0 2 aから取得し、 その映像ス トリーム及び音響ス トリームを画像表示 部 1 0 4及び音響出力部 1 0 5に提示出力するとともに、 視聴者から文 字入力部 4 0 1 を介した文字入力を受け付け、 受け付けた文字列を言語 処理及び意味解析したうえで番組付加情報に記述された商品情報と照合 することで、 文字列に対応するオブジェク ト (視聴者が興味をもった商 品など) を特定し、 特定したオブジェク トを含む画像ショッ トを映像ス トリームから切リ出したリ、 オブジェク トに対応する商品情報を番組付 加情報から抽出したり し、 それら画像ショ ッ ト及ぴ商品情報等を、 選択 された情報と して、 送信部 1 0 8に送る。 The information selection unit 106c sets the video stream, the audio stream, and the time before and after the time including the time indicated by the time information stored in the time information storage unit 201 after the end of the program viewing or after the viewing is stopped. From the control unit 102a, the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105, and characters are input from the viewer. By accepting character input via the input unit 401, performing language processing and semantic analysis on the received character string, and collating it with the product information described in the program additional information, the object corresponding to the character string (viewing Products that the user is interested in), an image shot containing the identified object is cut out from the video stream, and product information corresponding to the object is attached to the program. The information is extracted from the additional information, and the image shot and the product information are transmitted to the transmission unit 108 as the selected information.
次に、 以上のように構成された本実施の形態における放送受信装置 4 0 0の動作について説明する。  Next, the operation of broadcast receiving apparatus 400 according to the present embodiment configured as described above will be described.
図 2 7は、 放送受信装置 4 0 0の動作手順を示すフローチャー トであ る。 図 2 8は、 視聴者と放送受信装置 4 0 0との対話の様子を示す図で る。  FIG. 27 is a flowchart showing the operation procedure of broadcast receiving apparatus 400. FIG. 28 is a diagram illustrating a dialogue between the viewer and the broadcast receiving device 400.
いま、 視聴者が、 図 2 8 ( a ) に示されるように、 番組視聴中に時間 選択入力部 1 0 3を用いて時間位置を選択したとする ( S 4 0 0 )。たと えば、 A俳優が出演する場面を見ていた視聴者が A俳優の着ている上着 が気に入つたので、 ぜひ、 友人に伝えたいと思い、 リモー トコン ト口一 ラ 3 2の付箋ボタン 3 2 a を押したとする。  Now, suppose that the viewer has selected a time position using the time selection input section 103 during program viewing as shown in FIG. 28 (a) (S400). For example, a viewer who was watching the scene where A actor appeared appeared to like the outerwear worn by A actor, so he wanted to tell his friend by all means. 2 Suppose you press a.
それに対して、 時間選択入力部 1 0 3から時間位置を選択する信号を 受信した制御部 1 0 2 aは、 その時刻を特定し、 時間情報と して時間情 報記憶部 2 0 1 に格納する (S 4 0 1 )。  On the other hand, the control unit 102a receiving the signal for selecting the time position from the time selection input unit 103 specifies the time and stores it in the time information storage unit 201 as time information. Yes (S401).
視聴者による番組の視聴が終了又は中断すると、 情報選択部 1 0 6 c は、 時間情報記憶部 2 0 1 に格納されている時間情報が示す時刻を含む 一定区間の映像ス トリ一ム及び音声ス トリームと、 その時刻に対応する 番組付加情報とを制御部 1 0 2 aから取得し、 その映像ス ト リーム及び 音声ス トリームを画像表示部 1 0 4及び音響出力部 1 0 5に提示出力す るとともに、 視聴者に対してオブジェク トを指定する文字列の入力を促 す ( S 4 0 2 )。  When the viewer finishes or stops watching the program, the information selection unit 106c sets the video stream and audio for a certain section including the time indicated by the time information stored in the time information storage unit 201. The stream and the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented and output to the image display unit 104 and the audio output unit 105. At the same time, the viewer is prompted to input a character string specifying the object (S402).
これに対して、 図 2 8 ( b ) に示される画面表示例のように、 視聴者 が文字入力部 4 0 1 を用いてオブジェク トを指定する文字列を入力する と ( S 4 0 3 )、 情報選択部 1 0 6 cは、 文字入力部 4 0 1 から入力され た文字列の言語処理及び意味解析を行い、 該当する番組付加情報を抽出 し ( S 4 0 4 )、 抽出した情報を送信情報と して送信部 1 0 8に送る。 た とえば、 付箋が貼られた時刻に対応する番組付加情報が図 1 2及び図 1 3に示されるコンテンッ情報であリ、 視聴者が Γ俳優 Aのジャケッ ト」 と入力した場合には、 情報選択部 1 0 6 cは、 入力された文字列を^態: 素に分解し、 個々の名詞と番組付加情報に記述された商品名等との文字 列比較をすることで、 「俳優」 と Γ Α」 と 「ジャケッ ト」 とが一致するォ ブジェク ト、 つまり、 Γ Α俳優の衣服」の中の「上着 Β」の商品である Γ F ジャケッ ト」 を視聴者が指定したと理解し、 Γ Fジャケッ ト」 に関する商 品情報を番組付加情報から抽出し、 送信部 1 0 8に送る。 On the other hand, as shown in the screen display example shown in FIG. 28 (b), when the viewer inputs a character string specifying an object using the character input section 401 (S403) The information selection unit 106c performs linguistic processing and semantic analysis of the character string input from the character input unit 401, and extracts the relevant program additional information. Then, the extracted information is sent to the transmission unit 108 as transmission information (S404). For example, if the program additional information corresponding to the time when the tag was attached is the content information shown in FIGS. 12 and 13, and the viewer inputs ΓJacket of actor A, The information selection unit 106c decomposes the input character string into ^ elements, and compares the character string between each noun and the product name etc. described in the program additional information to obtain an "actor". And Γ 視 聴 ”and“ jacket ”match, that is, the viewer understands that 指定 F jacket”, which is a product of “jacket Β” in Α Αactor's clothing ” Then, the product information relating to “F jacket” is extracted from the program additional information and sent to the transmitting unit 108.
そして、 送信部 1 0 8は、 図 2 8 ( c ) に示される画面表示例のよう に、 宛先データベース 1 0 9に登録されている宛先を読み出し、 送信先 リス トと して、画像表示部 1 0 4に一覧表示するとともに、視聴者から、 宛先入力部 1 1 0による送信先の選択又は入力を受け付ける(S 4 0 5 )。 宛先が決定されると、 送信部 1 0 8は、 情報選択部 1 0 6 cによって抽 出された画像ショ ッ 卜と音声ス トリームと番組付加情報とを、 決定され た宛先に向けて、 ネッ トワークを介して送信する (S 4 0 6 )。  Then, as shown in a screen display example shown in FIG. 28 (c), the transmission unit 108 reads out the destinations registered in the destination database 109 and sets the image display unit as a transmission destination list. A list is displayed in 104, and selection or input of a transmission destination by the destination input unit 110 is received from the viewer (S405). When the destination is determined, the transmission unit 108 sends the image shot, the audio stream, and the program additional information extracted by the information selection unit 106c to the determined destination, and sends the network to the determined destination. Transmission via the network (S406).
以上のように、 本実施の形態によれば、 視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を見つけたときにリモート コン トローラ 3 2の付箋ボタン 3 2 aを押すだけで、 その時間位置を一 時的に記憶させておく ことができる。 そして、 番組の終了あるいは中断 後に、 付箋を貼った映像に登場するォブジェク トを文字列で指定するこ とで、 視聴者は、 そのオブジェク 卜の詳細な情報と共に、 そのオブジェ ク トを含む画像ショ ッ ト等を第 3者に送信することができる。 したがつ て、 実施の形態 1 に比べ、 第 3者に送信する情報を、 文字列入力によつ て、 紹介したい物品に関する情報だけに絞り込むことができ、 より小さ いサイズの情報量で、 より的確に第 3者にメ ッセージを伝達することが できる。 As described above, according to the present embodiment, when a viewer finds an article to be introduced to a third party, a favorite product, or the like while watching a program, the tag button 3 2 of the remote controller 3 2 By simply pressing a, the time position can be temporarily stored. Then, after the program ends or is interrupted, the object appearing in the video with the tag attached is specified by a character string, so that the viewer can obtain detailed information of the object along with the image show including the object. Can be sent to a third party. Therefore, compared to the first embodiment, the information to be transmitted to the third party can be narrowed down to only the information about the article to be introduced by inputting a character string, and the information amount of a smaller size can be reduced. More accurately communicating messages to third parties it can.
(実施の形態 5 )  (Embodiment 5)
次に、 本発明の実施の形態 5における放送受信装置を説明する。 本実 施の形態における放送受信装置は、 視聴者が、 番組の時間位置だけでな く、 その時間位置の映像中に登場する物品を音声で指定し、 オブジェク ト単位での絞り込んだ商品情報を送信することができる点に特徴を有す る。 なお、 図 1 に示された放送システム 1 0の全体構成については、 本 実施の形態においても共通する。  Next, a broadcast receiving apparatus according to Embodiment 5 of the present invention will be described. In the broadcast receiving apparatus according to the present embodiment, the viewer specifies not only the time position of the program but also the articles appearing in the video at the time position by voice, and the product information narrowed down in units of objects is specified. The feature is that it can be transmitted. The overall configuration of the broadcasting system 10 shown in FIG. 1 is common to the present embodiment.
図 2 9は、 本実施の形態における放送受信装置 5 0 0、 つまり、 図 1 に示された放送受信装置 3 1 aの一実施例である放送受信装置 5 0 0の 詳細な構成を示す機能プロック図である。 この放送受信装置 5 0 0は、 受信した映像に対する視聴者による付箋の貼付及びその付箋に該当する 各種情報の外部への送信がオブジェク ト (ここでは、 番組に登場する商 品) 単位で可能なテレビ放送受信機であり、 放送受信部 1 0 1 、 制御部 1 0 2 a、 時間選択入力部 1 0 3、 画像表示部 1 0 4、 音響出力部 1 0 FIG. 29 is a diagram illustrating a detailed configuration of the broadcast receiving device 500 according to the present embodiment, that is, a broadcast receiving device 500 that is an example of the broadcast receiving device 31 a shown in FIG. It is a block diagram. The broadcast receiving apparatus 500 is capable of attaching a tag to a received video by a viewer and transmitting various information corresponding to the tag to an external device in units of objects (here, products appearing in a program). TV broadcast receiver, broadcast receiving unit 101, control unit 102a, time selection input unit 103, image display unit 104, sound output unit 10
5、 情報選択部 1 0 6 d、 送信部 1 0 8、 宛先データベース 1 0 9、 宛 先入力部 1 1 0、 時間情報記憶部 2 0 1 、 マイクロホン 5 0 1 及び音声 認識部 5 0 2から構成される。 5, Information selection unit 106 d, transmission unit 108, destination database 109, destination input unit 110, time information storage unit 201, microphone 501, and speech recognition unit 502 Be composed.
この放送受信装置 5 0 0は、 実施の形態 2における放送受信装置 2 0 0とほぼ同様の構成を備えるが、 実施の形態 2における情報選択部 1 0 The broadcast receiving apparatus 500 has almost the same configuration as the broadcast receiving apparatus 200 in the second embodiment, but the information selecting section 100 in the second embodiment.
6 a及び空間位置選択入力部 2 0 2に替えて、 情報選択部 1 0 6 d、 マ イク口ホン 5 0 1 及び音声認識部 5 0 2を備える点において、 実施の形 態 2と異なる。 以下、 実施の形態 2と異なる点を中心に説明する。 マイクロホン 5 0 1 は、 リモートコン トローラ 3 2に設けられたマイ クロホン 3 2 d等であり、 視聴者が発した音声を音声認識部 5 0 2に送 る。 音声認識部 5 0 2は、 マイク口ホン 5 0 1 に入力された視聴者の音声 を認識する音声認識装置等であり、 視聴者の音声を認識し、 言語処理及 び意味解析を行い、 その結果を情報選択部 1 0 6 dに送る。 Embodiment 6 differs from Embodiment 2 in that an information selection unit 106 d, a microphone phone 501, and a speech recognition unit 502 are provided instead of 6a and the spatial position selection input unit 202. Hereinafter, points different from the second embodiment will be mainly described. The microphone 501 is a microphone 32 d or the like provided in the remote controller 32, and sends the voice uttered by the viewer to the voice recognition unit 502. The voice recognition unit 502 is a voice recognition device or the like that recognizes the voice of the viewer input to the microphone-mouth phone 501, performs voice recognition of the viewer, performs language processing and semantic analysis. The result is sent to the information selection unit 106 d.
情報選択部 1 0 6 dは、 番組視聴終了後又は視聴中断後に、 時間情報 記憶部 2 0 1 に格納された時間情報が示す時刻を含む前後の映像ス トリ ーム、 音響ス トリーム及びその時刻に対応する番組付加情報を制御部 1 0 2 aから取得し、 その映像ス トリーム及び音響ス トリ一ムを画像表示 部 1 0 4及び音響出力部 1 0 5に提示出力するとともに、 音声認識部 5 0 2から送られてきた視聴者の音声の認識結果と番組付加情報に記述さ れた商品情報と照合することで、 視聴者が発した音声に対応するォブジ ェク ト (視聴者が興味をもった商品など) を特定し、 特定したオブジェ ク トを含む画像ショ ッ トを映像ス トリームから切り出したり、 オブジェ ク 卜に対応する商品情報を番組付加情報から抽出したり し、 それら画像 ショ ッ ト及び商品情報等を、 選択された情報と して、 送信部 1 0 8に送 る。  The information selection unit 106 d calculates the video stream, the audio stream, and the time before and after the time indicated by the time information stored in the time information storage unit 201 after the end of program viewing or after viewing interruption. From the control unit 102a, and presents and outputs the video stream and the audio stream to the image display unit 104 and the audio output unit 105, as well as the audio recognition unit. By matching the recognition result of the viewer's voice sent from 502 with the product information described in the program additional information, an object corresponding to the voice uttered by the viewer (interested by the viewer) Products, etc.), and cut out image shots containing the specified objects from the video stream, extract product information corresponding to the objects from the program additional information, and extract those image shots. Kit and product information Are transmitted to the transmitting unit 108 as the selected information.
次に、 以上のように構成された本実施の形態における放送受信装置 5 0 0の動作について説明する。  Next, the operation of broadcast receiving apparatus 500 according to the present embodiment configured as described above will be described.
図 3 0は、 放送受信装置 5 0 0の動作手順を示すフローチヤ一トであ る。 図 3 1 は、 視聴者と放送受信装置 5 0 0との対話の様子を示す図で ある。  FIG. 30 is a flowchart showing the operation procedure of broadcast receiving apparatus 500. FIG. 31 is a diagram showing a state of a dialogue between the viewer and the broadcast receiving device 500.
いま、 視聴者が、 図 3 1 ( a ) に示されるように、 番組視聴中に時間 選択入力部 1 0 3を用いて時間位置を選択したとする ( S 5 0 0 )。 たと えば、 A俳優が出演する場面を見ていた視聴者が A俳優の着ている上着 が気に入つたので、 ぜひ、 友人に伝えたいと思い、 リモートコン トロー ラ 3 2の付箋ボタン 3 2 aを押したとする。  Now, suppose that the viewer has selected a time position using the time selection input section 103 during program viewing, as shown in FIG. 31 (a) (S500). For example, a viewer watching the scene in which A actor appeared appears to like the outerwear worn by A actor, and wants to tell a friend by all means. Sticky button 3 2a on remote controller 32 Suppose you press.
それに対して、 時間選択入力部 1 0 3から時間位置を選択する信号を 受信した制御部 1 0 2 aは、 その時刻を特定し、 時間情報と して時間情 報記憶部 2 0 1 に格納する (S 5 0 1 )。 On the other hand, the signal for selecting the time position is input from the time selection input section 103. The control unit 102a that has received the time specifies the time, and stores it in the time information storage unit 201 as time information (S501).
視聴者による番組の視聴が終了又は中断すると、 情報選択部 1 0 6 d は、 時間情報記憶部 2 0 1 に格納されている時間情報が示す 0Φ刻を含む 一定区間の映像ス ト リーム及び音声ス ト リームと、 その時刻に対応する 番組付加情報とを制御部 1 0 2 aから取得し、 その映像ス トリーム及び 音声ス ト リームを画像表示部 1 0 4及び音響出力部 1 0 5に提示出力す るとともに、 視聴者に対してオブジェク トを指定する音声の入力を促す ( S 5 0 2 )。  When the viewer finishes or interrupts the viewing of the program, the information selection unit 106 d sets the video stream and audio of a certain section including the 0Φ increment indicated by the time information stored in the time information storage unit 201. The stream and the program additional information corresponding to the time are acquired from the control unit 102a, and the video stream and the audio stream are presented to the image display unit 104 and the audio output unit 105. In addition to the output, the viewer is prompted to input a voice for designating the object (S502).
これに対して、 図 3 1 ( b ) に示される画面表示例のように、 視聴者 がマイクロホン 5 0 1 に向かってオブジェク トを指定する音声を発する と ( S 5 0 3 )、 音声認識部 5 0 2は、 マイクロホン 5 0 1 に入力された 音声の認識、 言語処理及び意味解析を行い、 その認識結果に基づいて、 情報選択部 1 0 6 dは、 該当する番組付加情報を抽出し ( S 5 0 4 )、 抽 出した情報を送信情報と して送信部 1 0 8に送る。 たとえば、 付箋が貼 られた時刻に対応する番組付加情報が図 1 2及び図 1 3に示されるコン テンッ情報であり、 視聴者が 「俳優 Aのジャケッ ト J と発話した場合に は、 音声認識部 5 0 2は、 入力された音声を認識し、 形態素に分解し、 個々の名詞と番組付加情報に記述された商品名等との比較をすることで、 「俳優 j と Γ A」 と Γジャケッ ト」 とが一致するォブジェク ト、 つまり、 Γ A俳優の衣服」 の中の 「上着 B J の商品である Γ Fジャケッ ト」 を視 聴者が指定したと理解し、 Γ Fジャケッ ト」 に関する商品情報を番組付加 情報から抽出し、 送信部 1 0 8に送る。  On the other hand, as shown in the screen display example shown in FIG. 31 (b), when the viewer utters a voice specifying the object toward the microphone 501 (S503), the voice recognition unit 502 performs recognition, language processing, and semantic analysis of the voice input to the microphone 501, and based on the recognition result, the information selection unit 106d extracts the corresponding program additional information ( S504), the extracted information is sent to the transmission unit 108 as transmission information. For example, the program additional information corresponding to the time when the tag was attached is the content information shown in FIGS. 12 and 13, and when the viewer utters "Jacket J of actor A, the voice recognition The unit 502 recognizes the input speech, breaks it down into morphemes, and compares each noun with the product name etc. described in the additional information of the program, so that “actors j and ΓA” and Γ It is understood that the viewer has specified the object that matches the “jacket”, that is, “the jacket of the outerwear BJ Γ F jacket” in ΓA actor's clothing, and に 関 す るThe product information is extracted from the program additional information and sent to the transmission unit 108.
そして、 送信部 1 0 8は、 図 3 1 ( c ) に示される画面表示例のよう に、 宛先データベース 1 0 9に登録されている宛先を読み出し、 送信先 リス トと して、画像表示部 1 0 4に一覧表示するとともに、視聴者から、 宛先入力部 1 1 0による送信先の選択又は入力を受け付ける(S 5 0 5 )。 宛先が決定されると、 送信部 1 0 8は、 情報選択部 1 0 6 dによつて抽 出された画像シヨ ッ トと音声ス 卜リームと番組付加情報とを、 決定され た宛先に向けて、 ネッ トワークを介して送信する (S 5 0 6 )。 Then, the transmission unit 108 reads out the destinations registered in the destination database 109 as shown in a screen display example shown in FIG. 31 (c), and sets the image display unit as a transmission destination list. Listed in 104, and from viewers, The selection or input of the transmission destination by the destination input unit 110 is accepted (S550). When the destination is determined, the transmission unit 108 directs the image shot, audio stream, and program additional information extracted by the information selection unit 106 d to the determined destination. And sends it via the network (S506).
以上のように、 本実施の形態によれば、 視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を見つけたときにリモート コン トローラ 3 2の付箋ポタン 3 2 aを押すだけで、 その時間位置を一 時的に記憶させておく ことができる。 そして、 番組の終了あるいは中断 後に、 付箋を貼った映像に登場するォブジェク トを音声で指定すること で、 視聴者は、 そのオブジェク 卜の詳細な情報と共に、 そのオブジェク トを含む画像ショ ッ ト等を第 3者に送信することができる。したがって、 実施の形態 1 に比べ、 放送受信装置 5 0 0に向かって簡単な発話をする だけで、 第 3者に送信する情報を、 紹介したい物品に関する情報だけに 絞り込むことができ、 簡単な処理で、 より的確に第 3者にメ ッセージを 伝達することができる。  As described above, according to the present embodiment, when a viewer finds an article to be introduced to a third party, a favorite product, or the like while watching a program, a sticky note button 32 of the remote controller 32 is used. By simply pressing a, the time position can be temporarily stored. Then, after the program ends or is interrupted, the object appearing in the video with the sticky note is specified by audio, so that the viewer can obtain detailed information of the object and an image shot including the object. Can be sent to a third party. Therefore, as compared with the first embodiment, the information to be transmitted to the third party can be narrowed down to only the information on the article to be introduced by simply giving a simple utterance toward the broadcast receiving apparatus 500, and the processing is simple. Thus, the message can be more accurately transmitted to a third party.
(実施の形態 6 )  (Embodiment 6)
次に、 本発明の実施の形態 6における放送受信装置を説明する。 本実 施の形態における放送受信装置は、 視聴者が、 自らの音声によって、 番 組の時間位置とその時間位置の映像中に登場する物品とを同時に指定し、 オブジェク ト単位での絞り込んだ商品情報を送信することができる点に 特徴を有する。 なお、 図 1 に示された放送システム 1 0の全体構成につ いては、 本実施の形態においても共通する。  Next, a broadcast receiving apparatus according to Embodiment 6 of the present invention will be described. In the broadcast receiving apparatus according to the present embodiment, the viewer designates the time position of the program and the article appearing in the video at the time position at the same time by his / her own sound, and the product is narrowed down on an object basis. The feature is that information can be transmitted. The overall configuration of broadcast system 10 shown in FIG. 1 is common to the present embodiment.
図 3 2は、 本実施の形態における放送受信装置 6 0 0、 つまり、 図 1 に示された放送受信装置 3 1 aの一実施例である放送受信装置 6 0 0の 詳細な構成を示す機能ブロック図である。 この放送受信装置 6 0 0は、 受信した映像に対する視聴者による付箋の貼付及びその付箋に該当する 各種情報の外部への送信がオブジェク ト (ここでは、 番組に登場する商 品) 単位で可能なテレビ放送受信機であり、 放送受信部 1 0 1 、 制御部 1 0 2 b、画像表示部 1 0 4、音響出力'部 1 0 5、情報選択部 1 0 6 e、 送信部 1 0 8、 宛先データベース 1 0 9、 宛先入力部 1 1 O a、 マイク 口ホン 6 0 1 、 音声認識部 6 0 2及び時間 '認識結果テーブル記憶部 6 0 3から構成される。 FIG. 32 is a diagram illustrating a detailed configuration of the broadcast receiving apparatus 600 according to the present embodiment, that is, a broadcast receiving apparatus 600 that is an example of the broadcast receiving apparatus 31 a shown in FIG. It is a block diagram. This broadcast receiving apparatus 600 corresponds to the attachment of a tag to a received video by a viewer and the tag. It is a television broadcast receiver that can transmit various types of information to the outside on an object (in this case, a product that appears in a program) unit. Broadcast receiver 101, controller 102b, image display 1 04, sound output section 105, information selection section 106 e, transmission section 108, destination database 109, destination input section 110a, microphone / mouthphone 611, voice recognition section 6 0 2 and time 'recognition result table storage section 63.
この放送受信装置 6 0 0は、 実施の形態 1 における放送受信装置 1 0 0とほぼ同様の構成を備えるが、 実施の形態 1 における時間選択入力部 1 0 3及び送信情報記憶部 1 0 7に替えて、 マイクロホン 6 0 1 、 音声 認識部 6 0 2及び時間 ■ 認識結果テーブル記憶部 6 0 3を備える点、 及 び、 実施の形態 1 における制御部 1 0 2、 情報選択部 1 0 6及び宛先入 力部 1 1 0に替えて、 機能が簡素化された制御部 1 0 2 b、 機能が追加 された情報選択部 1 0 6 e及び機能が追加された宛先入力部 1 1 0 aを 備える点において、 実施の形態 1 と異なる。 以下、 実施の形態 1 と同様 の構成要素には同一の符号を付し、 その説明を省略し、 異なる点を中心 に説明する。  The broadcast receiving apparatus 600 has substantially the same configuration as the broadcast receiving apparatus 100 in the first embodiment, but has a time selection input section 103 and a transmission information storage section 107 in the first embodiment. Instead, a microphone 61, a voice recognition unit 602 and time ■ a point including a recognition result table storage unit 603, and a control unit 102, an information selection unit 106 in the first embodiment, Instead of the destination input unit 110, a simplified control unit 102b, an information selection unit 106e with added functions, and a destination input unit 110a with added functions It differs from the first embodiment in that it is provided. Hereinafter, the same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted.
制御部 1 0 2 bは、 実施の形態 1 の制御部 1 0 2が備える機能から時 間選択入力部 1 0 3に対する処理を除外したものに相当する。 つまり、 放送受信部 1 0 1 が受信した番組内容 (映像 ·音響ス ト リーム) を一時 的に蓄積したリ、 情報選択部 1 0 6 eからの要求に応じて、 蓄積してい る番組内容及び番組付加情報を情報選択部 1 0 6 eに送ったり、 視聴者 と対話するために各構成要素を制御したりする。  The control unit 102 b corresponds to the function of the control unit 102 according to the first embodiment except for the processing for the time selection input unit 103. In other words, the program contents (video / audio stream) received by the broadcast receiving unit 101 are temporarily stored, and the program contents and the stored program contents are requested in response to a request from the information selecting unit 106 e. It sends program ancillary information to the information selection unit 106 e and controls each component to interact with the viewer.
マイクロホン 6 0 1 は、 リモー トコン トローラ 3 2に設けられマイク 口ホン 3 2 d等であり、視聴者が発した音声を音声認識部 6 0 2に送る。 音声認識部 6 0 2は、 マイクロホン 6 0 1から視聴者の音声が送られ てく ると、 そのときの時刻 (タイムスタンプ) を記録するとともに、 送 られてきた音声を認識する音声認識装置等であり、 視聴者の音声を認識 し、言語処理及び意味解析を行い、その認識結果を示す認識結果情報と、 記録した時刻を示す時間情報とを対にして時間 ■ 認識結果テーブル記憶 部 6 0 3に格納する。 The microphone 601 is a microphone microphone 3 2d or the like provided in the remote controller 32, and sends the voice uttered by the viewer to the voice recognition unit 602. When the voice of the viewer is transmitted from the microphone 601, the voice recognition unit 602 records the time (time stamp) at that time and transmits the voice. A speech recognition device or the like that recognizes the received speech, recognizes the viewer's speech, performs language processing and semantic analysis, and pairs recognition result information indicating the recognition result with time information indicating the recorded time. The time is stored in the recognition result table storage unit 603.
時間 . 認識結果テーブル記憶部 6 0 3は、 音声認識部 6 0 2から送ら れてく る認識結果情報及び時間情報を一時的に記憶するメモリ等であり、 例えば、 図 3 3に示されるように、 認識結果情報と時間情報とを対にし て格納したデータ構造を有する。  The time and recognition result table storage unit 603 is a memory or the like for temporarily storing the recognition result information and the time information sent from the speech recognition unit 602, for example, as shown in FIG. It has a data structure in which recognition result information and time information are stored in pairs.
情報選択部 1 0 6 eは、 番組視聴終了後又は視聴中断後に、 時間 ■ 認 識結果テーブル記憶部 6 0 3に格納された時間情報及び認識結果情報を 読み出し、 読み出した時間情報が示す時刻を含む前後の番組付加情報を 制御部 1 0 2 bから取得する。 そして、 取得した番組付加情報から、 認 識結果情報に対応する商品情報を抽出し、 抽出した商品情報を画像表示 部 1 0 4に提示出力することによって、 視聴者による確認を促し、 確認 を得た場合に、 その商品情報を含む画像ショ ッ ト及び音声を制御部 1 0 2 bから読み出し、 それら商品情報、 画像ショ ッ ト及び音声を送信部 1 0 8に送る。  The information selection unit 106 e reads the time information and the recognition result information stored in the recognition result table storage unit 603 after the end of program viewing or after the viewing is stopped, and sets the time indicated by the read time information. The program additional information before and after that is obtained from the control unit 102b. Then, from the acquired program additional information, product information corresponding to the recognition result information is extracted, and the extracted product information is presented and output to the image display unit 104, thereby prompting the viewer to confirm, and obtaining the confirmation. In this case, the image shot and the sound including the product information are read from the control unit 102b, and the product information, the image shot, and the sound are sent to the transmission unit 108.
宛先入力部 1 1 O aは、 視聴者が、 送信情報の宛先を宛先データべ一 ス 1 0 9の中から選択したり、 送信情報の宛先を直接入力したりするた めの入力手段であり、リモ一 トコン トロ一ラ 3 2等のボタンだけでなく、 リモー トコン トロ一ラ 3 2に備えられたマイクロホン 3 2 d及びそのマ イク口ホン 3 2 dに入力された音声に対する認識処理装置等も含まれる。 次に、 以上のように構成された本実施の形態における放送受信装置 6 0 0の動作について説明する。  The destination input section 11 Oa is an input means for the viewer to select a destination of transmission information from the destination database 109 and directly input a destination of transmission information. Not only the buttons of the remote controller 32, etc., but also the microphone 32d provided in the remote controller 32 and a recognition processing device for the voice inputted to the microphone mouthphone 32d. Is also included. Next, the operation of broadcast receiving apparatus 600 thus configured according to the present embodiment will be described.
図 3 4は、 放送受信装置 6 0 0の動作手順を示すフローチャー トであ る。 図 3 5は、 視聴者と放送受信装置 6 0 0との対話の様子を示す図で ある。 FIG. 34 is a flowchart showing the operation procedure of broadcast receiving apparatus 600. FIG. 35 shows a dialogue between the viewer and the broadcast receiver 600. is there.
いま、 視聴者が、 図 3 5 ( a ) に示されるように、 番組視聴中に、 番 組に登場したオブジェク 卜の名前を含む音声を発したとする(S 6 0 0 )。 たとえば、 A俳優が出演する場面を見ていた視聴者が A俳優の着ている 赤いジャケッ トが気に入つたので、 ぜひ、 友人に伝えたいと思い、 リモ 一トコン トロ一ラ 3 2の近くで、「すてきなジャケッ ト」 と発話したとす る。  Now, suppose that the viewer utters a sound including the name of the object that appeared in the program while watching the program as shown in FIG. 35 (a) (S600). For example, a viewer watching the scene where A actor appeared appeared to like the red jacket worn by A actor, so I really wanted to tell a friend, and near the remote control controller 32, Suppose you say "nice jacket".
すると、 その音声は、 マイクロホン 6 0 1 を介して音声認識部 6 0 2 に入力され、 音声認識部 6 0 2は、 その音声が入力された時刻を記録す るとともに、 その音声の認識処理を行い ( S 6 0 1 )、 その認識結果を示 す認識結果情報と、 記録した時刻を示す時間情報とを対にして時間 ■ 認 識結果テーブル記憶部 6 0 3に格納する ( S 6 0 2 )。  Then, the voice is input to the voice recognition unit 602 via the microphone 601, and the voice recognition unit 602 records the time at which the voice was input, and performs the voice recognition process. Then, the recognition result information indicating the recognition result and the time information indicating the recording time are paired and stored in the recognition result table storage unit 603 (S 602). ).
視聴者による番組の視聴が終了又は中断すると、 情報選択部 1 0 6 e は、 時間 ■ 認識結果テーブル記憶部 6 0 3に格納された時間情報及び認 識結果情報を読み出し、 読み出した時間情報が示す時刻を含む前後の番 組付加情報を制御部 1 0 2 bから取得した後に、 認識結果情報の言語処 理及び意味解析を行い、 取得した番組付加情報から、 認識結果情報に対 応ずる商品情報を抽出する(S 6 0 3 )。そして、情報選択部 1 0 6 eは、 図 3 5 ( b ) に示される画面表示例のように、 抽出した商品情報を画像 表示部 1 0 4に提示出力し、 視聴者に対して確認及び送信先の発話を促 す。  When the viewing of the program by the viewer ends or is interrupted, the information selection unit 106 e reads out the time information and the recognition result information stored in the recognition result table storage unit 603. After acquiring the additional information before and after the program including the indicated time from the control unit 102b, it performs linguistic processing and semantic analysis of the recognition result information, and from the acquired program additional information, the product information corresponding to the recognition result information Is extracted (S603). Then, the information selection unit 106 e presents and outputs the extracted product information to the image display unit 104 as shown in the screen display example shown in FIG. Prompts the utterance of the destination.
これに対して、 視聴者が、 興味をもった商品が表示されたことを確認 した後に、宛先入力部 1 1 0 aによる送信先の選択又は入力をすると( S 6 0 4 )、送信部 1 0 8からその旨の通知を受けた情報選択部 1 0 6 eは、 提示した商品情報を含む画像ショ ッ ト及び音声を制御部 1 0 2 bから読 み出し、 商品情報とともに、 送信情報と して送信部 1 0 8に送る。 そし て、 送信部 1 0 8は、 それら送信情報を、 視聴者によつて指定された宛 先に向けて、 ネッ トワークを介して送信する (S 6 0 5 )。 On the other hand, when the viewer confirms that the product of interest is displayed, and then selects or inputs a destination using the destination input unit 110a (S604), the transmitting unit 1 The information selection unit 106 e, which has received the notification from 08, reads the image shot and sound including the presented product information from the control unit 102b, and transmits And send it to the sending unit 108. Soshi Then, the transmitting unit 108 transmits the transmission information to the destination specified by the viewer via the network (S 605).
たとえば、 視聴者が 「それ、 Bさんに送る」 と発話すると、 その音声 が宛先入力部 1 1 0 aによって音声認識された後に、 送信部 1 0 8によ つて、 宛先データベース 1 0 9が参照されて Γ Bさん」 の宛先が特定さ れ、 その Γ Βさん」 に向けて商品情報等が送信される。  For example, when the viewer speaks, "Send it to Mr. B", the speech is recognized by the destination input unit 110a, and then the destination database 109 is referred to by the transmission unit 108. Then, the destination of “Mr. B” is specified, and the product information and the like are transmitted to the “Mr.
図 3 6は、 視聴者と放送受信装置 6 0 0との対話処理に関して、 図 3 4に示されたフローチヤ一 トをより詳細化したものである。 本図の左側 ,には、 放送受信装置 6 0 0の動作の流れが示され、 本図の右側には、 視 聴者の動作の流れが対応するように示されている。  FIG. 36 shows the flowchart of FIG. 34 in more detail with respect to the interaction processing between the viewer and the broadcast receiving device 600. On the left side of the figure, the operation flow of the broadcast receiving device 600 is shown, and on the right side of the figure, the operation flow of the viewer is shown correspondingly.
視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商 品等を見つけると、 リモー トコン トローラ 3 2等に備えられたマイクロ ホン 3 2 d ( 6 0 1 ) に向かって、 その対象商品を特定する発話を行う ( S 6 2 0 )。 これに対して、 音声認識部 6 0 2は、 発話された時刻を特 定するとともに、 発話された音声の認識処理を行い、 その時刻と認識結 果とを時間情報及び認識結果情報と して時間 ■ 認識結果テーブル記憶部 6 0 3に格納する (S 6 1 0)。  When the viewer finds an article to introduce to a third party or a favorite product while watching the program, the viewer goes to the microphone 3 2d (601) provided in the remote controller 32 or the like. Then, an utterance for specifying the target product is made (S620). On the other hand, the speech recognition unit 602 identifies the uttered time, performs recognition processing on the uttered speech, and uses the time and the recognition result as time information and recognition result information. Time ■ Stored in the recognition result table storage unit 603 (S610).
視聴者による番組の視聴が終了又は中断すると ( S 6 2 1 )、情報選択 部 1 0 6 eは、 時間 ■ 認識結果テーブル記憶部 6 0 3に格納された時間 情報及び認識結果情報を読み出し、 読み出した時間情報が示す時刻を含 む前後の番組付加情報を制御部 1 0 2 bから取得した後に、 認識結果情 報の言語処理及び意味解析を行い、 取得した番組付加情報から、 認識結 果情報に対応するオブジェク ト (商品情報) を抽出し (S 6 1 1 ) し、 画像表示部 1 0 4に提示出力するとともに、 視聴者に対して確認と送信 先の発話を促す ( S 6 1 2 )。  When the viewing of the program by the viewer ends or is interrupted (S 6 21), the information selection unit 106 e reads the time information and the recognition result information stored in the recognition result table storage unit 603. After acquiring from the control unit 102b the program additional information before and after including the time indicated by the read time information, the recognition result information is subjected to language processing and semantic analysis, and the recognition result is obtained from the acquired program additional information. The object (product information) corresponding to the information is extracted (S611), presented and output to the image display unit 104, and the viewer is urged to confirm and utter the destination (S61). 2).
この提示に対して、 視聴者は、 自分が発話したオブジェク トの確認映 像を視聴し ( S 6 2 2 )、 その映像中に第 3者に紹介したい物があるか否 かを確認し ( S 6 2 3 )、 もし、 第 3者に紹介したい物を見つけた場合に は ( S 6 2 3で Y e s )、 リモートコントローラ 3 2に備えられたマイク 口ホン等の宛先入力部 1 1 0 aに向かって、「それ Bさんに送る」等第 3 者への送信を指示する発話を行う ( S 6 2 4 )。 In response to this presentation, viewers see a confirmation screen of the object they uttered. Watch the image (S622), check whether there is something you want to introduce to the third person in the video (S622), and if you find something you want to introduce to the third party (Yes in S623), send to a third party, such as "Send it to Mr. B", to the destination input section 110a such as a microphone and a microphone provided in the remote controller 32. (S 6 2 4).
—方、 送信部 1 0 8は、 視聴者から送信先を指定する指示があつたか 否か監視し( S 6 1 3 )、視聴者による送信先の指定があった場合には( S 6 1 3で Y e s )、 その旨を情報選択部 1 0 6 eに通知する。その通知を 受けた情報選択部 1 0 6 eは、 映像 ■ 音響ス 卜リームを制御部 1 0 2 b から読み出した後に、 そのオブジェク トを含む区間を切り出し ( S 6 1 4 )、 切り出した映像ス トリーム (画像ショ ッ ト等) と、 オブジェク 卜の 時空間内配置の数値を修正し、 最終的に選択されたォブジェク 卜のコン テンッ情報とを組み合わせて (S 6 1 5 )、 送信情報と して、 送信部 1 0 8に送る。  On the other hand, the transmission unit 108 monitors whether or not the viewer has given an instruction to specify the transmission destination (S613), and if the transmission destination is specified by the viewer (S61). (Yes in 3), and notifies the information selection unit 106 e of this. Upon receiving the notification, the information selection unit 106 e reads out the video ■ sound stream from the control unit 102 b, cuts out a section including the object (S 614), and cuts out the video. The stream (image shot, etc.) and the numerical value of the space-time layout of the object are corrected, and the content information of the finally selected object is combined (S615), and the transmission information and And sends it to the transmission unit 108.
図 3 7は、 本実施の形態においてオブジェク 卜が特定される原理を示 す図である。 視聴者は、 番組の視聴中に、 第 3者に送信したいオブジェ ク トを発見したときに、 そのオブジェク トを特定する音声を発すること によって、 番組の映像ス トリームへの付箋の貼付とオブジェク トの特定 とを同時にすることができる。 つまり、 番組の視聴中においては、 発話 した時刻によって (タイムスタンプ処理によって)、 リアルタイムに、 映 像ス トリーム中の時間位置が特定され、 番組の終了後において、 番組視 聴中に発話した音声に対する音声認識によって、 さらに絞り込んだォブ ジェク ト単位での特定が行われる。 これによつて、 一度の発話だけで、 時間位置の指定と空間位置の指定 (オブジェク トの特定) とが同時に行 われることになる。  FIG. 37 is a diagram illustrating the principle of specifying an object in the present embodiment. When a viewer finds an object to be transmitted to a third party while watching a program, the viewer emits a sound identifying the object, thereby attaching a sticky note to the video stream of the program and displaying the object. Can be specified at the same time. In other words, while watching a program, the time position in the video stream is specified in real time by the time of speech (by time stamp processing), and after the program is over, the time position of the speech spoken during program viewing is determined. Speech recognition enables further narrowing down to specific objects. Thus, the designation of the time position and the designation of the spatial position (identification of the object) are performed simultaneously with only one utterance.
以上のように、 本実施の形態によれば、 視聴者は、 番組の視聴中に、 第 3者に紹介したい物品や気に入った商品等を見つけたときに、 その商 品を特定する発話をするだけで、 番組に対して、 付箋を貼っておくよう に、 その時間位置と商品とを一時的に記憶させておく ことができる。 そ して、 番組の終了あるいは中断後に、 自分が付箋を貼った映像を確認し た後に、 発話等によって送信先を指定することで、 その商品の情報とと もに、 その商品が登場する画像ショ ッ ト等を第 3者に送信することがで きる。 したがって、 実施の形態 1 に比べ、 放送受信装置 6 0 0に向かつ て簡単な発話をするだけで第 3者に送信したいオブジェク トについての 番組上での時間位置とオブジェク 卜とを同時に指定することができ、 簡 単な操作で、 より的確に第 3者にメ ッセージを伝達することができる。 以上、 本発明に係る番組受信装置について、 実施の形態 1 〜 6に基づ いて説明したが、 本発明は、 これら実施の形態に限定されるものではな い。 As described above, according to the present embodiment, the viewer, while watching the program, When you find an article you want to introduce to a third party or find a product you like, just say a utterance that identifies the product, and put the time position and the product on a sticky note on the program. It can be stored temporarily. After the end or interruption of the program, after checking the video on which the user has attached a sticky note, by specifying the destination by utterance, etc., the image of the product appears along with the product information. Shots can be sent to a third party. Therefore, as compared with the first embodiment, the time position on the program and the object of the object to be transmitted to the third party by simply uttering the broadcast receiving apparatus 600 at the same time are specified at the same time. The message can be transmitted to a third party more accurately with simple operations. As described above, the program receiving apparatus according to the present invention has been described based on Embodiments 1 to 6, but the present invention is not limited to these embodiments.
たとえば、 実施の形態 1 〜 6の放送受信装置それぞれが備える機能を 任意に組み合わせることで、 複数の方法による付箋の貼り付けが可能な 多機能な放送受信装置を構成してもよい。 その具体的な例を以下に説明 する。  For example, by arbitrarily combining the functions of the broadcast receiving apparatuses according to the first to sixth embodiments, a multi-functional broadcast receiving apparatus capable of attaching a tag by a plurality of methods may be configured. Specific examples are described below.
図 3 8は、 実施の形態 1 〜 6の放送受信装置が備える機能を併せ持つ 1 つの放送受信装置 7 0 0を示す図である。この放送受信装置 .7 0 0は、 放送受信部 7 0 1 、 放送データ蓄積部 7 0 2、 ボタン入力部 7 0 3、 音 声入力部 7 0 4、 ポインティングデバイス 7 0 5、 画像表示部 7 0 6、 音響出力部 7 0 7、 制御部 7 1 0、 映像音声信号処理部 7 1 1 、 付箋処 理部 7 1 2、 音声認識部 7 1 3、 送信部 7 1 4、 宛先データベース 7 1 5及び宛先決定部 7 1 6から構成される。  FIG. 38 is a diagram illustrating one broadcast receiving device 700 having functions of the broadcast receiving devices according to the first to sixth embodiments. The broadcast receiving device 700 has a broadcast receiving unit 701, a broadcast data storage unit 702, a button input unit 703, an audio input unit 704, a pointing device 705, and an image display unit 7. 06, sound output unit 707, control unit 710, video / audio signal processing unit 711, tag processing unit 712, voice recognition unit 713, transmission unit 714, destination database 711 5 and a destination determination unit 7 16.
放送受信部 7 0 1 は、 上記実施の形態における放送受信部 1 0 1 に相 当し、 放送データ蓄積部 7 0 2は、 上記実施の形態における制御部 1 0 2、 1 0 2 a , 1 0 2 bが内蔵する記憶部に相当し、 ポタン入力部 7 0 3及びポインティングデバイス 7 0 5は、 上記実施の形態における時間 選択入力部 1 0 3及び宛先入力部 1 1 0に相当し、音声入力部 7 0 4は、 上記実施の形態におけるマイク口ホン 5 0 1 、 6 0 1 に相当し、 画像表 示部 7 0 6は、 上記実施の形態における画像表示部 1 0 4に相当し、 音 響出力部 7 0 7は、上記実施の形態における音響出力部 1 0 5に相当し、 制御部 7 1 0及び映像音声信号処理部 7 1 1 は、 上記実施の形態におけ る制御部 1 0 2、 1 0 2 a 、 1 0 2 b及びその信号処理機能に相当する。 付箋処理部 7 1 2において、 付箋情報記憶部 7 1 2 aは、 上記実施の 形態における時間情報記憶部 2 0 1 、 送信情報記憶部 1 0 7及び時間 - 認識結果テーブル記憶部 6 0 3に相当し、 情報選択部 7 1 2 bは、 上記 実施の形態における情報選択部 1 0 6、 1 0 6 b、 1 0 6 c、 1 0 6 d 、 1 0 6 eが備える機能を併せ持つ処理部であり、 音声認識部 7 1 3は、 上記実施の形態における音声認識部 5 0 2、 音声認識部 6 0 2及び宛先 入力部 1 1 0 aの音声認識機能に相当し、 送信部 7 1 4は上記実施の形 態における送信部 1 0 8に相当し、 宛先データベース 7 1 5は、 上記実 施の形態における宛先データベース 1 0 9に相当し、 宛先決定部 7 1 6 は、上記実施の形態における宛先入力部 1 1 0及び 1 1 0 aに相当する。 この放送受信装置 7 0 0の付箋処理部 7 1 2は、 予め設定された動作 モードに従って、 番組に登場するオブジェク トの特定 (付箋の貼り付け 処理) を行う。 例えば、 図 3 9のテーブルに示されるように、 動作モー ド 「 1 」 が設定されている場合には、 付箋の時間位置については、 ボタ ン入力部 7 0 3、 音声入力部 7 0 4及ぴポインティングデバイス 7 0 5 のいずれかによる所定の入力によって決定し、 その時間位置の画像にお けるオブジェク トについては、 番組付加情報に登録されている全てを自 動検索することによって特定する。 また、 動作モード Γ 2」 では、 空間 位置をボタン入力部 7 0 3及びポインティングデバイス 7 0 5によって 特定し、 動作モード 「 3」 では、 特定された時間位置の映像に含まれる オブジェク 卜のリス トを表示し、 それに対してボタン入力部 7 0 3及び ポインティングデバイス 7 0 5によってオブジェク トを特定し、 動作モ — ド 「 4」 では、 ボタン入力部 7 0 3及びポインティングデバイス 7 0 5を用いた文字列入力によってオブジェク トを特定し、 動作モ一 ド Γ 5」 では、 音声入力部 7 0 4に入力された音声によってォブジヱク トを特定 し、 動作モード 「 6」 では、 音声入力部 7 0 4に入力された音声によつ て時間位置と空間位置 (オブジェク ト) とを同時に特定する。 The broadcast receiving unit 701 corresponds to the broadcast receiving unit 101 in the above embodiment, and the broadcast data storage unit 702 is the control unit 10 in the above embodiment. 2, 102 a and 102 b correspond to a built-in storage unit, and the button input unit 703 and the pointing device 705 are the time selection input unit 103 and the destination input unit in the above embodiment. 110, the voice input unit 704 corresponds to the microphone microphones 501, 601 in the above embodiment, and the image display unit 706 corresponds to the image display in the above embodiment. The sound output unit 707 corresponds to the sound output unit 105 in the above embodiment, and the control unit 710 and the video / audio signal processing unit 711 correspond to the above embodiment. Control unit 102, 1022a, 102b and its signal processing function in the embodiment. In the tag processing section 7 12, the tag information storage section 7 12 a stores the time information storage section 201, the transmission information storage section 107, and the time-recognition result table storage section 60 3 in the above embodiment. Correspondingly, the information selection unit 712 b is a processing unit having the functions of the information selection units 106, 106b, 106c, 106d, and 106e in the above embodiment. The voice recognition unit 711 corresponds to the voice recognition function of the voice recognition unit 502, the voice recognition unit 602, and the destination input unit 110a in the above embodiment, and the transmission unit 714 Corresponds to the transmitting section 108 in the above embodiment, the destination database 715 corresponds to the destination database 109 in the above embodiment, and the destination determining section 716 corresponds to the above embodiment. Correspond to the destination input sections 110 and 110a. The tag processing unit 712 of the broadcast receiving device 700 specifies an object appearing in the program (sticking process of a tag) according to a preset operation mode. For example, as shown in the table of FIG. 39, when the operation mode “1” is set, the time position of the sticky note is determined by the button input section 703, the voice input section 704, and the like.決定 Determined by a predetermined input from one of the pointing devices 705, and the object in the image at that time position is specified by automatically searching for all objects registered in the program additional information. In operation mode Γ2, The position is specified by the button input unit 703 and the pointing device 705, and in the operation mode “3”, a list of objects included in the video at the specified time position is displayed, and the button input unit An object is specified by the input device 703 and the pointing device 705. In the operation mode “4”, the object is specified by inputting a character string using the button input unit 703 and the pointing device 705. In the operation mode “5”, an object is specified by the sound input to the audio input unit 704, and in the operation mode “6”, the time is determined by the sound input to the audio input unit 704. The position and the spatial position (object) are specified at the same time.
このような構成を備える放送受信装置 7 0 0によれば、.視聴者は、 付 箋の貼付方法に関して、 予め、 6種類のユーザインタ一フェース (動作 モード) の中から所望のモードを選択して設定しておく ことで、 自分に 合った方法で、 番組視聴中に付箋を貼り付け、 その情報を第 3者に送信 することができる。  According to the broadcast receiving apparatus 700 having such a configuration, the viewer selects a desired mode from six types of user interfaces (operation modes) in advance with respect to the method of attaching the tag. With this setting, you can attach a tag while viewing a program and send that information to a third party in a way that suits you.
また、 上記実施の形態では、 放送局 2 0から送られてきた放送データ に対してリアルタィムに付箋が貼リ付けられたが、 付箋を貼リ付ける対 象のデータ と しては、 放送受信装置に予め蓄積された放送データであつ てもよい。 つまり、 本発明は、 放送受信装置と して実現することができ るだけでなく、 蓄積された放送データを再生する録画 ■ 再生装置と して 実現することもできる。  Further, in the above-described embodiment, a tag is attached in real time to the broadcast data transmitted from the broadcasting station 20, but the data to be attached with the tag is a broadcast receiving device. The broadcast data may be broadcast data stored in advance. That is, the present invention can be realized not only as a broadcast receiving device, but also as a recording / playback device for playing back stored broadcast data.
たとえば、 映像ス トリ一ムと映像ス トリームが示す映像に登場するォ ブジェク 卜に対応づけられた付加情報とを含む番組データを取得して表 示する番組表示装置であって、 番組データを取得して表示する表示手段 と、 操作者による所定の入力処理を受け付ける入力手段と、 入力処理が 行われた時刻を示す時刻情報を記録する記録手段と、 記録手段により記 録された時刻情報が示す時刻に対応する時間において表示手段により表 示された映像ス トリームが示す映像に登場する対象を特定する対象特定 手段と、 特定された対象に関する情報を表示手段によリ取得された付加 情報の中から抽出する抽出手段と、 抽出された対象に関する情報を指定 された宛先に通信路を介して送信する送信手段とを備える番組表示装置 として実現することもできる。 これによつて、 蓄積型の放送データや、 過去に録画した番組の再生データに対して、 本発明に係る付箋の貼り付 けが可能となる。 For example, a program display device that acquires and displays program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream, and acquires the program data Display means for receiving and displaying predetermined input processing by the operator; recording means for recording time information indicating the time at which the input processing was performed; and time information recorded by the recording means. Displayed by the display means at the time corresponding to the time Target specifying means for specifying a target appearing in the video indicated by the indicated video stream; extracting means for extracting information on the specified target from the additional information obtained by the display means; The present invention can also be realized as a program display device including transmission means for transmitting information about an object to a designated destination via a communication path. This makes it possible to attach the tag according to the present invention to storage-type broadcast data or playback data of a previously recorded program.
また、 上記実施の形態 6では、 番組視聴中における視聴者の発話によ つて番組に登場した商品の時間位置と空間位置 (オブジェク ト) とが特 定され、 続いて、 番組終了後における視聴者の発話によって送信先が特 定されたが、 これら 3種類の特定が同時に行われてもよい。 例えば、 視 聴者が番組の視聴中に、 「あのジャケッ ト、 Bさんに似合いそう」 と発話 した場合に、 放送受信装置が備える音声認識等によって、 その発声時刻 から時間位置を特定し、音声 Γジャケッ ト」からォブジ Iク トを特定し、 音声 Γ Βさんに」 から送信先を特定してもよい。 これによつて、 視聴者 は、 番組視聴中における 1 回の発話によって、 オブジェク ト単位での付 箋の貼付と送信先の指定とを完了することができる。  In the sixth embodiment, the time position and the spatial position (object) of the product appearing in the program based on the utterance of the viewer during the viewing of the program are specified. Although the transmission destination was specified by the utterance of, these three types of specification may be performed simultaneously. For example, if the viewer utters, "Let's look good on that jacket, Mr. B" while watching the program, the time position is specified from the utterance time by voice recognition or the like of the broadcast receiver, and the voice Γ The destination may be specified from the “Jacket”, and the object is specified, and the voice “to the person”. Thus, the viewer can complete the attachment of the tag and the designation of the transmission destination for each object by one utterance during the viewing of the program.
また、 本発明の番組受信装置は、 地上波、 衛星、 C A T V等によるテ レビ放送だけでなく、 データ通信網を用いたィンターネッ トによる映像 配信システムにも適用することができる。 つまり、 上記実施の形態にお ける番組内容と番組付加情報とを配信する通信システムであれば、 本発 明を適用することができる。  Further, the program receiving apparatus of the present invention can be applied not only to television broadcasting using terrestrial waves, satellites, and CATV, but also to video distribution systems using the Internet using a data communication network. That is, the present invention can be applied to any communication system that distributes the program contents and the program additional information in the above embodiment.
また、 上記実施の形態では、 放送受信装置 3 1 aから第 3者に送信さ れる関連 U R Lは、 第 3者に送信されたオブジェク ト (商品) に関連す る情報を提供する W e bサイ 卜の U R Lであったが、 それに替えて、 あ るいは、 それに加えて、 第 3者に送信する U R Lと して、 その商品が登 場する番組自体をオンデマン ドで配信する W e bサイ 卜の U R Lであつ てもよい。 これによつて、 U R Lを含む商品情報を P C等で受信した第 3者は、 その商品が登場した番組を見ていなかつたためにその番組を見 てみたいと思った場合に、 P C上で U R Lをク リ ックすることで、 その 番組を視聴することができる。 Further, in the above embodiment, the related URL transmitted from the broadcast receiving device 31a to the third party is a web site that provides information related to the object (product) transmitted to the third party. URL, but instead, or in addition, the product is registered as a URL to be sent to a third party. The URL may be a Web site that distributes the program itself on demand. As a result, a third party who receives the product information including the URL on a PC or the like receives the URL on the PC when he / she does not see the program on which the product appeared and wishes to view the program. Click to view the program.
また、 上記実施の形態では、 付加情報を M P E G 7に準拠して記述し たが、 商品情報等を記述するために c X M L、 x C B し、 e b X M Lあ るいは CIIZX M L等電子商取引用の書式に従って記述するものと して もよい。  In addition, in the above embodiment, the additional information is described in conformity with MPEG7, but a format for electronic commerce such as c XML, x CB, eb XML or CIIZX ML is used to describe product information and the like. It may be described according to.
また、 商品に付帯する詳細情報を記述する書式に従って電子商取引用 書式に含まれない情報をも記述するものと してもよい。  In addition, information that is not included in the e-commerce format may be described according to the format that describes the detailed information attached to the product.
また、 上記実施の形態では、 付加情報を M P E G 7に準拠して記述し たが、 音楽等の著作物情報を記述するために図 40及び図 4 1 のような 書式や M P E G 7を含むコ ンテンツ記述用の書式に従って記述するもの と してもよい。  In addition, in the above embodiment, the additional information is described in conformity with MPEG7. However, in order to describe copyrighted information such as music, the format as shown in FIGS. It may be described according to the description format.
また、 上記実施の形態では、 付加情報を M P E G 7に準拠して記述し たが、 音声情報等を記述するために V o i c e X M L等音声データ用書 式に従って記述するものと してもよい。 産業上の利用の可能性  Further, in the above embodiment, the additional information is described in conformity with MPEG7, but may be described in accordance with a voice data format such as VoiceXML in order to describe voice information and the like. Industrial potential
本発明は、 地上波、 衛星、 C A T V等によるテレビ放送や、 データ通 信網を用いたインターネッ トによる映像配信システムにおいて配信され る番組データを受信したり表示したりする番組受信装置等と して、特に、 番組に登場した対象に対してマーク付けをすることが可能な番組受信装 置等と して利用することができる。  The present invention is directed to a program receiving apparatus or the like for receiving and displaying program data distributed in a terrestrial broadcast, satellite broadcast, CATV, or other television broadcast, or in a video distribution system over the Internet using a data communication network. In particular, it can be used as a program receiving device or the like that can mark targets appearing in a program.

Claims

請 求 の 範 囲 The scope of the claims
1 . 映像ス トリ一厶と前記映像ス トリ一ムが示す映像に登場する対象に 対応づけられた付加情報とを含む番組データを受信する番組受信装置で あって、  1. A program receiving apparatus for receiving program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream,
前記番組データを受信し記憶する受信手段と、  Receiving means for receiving and storing the program data;
操作者による所定の入力処理を受け付ける入力手段と、  Input means for receiving predetermined input processing by the operator;
前記入力処理が行われた時刻を示す時刻情報を記録する記録手段と、 前記受信手段によリ受信された番組データを参照することにより、 前 記記録手段に記録された時刻情報が示す時刻に対応する時間において前 記受信手段により受信された映像ス トリームが示す映像に登場する対象 を特定する対象特定手段と、  Recording means for recording time information indicating the time at which the input processing was performed; and by referring to the program data re-received by the reception means, the time indicated by the time information recorded in the recording means Target specifying means for specifying a target appearing in the video indicated by the video stream received by the receiving means at a corresponding time;
特定された対象に関する情報を前記受信手段に受信された付加情報の 中から抽出する抽出手段と、  Extracting means for extracting information on the specified object from among the additional information received by the receiving means;
抽出された前記対象に関する情報を指定された宛先に通信路を介して 送信する送信手段と  Transmitting means for transmitting the extracted information on the target to a designated destination via a communication path;
を備えることを特徴とする番組受信装置。  A program receiving apparatus comprising:
2 . 前記付加情報には、 前記映像に登場する対象を特定する情報と当該 対象に関する情報とが対応づけられて含まれ、 2. The additional information includes information for identifying a target appearing in the video and information on the target in association with each other,
前記対象を特定する情報には、 当該対象の画像を含むフレーム画像の 前記映像ス トリームにおける時間位置及び当該対象の画像のフレーム画 像における空間位置が含まれ、  The information for identifying the target includes a time position of the frame image including the target image in the video stream and a spatial position of the target image in the frame image,
前記対象特定手段は、 前記付加情報に含まれる前記時間位置及び前記 空間位置の少なく とも 1 つを参照することによって前記対象を特定し、 前記抽出手段は、 前記付加情報に含まれる前記対応付けを参照するこ とによつて前記対象に関する情報を抽出する ことを特徴とする請求の範囲 1記載の番組受信装置。 The target specifying unit specifies the target by referring to at least one of the time position and the spatial position included in the additional information, and the extraction unit determines the association included in the additional information. Extract information about the object by reference 2. The program receiving apparatus according to claim 1, wherein:
3 . 前記番組データには、 さらに、 音響ス ト リーム及び音声ス ト リーム が含まれ、 3. The program data further includes an audio stream and an audio stream,
前記付加情報は、 さらに、 前記音響ス トリーム及び前記音声ス トリー 厶に登場する対象にも対応づけられている  The additional information is further associated with an object appearing in the audio stream and the audio stream.
ことを特徴とする請求の範囲 1記載の番組受信装置。  2. The program receiving apparatus according to claim 1, wherein:
4 . 前記対象には、 物体だけでなく、 音楽を含む著作物及びザ ビスも 含まれる 4. The subject includes not only objects but also works and services that include music.
とを特徴とする請求の範囲 1記載の番組受信装置。  2. The program receiving apparatus according to claim 1, wherein:
5 . 前記対象特定手段は、 前記時刻に対応する時間において前記受信手 段によリ受信された映像ス 卜リー厶が示す映像を操作者に提示し、 その 提示に対する操作者の指示に従って前記対象を特定する 5. The target specifying means presents, to the operator, the video indicated by the video stream received by the receiving means at a time corresponding to the time, and sets the target according to the operator's instruction for the presentation. Identify
ことを特徴とする請求の範囲 1記載の番組受信装置。  2. The program receiving apparatus according to claim 1, wherein:
6 . 前記対象特定手段は、 前記提示に対する操作者による映像の空間位 置の指定に従って前記対象を特定する 6. The target specifying means specifies the target in accordance with the designation of the spatial position of the video with respect to the presentation by the operator.
ことを特徴とする請求の範囲 5記載の番組受信装置。  6. The program receiving device according to claim 5, wherein:
7 . 前記対象特定手段は、 前記映像とともに、 前記映像に登場する対象 の一覧を操作者に提示し、 その提示に対する操作者による選択指示に従 つて前記対象を特定する 7. The target specifying means presents to the operator a list of targets appearing in the video together with the video, and specifies the target according to a selection instruction by the operator for the presentation
ことを特徴とする請求の範囲 5記載の番組受信装置。 6. The program receiving device according to claim 5, wherein:
8 . 前記対象特定手段は、 操作者から文字列を取得し、 取得した文字列 に従って前記対象を特定する 8. The target specifying means obtains a character string from an operator and specifies the target according to the obtained character string.
ことを特徴とする請求の範囲 5記載の番組受信装置。 9 . 前記対象特定手段は、 操作者の音声を取得し、 取得した音声に従つ て前記対象を特定する  6. The program receiving device according to claim 5, wherein: 9. The target specifying means obtains an operator's voice, and specifies the target according to the obtained voice.
ことを特徴とする請求の範囲 5記載の番組受信装置。  6. The program receiving device according to claim 5, wherein:
1 0 . 前記入力手段は、 操作者による発話を入力処理と して受け付け、 前記記録.手段は、 前記発話が行われた時刻を示す時刻情報を記録する ことを特徴とする請求の範囲 1 記載の番組受信装置。 10. The input unit according to claim 1, wherein the input unit receives an utterance by an operator as input processing, and the recording unit records time information indicating a time at which the utterance was performed. Program receiving device.
1 1 . 前記対象特定手段は、 前記入力手段が受け付けた発話に対して音 声認識を行うことで、 前記対象を特定する 11. The target specifying unit specifies the target by performing voice recognition on the utterance accepted by the input unit.
ことを特徴とする請求の範囲 1 0記載の番組受信装置。  10. The program receiving device according to claim 10, wherein:
1 2 . 前記抽出手段は、 さらに、 前記対象が登場する映像を示す映像デ —タを前記受信手段に受信された映像ス ト リームの中から抽出し、 前記送信手段は、 前記対象に関する情報とともに、 前記映像データを 前記宛先に送信する 12. The extraction unit further extracts video data indicating a video in which the target appears from the video stream received by the reception unit, and the transmission unit outputs the video data together with information on the target. Transmitting the video data to the destination
ことを特徴とする請求の範囲 1 記載の番組受信装置。  2. The program receiving apparatus according to claim 1, wherein:
1 3 . 前記番組データには、 音声ス トリームが含まれ、 1 3. The program data includes an audio stream,
前記抽出手段は、 さらに、 前記映像データに対応する音声データを前 記受信手段に受信された音声ス トリ一ムの中から抽出し、  The extracting means further extracts audio data corresponding to the video data from the audio stream received by the receiving means,
前記送信手段は、前記対象に関する情報及び前記映像データとともに、 前記音声データを前記宛先に送信する The transmitting means, together with information about the object and the video data, Sending the audio data to the destination
ことを特徴とする請求の範囲 1 2記載の番組受信装置。  13. The program receiving apparatus according to claim 12, wherein:
1 4 . 前記送受信装置は、 さらに、 操作者から送信メ ッセージを取得す る送信メ ッセージ取得手段を備え、 14. The transmission / reception device further includes transmission message acquisition means for acquiring a transmission message from an operator,
前記送信手段は、 前記対象に関する情報、 前記映像データ及び前記音 声データとともに、 前記送信メ ッセージ取得手段が取得した送信メ ッセ ージを前記宛先に送信する  The transmission unit transmits the transmission message acquired by the transmission message acquisition unit to the destination together with the information on the target, the video data and the audio data.
ことを特徴とする請求の範囲 1 3記載の番組受信装置。  13. The program receiving apparatus according to claim 13, wherein:
1 5 . 前記送信手段は、 前記宛先の受信機能に関する属性に応じて、 前 記対象に関する情報、 前記映像データ、 前記音声データ及び前記送信メ ッセージの中から、 選択した情報だけを前記宛先に送信する 15. The transmitting unit transmits only information selected from the information on the target, the video data, the audio data, and the transmission message to the destination according to an attribute of a reception function of the destination. Do
ことを特徴とする請求の範囲 1 4記載の番組受信装置。  15. The program receiving apparatus according to claim 14, wherein:
1 6 . 前記付加情報には、 前記映像に登場する対象の名前及び特徴を示 す商品情報が含まれ、 16. The additional information includes product information indicating the names and characteristics of the objects appearing in the video,
前記抽出手段は、 前記対象特定手段によって特定された対象の商品情 報を抽出し、 _  The extracting means extracts product information of the target specified by the target specifying means,
前記送信手段は、 抽出された商品情報を送信する  The transmitting means transmits the extracted product information.
ことを特徴とする請求の範囲 1 記載の番組受信装置。  2. The program receiving apparatus according to claim 1, wherein:
1 7 . 前記付加情報には、 前記映像に登場する対象に関する情報が置か れた情報源の場所を示す情報源ァ ドレスが含まれ、 17. The additional information includes an information source address indicating a location of an information source in which information on an object appearing in the video is placed,
前記抽出手段は、 前記対象特定手段によって特定された対象の情報源 ア ドレスを抽出し、 前記送信手段は、 抽出された情報源ァ ドレスを送信する The extracting means extracts an information source address of the target specified by the target specifying means, The transmitting means transmits the extracted information source address
ことを特徴とする請求の範囲 1記載の番組受信装置。  2. The program receiving apparatus according to claim 1, wherein:
1 8 . 映像ス トリームと前記映像ス トリ一ムが示す映像に登場する対象 に対応づけられた付加情報とを含む番組データを受信する番組受信方法 であって、 18. A program receiving method for receiving program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream,
前記番組データを受信し記憶する受信ステップと、 . 操作者による所定の入力処理を受け付ける入力ステップと、 前記入力処理が行われた時刻を示す時刻情報を記録する記録ステツプ と、  A receiving step of receiving and storing the program data; an input step of receiving a predetermined input process by an operator; a recording step of recording time information indicating a time at which the input process was performed;
前記受信ステツプで受信された番組データを参照することによ り、 前 記記録ステップで記録された時刻情報が示す時刻に対応する時間におい て受信された映像ス トリームが示す映像に登場する対象を特定する対象 特定ステップと、  By referring to the program data received in the receiving step, the target appearing in the video indicated by the video stream received at the time corresponding to the time indicated by the time information recorded in the recording step is recorded. What to identify
特定された対象に関する情報を前記受信ステツプで受信された付加情 報の中から抽出する抽出ステップと、  An extracting step of extracting information on the identified object from the additional information received in the receiving step;
抽出された前記対象に関する情報を指定された宛先に通信路を介して 送信する送信ステップと  A transmitting step of transmitting the extracted information on the target to a designated destination via a communication path;
を含むことを特徴とする番組受信方法。  A program receiving method, comprising:
1 9 . 映像ス トリー厶と前記映像ス トリー厶が示す映像に登場する対象 に対応づけられた付加情報とを含む番組データを受信する番組受信装置 のためのプログラムであって、 19. A program for a program receiving apparatus for receiving program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream,
請求の範囲 1 8記載の番組受信方法に含まれるステップをコンピュー タに実行させる  Making a computer execute the steps included in the program receiving method described in claim 18
ことを特徴とするプログラム。 A program characterized by the following.
2 0 . 映像ス トリー厶と前記映像ス トリームが示す映像に登場する対象 に対応づけられた付加情報とを含む番組データを取得して表示する番組 表示装置であつて、 20. A program display device for acquiring and displaying program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream,
前記番組データを取得して表示する表示手段と、  Display means for acquiring and displaying the program data,
操作者による所定の入力処理を受け付ける入力手段と、  Input means for receiving predetermined input processing by the operator;
前記入力処理が行われた時刻を示す時刻情報を記録する記録手段と、 前記記録手段により記録された時刻情報が示す時刻に対応する時間に おいて前記表示手段によリ表示された映像ス トリームが示す映像に登場 する対象を特定する対象特定手段と、  Recording means for recording time information indicating the time at which the input processing was performed; and a video stream displayed by the display means at a time corresponding to the time indicated by the time information recorded by the recording means. An object identification means for identifying an object appearing in the video shown by
特定された対象に関する情報を前記表示手段によリ取得された付加情 報の中から抽出する抽出手段と、  Extracting means for extracting information on the specified object from the additional information obtained by the display means;
抽出された前記対象に関する情報を指定された宛先に通信路を介して 送信する送信手段と  Transmitting means for transmitting the extracted information on the target to a designated destination via a communication path;
を備えることを特徴とする番組表示装置。  A program display device comprising:
2 1 . 映像ス トリームと前記映像ス トリームが示す映像に登場する対象 に対応づけられた付加情報とを含む番組データを取得して表示する番組 データ表示方法であって、 21. A program data display method for acquiring and displaying program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream,
前記番組データを取得して表示する表示ステップと、  A display step of acquiring and displaying the program data;
操作者による所定の入力処理を受け付ける入力ステップと、 前記入力処理が行われた時刻を示す時刻情報を記録する記録ステップ と、  An input step of receiving a predetermined input process by an operator; and a recording step of recording time information indicating a time at which the input process is performed;
前記記録ステップで記録された時刻情報が示す時刻に対応する時間に おいて表示された映像ス トリームが示す映像に登場する対象を特定する 対象特定ステップと、 特定された対象に関する情報を前記表示ステップで取得された付加情 報の中から抽出する抽出ステップと、 A target specifying step of specifying a target appearing in the video indicated by the video stream displayed at a time corresponding to the time indicated by the time information recorded in the recording step; An extracting step of extracting information about the specified target from the additional information obtained in the displaying step;
抽出された前記対象に関する情報を指定された宛先に通信路を介して 送信する送信ステップと  A transmitting step of transmitting the extracted information on the target to a designated destination via a communication path;
を含むことを特徴とする番組データ表示方法。  A program data display method comprising:
2 2 . 映像ス トリームと前記映像ス トリ一ムが示す映像に登場する対象 に対応づけられた付加情報とを含む番組データを取得して表示する番組 表示装置のためのプログラムであって、 22. A program for a program display device for acquiring and displaying program data including a video stream and additional information associated with an object appearing in a video indicated by the video stream,
請求の範囲 2 1 記載の番組データ表示方法に含まれるステップをコン ピュータに実行させる  Making a computer execute the steps included in the program data display method described in claim 21
ことを特徴とするプログラム。  A program characterized by the following.
PCT/JP2004/001376 2003-02-21 2004-02-10 Program reception device and program display device WO2004075542A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-044832 2003-02-21
JP2003044832 2003-02-21

Publications (1)

Publication Number Publication Date
WO2004075542A1 true WO2004075542A1 (en) 2004-09-02

Family

ID=32905467

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/001376 WO2004075542A1 (en) 2003-02-21 2004-02-10 Program reception device and program display device

Country Status (1)

Country Link
WO (1) WO2004075542A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001258011A (en) * 2000-03-08 2001-09-21 Sony Corp Data transmission method and device, data reception method and device, data display method and device, and information service method and device
JP2002027336A (en) * 2000-06-30 2002-01-25 Toshiba Corp Television receiver and processing system
JP2002218428A (en) * 2001-01-23 2002-08-02 Nippon Telegr & Teleph Corp <Ntt> Program introduction system, program introduction processing method, introducer terminal program, introduction distribution server program, referee terminal program, and their program recording media
JP2002230411A (en) * 2001-02-05 2002-08-16 Isao:Kk Communication system, communication information processor, information terminal equipment article- recommending method, and program
JP2002330422A (en) * 2001-04-27 2002-11-15 Sony Corp Method for commodity sales business using digital broadcasting and digital broadcasting receiver

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001258011A (en) * 2000-03-08 2001-09-21 Sony Corp Data transmission method and device, data reception method and device, data display method and device, and information service method and device
JP2002027336A (en) * 2000-06-30 2002-01-25 Toshiba Corp Television receiver and processing system
JP2002218428A (en) * 2001-01-23 2002-08-02 Nippon Telegr & Teleph Corp <Ntt> Program introduction system, program introduction processing method, introducer terminal program, introduction distribution server program, referee terminal program, and their program recording media
JP2002230411A (en) * 2001-02-05 2002-08-16 Isao:Kk Communication system, communication information processor, information terminal equipment article- recommending method, and program
JP2002330422A (en) * 2001-04-27 2002-11-15 Sony Corp Method for commodity sales business using digital broadcasting and digital broadcasting receiver

Similar Documents

Publication Publication Date Title
JP3678422B2 (en) Distribution system, distribution device, and advertisement effect totaling method
EP1422936B1 (en) Broadcast reception method
US6559866B2 (en) System and method for providing foreign language support for a remote control device
US20090144772A1 (en) Video object tag creation and processing
JP2010178176A (en) Information distribution server, portable terminal, information distribution system equipped with these, and information distribution method
JP2002125161A (en) Information display system
CN104602043B (en) Content providing apparatus and method
KR101867950B1 (en) Real Time Display System of Additional Information for Live Broadcasting and Image Service
JP2019036837A (en) Object identification apparatus, object identification system, object identification method, and program
WO2004075542A1 (en) Program reception device and program display device
JP2009005260A (en) Content viewing apparatus
JP2005130075A (en) Television receiver
WO2014043987A1 (en) Information transmission method, device, and system
JP2001285837A (en) Receiving device, transmitting device, operating device, information management device, received data processing method, operating method, and information management method
KR20000030425A (en) Real time internet broadcasting system and broadcating method using the same
JP6959205B2 (en) Information processing system and information processing method
KR100632930B1 (en) Real-time information service system and method for broadcasting derivatives
JP7321975B2 (en) Information linkage system
JP7229200B2 (en) Information linkage system and server
JP7229199B2 (en) Terminals and programs
JP2007317217A (en) Information association method, terminal device, server device, program
JP2005333402A (en) Information providing system, method and program
US7320135B2 (en) System for serving information in relation to video information broadcasted on electric wave
JP2001243185A (en) Advertisement information display method, advertisement information display system, advertisement information display device, and recording medium
JP2002247468A (en) Program guide system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP