JP2010160576A - Image reproduction apparatus and image processing apparatus - Google Patents
Image reproduction apparatus and image processing apparatus Download PDFInfo
- Publication number
- JP2010160576A JP2010160576A JP2009001088A JP2009001088A JP2010160576A JP 2010160576 A JP2010160576 A JP 2010160576A JP 2009001088 A JP2009001088 A JP 2009001088A JP 2009001088 A JP2009001088 A JP 2009001088A JP 2010160576 A JP2010160576 A JP 2010160576A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- event
- pointer
- coordinate position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、画像再生装置および画像処理装置に関する。 The present invention relates to an image reproduction device and an image processing device.
近年、ブラウザを用いてインターネット上の動画配信サイトで公開される動画コンテンツ(AVコンテンツ)を閲覧することが広く行われている(例えば、特許文献1参照)。 In recent years, browsing video content (AV content) published on a video distribution site on the Internet using a browser has been widely performed (see, for example, Patent Document 1).
ブラウザで動画配信サイトのWebページを閲覧すると、ブラウザは、プラグインソフトウェアとして組み込まれている動画受信再生プログラムを起動する。AVコンテンツの再生開始を指示する操作がユーザによって行われると、動画受信再生プログラムは、インターネットを介してそのAVコンテンツを動画配信サイトからダウンロードし、デコードしてビデオデータとオーディオデータとに分離する。動画受信再生プログラムは、この分離したビデオデータとオーディオデータとを、オペレーティングシステムに属するDLL(Dynamic Link Library)に出力する。このDLLを仲介して、ビデオデータとオーディオデータとは、オペレーティングシステムのカーネル部に引き渡され、ディスプレイ出力やスピーカ出力等が行われることになる。 When the browser browses the web page of the video distribution site, the browser starts a video reception / playback program incorporated as plug-in software. When an operation for instructing the start of AV content playback is performed by the user, the video reception / playback program downloads the AV content from the video distribution site via the Internet, decodes it, and separates it into video data and audio data. The moving image reception / playback program outputs the separated video data and audio data to a DLL (Dynamic Link Library) belonging to the operating system. Via this DLL, video data and audio data are delivered to the kernel unit of the operating system, and display output, speaker output, and the like are performed.
ところで、最近では、上述したような手順を経て再生されるAVコンテンツを、より高画質な画像として鑑賞したいという要望が高まっている。かつ、既存のモジュールをそのまま活用しつつ実現させて欲しいという要望も強い。 By the way, recently, there is an increasing demand for viewing AV content reproduced through the above-described procedure as a higher quality image. In addition, there is a strong demand for the realization of existing modules as they are.
しかしながら、上述したような手順を経て再生されるAVコンテンツをより高画質な画像として再生するような場合、動画受信再生プログラムによる動画像と高画質の動画像とを別ウインドウで見たいという要望がある。このような場合に、元の画像上にユーザがポインティングデバイスなどで操作すべき画像が含まれる場合であって、元の画像と変換後の画像とで画像上の相対座標が異なる場合(例えば、両方の画像の解像度が異なる場合)には、変換後の画像の或る位置でユーザがポインティングデバイスを操作しても、元の画像とは座標が異なるために、元の画像に対する操作が好適に行われないという可能性がある。 However, when AV content played back through the above-described procedure is played back as a higher quality image, there is a demand to view the moving image received by the moving image reception / playback program and the high quality moving image in separate windows. is there. In such a case, when the image to be operated by the user with a pointing device or the like is included in the original image, and the relative coordinates on the image are different between the original image and the converted image (for example, When the resolutions of both images are different), even if the user operates the pointing device at a certain position of the converted image, the coordinates are different from the original image, so the operation on the original image is preferable. There is a possibility that it will not be done.
本発明は、上記に鑑みてなされたものであって、元の画像とはポインタの相対位置が異なる変換後の画像に対してポインタ操作を行った場合でも、好適に画像に対する操作を行うことができる画像再生装置および画像処理装置を提供することを目的とする。 The present invention has been made in view of the above, and even when a pointer operation is performed on a converted image in which the relative position of the pointer is different from that of the original image, the operation on the image can be suitably performed. An object of the present invention is to provide an image reproducing apparatus and an image processing apparatus.
上述した課題を解決し、目的を達成するために、本発明の画像再生装置は、画像再生手段により符号化データを復号されて得られる動画像データと、当該動画像データとともに前記画像再生手段が出力する画像データであって前記動画像データに対する各種処理操作をユーザに提供するための操作画像データとを含む第1の表示画像データを、画像処理を施して第2の表示画像データとして表示可能に出力する画像処理手段と、前記画像処理手段が出力する前記第2の表示画像データに対するポインタイベントを検知するイベント検知手段と、前記ポインタイベントが検知された場合、該ポインタイベントに含まれる座標位置情報を変換する座標位置情報変換手段と、該座標位置情報変換後の前記ポインタイベントを前記画像再生手段に出力するイベント出力手段と、を備える。 In order to solve the above-described problems and achieve the object, an image reproducing apparatus according to the present invention includes moving image data obtained by decoding encoded data by an image reproducing unit, and the image reproducing unit together with the moving image data. First display image data including image data to be output and operation image data for providing a user with various processing operations on the moving image data can be displayed as second display image data by performing image processing. Image processing means for outputting to the display, event detection means for detecting a pointer event for the second display image data output by the image processing means, and the coordinate position included in the pointer event when the pointer event is detected Coordinate position information converting means for converting information, and outputting the pointer event after the coordinate position information conversion to the image reproducing means Comprising an event output unit that, the.
また、本発明の画像処理装置は、符号化データを動画像データに復号するとともに当該動画像データに対する各種操作機能をユーザに提供するための操作画像データを出力する画像再生手段と、前記画像再生手段が出力する前記動画像データと前記操作画像データとを含む第1の表示画像データに画像処理を施して第2の表示画像データとして表示可能に出力する画像処理手段と、前記画像処理手段が出力する前記第2の表示画像データに対するポインタイベントを検知するイベント検知手段と、前記ポインタイベントが検知された場合、該ポインタイベントに含まれる座標位置情報を変換する座標位置情報変換手段と、該座標位置情報変換後の前記ポインタイベントを前記画像再生手段に出力するイベント出力手段と、を備え、前記画像再生手段は、前記イベント出力手段から出力された前記ポインタイベントの前記第1の表示画像データ上の座標位置が前記操作画像データ上である場合に、当該操作画像データに関連付けられた処理を実行する。 In addition, the image processing apparatus of the present invention includes an image reproducing unit that decodes encoded data into moving image data and outputs operation image data for providing a user with various operation functions for the moving image data, and the image reproducing device. Image processing means for performing image processing on the first display image data including the moving image data and the operation image data output by the means and outputting the second display image data so as to be displayable, and the image processing means Event detecting means for detecting a pointer event for the second display image data to be output; coordinate position information converting means for converting the coordinate position information included in the pointer event when the pointer event is detected; Event output means for outputting the pointer event after the position information conversion to the image reproduction means, and It means, when the coordinate position on the first display image data of the pointer event output from the event output means is on the operation image data, executes processing associated with the operation image data.
本発明によれば、元の画像とはポインタの相対位置が異なる変換後の画像に対してポインタ操作を行った場合でも、好適に画像に対する操作を行うことができる、という効果を奏する。 According to the present invention, even when a pointer operation is performed on a converted image in which the relative position of the pointer is different from that of the original image, it is possible to perform an operation on the image suitably.
以下に添付図面を参照して、この発明にかかる画像再生装置および画像処理装置の最良な実施の形態を詳細に説明する。 Exemplary embodiments of an image reproducing apparatus and an image processing apparatus according to the present invention are explained in detail below with reference to the accompanying drawings.
本発明の実施の一形態を図1ないし図12に基づいて説明する。本実施の形態は画像処理装置としてノートブックタイプのパーソナルコンピュータ(PC)を適用した例である。 An embodiment of the present invention will be described with reference to FIGS. In this embodiment, a notebook type personal computer (PC) is applied as an image processing apparatus.
図1は、本発明の実施の一形態にかかるコンピュータ1の一利用形態を示す構成図である。本実施の形態においては、図1に示すように、動画配信サイト2が提供するAVコンテンツをインターネット3経由でダウンロードして鑑賞するために、コンピュータ1が利用される場合を想定する。
FIG. 1 is a configuration diagram showing one usage pattern of a
ここで、図2はコンピュータ1のハードウェア構成を示すブロック図である。コンピュータ1は、図2に示すように、CPU11、ノースブリッジ12、主メモリ13、表示コントローラ14、ビデオメモリ(VRAM)14A、LCD(Liquid Crystal Display)15、サウスブリッジ16、サウンドコントローラ17、スピーカ18、BIOS−ROM19、LANコントローラ20、HDD(hard disk drive)21、ODD(optical disc drive)22、無線LANコントローラ23、USBコントローラ24、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)25、キーボード(KB)26、例えばマウスであるポインティングデバイス27等を備えている。
Here, FIG. 2 is a block diagram showing a hardware configuration of the
CPUIIは、コンピュータ1の動作を制御するプロセッサであり、HDD21やODD22から主メモリ13にロードされるオペレーティングシステム(OS)や、このOS配下で動作する各種アプリケーションプログラムを実行する。また、CPU11は、BIOS−ROM19に格納されたBIOS(Basic Input/Output System)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The CPU II is a processor that controls the operation of the
ノースブリッジ12は、CPU11のローカルバスとサウスブリッジ16との間を接続するブリッジデバイスである。ノースブリッジ12には、主メモリ13をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ12は、表示コントローラ14との通信を実行する機能も有している。
The
表示コントローラ14は、コンピュータ1のディスプレイモニタとして使用されるLCD15を制御するデバイスである。この表示コントローラ14によって表示信号が生成されてLCD15に送られる。
The
サウスブリッジ16は、PCI(Peripheral Component Interconnect)バス上およびLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ16は、HDD21およびODD22を制御するためのIDE(Integrated Drive Electronics)コントローラおよびBIOS−ROM19をアクセス制御するメモリコントローラが内蔵されている。さらに、サウスブリッジ16は、サウンドコントローラ17およびLANコントローラ20との通信を実行する機能も有している。
The south bridge 16 controls devices on a peripheral component interconnect (PCI) bus and a low pin count (LPC) bus. The south bridge 16 includes an IDE (Integrated Drive Electronics) controller for controlling the
サウンドコントローラ17は音源デバイスであり、再生対象のオーディオデータをスピーカ18に出力する。
The sound controller 17 is a sound source device and outputs audio data to be reproduced to the
LANコントローラ20は、例えばEthernet(登録商標)規格の有線通信を実行する有線通信デバイスであり、無線LANコントローラ23は、例えばIEEE802.11規格の無線通信を実行する無線通信デバイスである。また、USBコントローラ24は、例えばUSB2.0規格のケーブルを介して外部機器との通信を実行する。
The
EC/KBC25は、電力管理を行うためのエンベデッドコントローラと、キーボード(KB)26およびポインティングデバイス27を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このEC/KBC25は、ユーザの操作に応じてコンピュータ1をパワーオン/パワーオフする機能を有している。
The EC / KBC 25 is a one-chip microcomputer in which an embedded controller for performing power management and a keyboard controller for controlling the keyboard (KB) 26 and the
以上のような構成をもつコンピュータ1は、HDD21から主メモリ13にロードされてCPU11によって実行されるプログラム群(OSおよび各種アプリケーション)によって、図1に示した動画配信サイト2が提供するAVコンテンツをインターネット3経由でダウンロードして再生するように動作する。
The
より具体的には、LANコントローラ20、無線LANコントローラ23またはUSBコントローラ24による通信処理によってAVコンテンツを入力し、このAVコンテンツをCPU11がデコードしてビデオデータとオーディオデータとに分離し、ビデオデータは表示コントローラ14に供給してLCD15から画像として出力し、オーディオデータはサウンドコントローラ17に供給してスピーカ18から音声として出力する。
More specifically, AV content is input by communication processing by the
次に、図3を参照して、前述した、図1に示した動画配信サイト2が提供するAVコンテンツをインターネット3経由でダウンロードして再生するようにコンピュータ1を動作させるためのプログラム群の概略構成を説明する。
Next, referring to FIG. 3, an outline of a group of programs for operating the
図3に示すように、コンピュータ1には、OS100、ブラウザ210、動画受信再生プログラム220、エフェクトエンジン230がインストールされている。また、動画受信再生プログラム220およびエフェクトエンジン230は、ブラウザ210にプラグインソフトウェアとして組み込まれている。
As shown in FIG. 3, an
コンピュータ1のリソース管理を一元的に司るOS100は、カーネル部101とDLL部102とを備えている。カーネル部101は、図2に示したコンピュータ1の各部(ハードウェア)を駆動制御するモジュールであり、DLL部102は、このカーネル部101との間のインタフェースを提供するモジュールである。このDLL部102に対して各種アプリケーションプログラムがカーネル部101への各種要求を発行する段階までの階層をユーザモード、それ以降、即ち、これらの要求をDLL部102がカーネル部101に伝達する段階からの階層をカーネルモードなどと称する。
The OS 100 that centrally manages resource management of the
ブラウザ210で動画配信サイト2のWebページを閲覧すると、このWebページ中のタグ情報によって、ブラウザ210は、同サイトが配信可能なAVコンテンツを有することを検知し、プラグインソフトウェアとして組み込まれている動画受信再生プログラム220を起動する。そして、Webページの閲覧中にAVコンテンツの再生開始を指示する操作がユーザによって行われると、動画受信再生プログラム220が、そのAVコンテンツのインターネット3を介した動画配信サイト2からのダウンロードを開始する。
When the web page of the
動画受信再生プログラム220は、画像再生手段として機能するものであって、AVコンテンツのダウンロードを行いながら、当該AVコンテンツのデコードも並行して実行する。このデコードによって、動画受信再生プログラム220は、AVコンテンツに含まれるビデオデータとオーディオデータとを分離して取り出す。動画受信再生プログラム220は、この取り出したビデオデータおよびオーディオデータを(LCD15による)画像出力および(スピーカ18による)音声出力させるべくOS100のDLL部102に引き渡す(a1,b1)。
The moving image reception /
通常、DLL部102に渡されたビデオデータa1およびオーディオデータb1は、このDLL部102内において、例えば形式チェック等の処理が施されてカーネル部101に供給され、カーネル部101によって、LCD15からの画像出力やスピーカ18からの音声出力が行われることになる。
Normally, the video data a1 and audio data b1 passed to the
これに対して、コンピュータ1では、動画配信サイト2からダウンロードしたAVコンテンツを高画質で鑑賞したいというユーザの要望に応えるために、エフェクトエンジン230を搭載し、このエフェクトエンジン230に、高画質化のための補正をビデオデータa1に対して実行させるようにした。以下、この点について詳述する。
On the other hand, the
エフェクトエンジン230は、ブラウザ210の起動に伴って起動される常駐型のプラグインソフトウェアとして組み込まれるプログラムであって画像再生装置として機能するものであり、図3に示すように、画像処理手段として機能する画像処理部240、エンジン起動部235および操作指示同期部236を有している。画像処理部240は、キャプチャ設定部231、タイムスタンプ部232、エフェクト部233、AV同期部234を備えている。
The
エンジン起動部235は、ユーザからエフェクトエンジン230における主処理の実行が指示されたことを判断した場合にのみ、画像処理部240、操作指示同期部236をそれぞれ起動させるためのモジュールである。
The
キャプチャ設定部231は、動画受信再生プログラム220がDLL部102に対して出力したビデオデータa1およびオーディオデータb1を取得するために、DLL部102内のルーチンの書き換えを行うモジュールである。このDLL部102内のルーチンの書き換え処理の一例については後述するが、簡単にいえば、動画受信再生プログラム220から受け取ったビデオデータa1およびオーディオデータb1をエフェクトエンジン230のタイムスタンプ部232に引き渡すように書き換える(a2,b2)。キャプチャ設定部231は、エフェクトエンジン230の起動時、ブラウザ210に対して、動画受信再生プログラム220を起動した際にその旨を通知するように依頼する。そして、この通知を受けた時に、キャプチャ設定部231は、このDLL部102内のルーチンの書き換えを実行する。
The capture setting unit 231 is a module that rewrites a routine in the
このキャプチャ設定部231の働きによって、ビデオデータa2およびオーディオデータb2をDLL部102から受け取るタイムスタンプ部232は、その受け取ったタイミングを示す時間情報を各々に付与するモジュールである。時間情報は、時間的な判別が可能な値であれば、例えば、コンピュータ1のシステム時刻であっても良いし、エフェクトエンジン230の起動後にカウントアップが開始される計時データであっても良い。タイムスタンプ部232によって時間情報が付与されたビデオデータa2およびオーディオデータb2は、エフェクト部233に導かれる。
The
エフェクト部233は、ビデオデータa2に対して高画質化のための補正を施すモジュールである。なお、ここでは、エフェクト部233が、ビデオデータa2に対してのみ補正を施す例を挙げるが、オーディオデータb2に対して高音質化のための補正を施すことは何ら制限されるものではなく、ビデオデータa2およびオーディオデータb2のそれぞれに対して高画質化および高音質化のための補正を施すことは当然に可能であり、また、逆に、オーディオデータb2に対してのみ(高音質化のための)補正を施すようにすることも可能である。また、これらの高画質化や高画質化の処理は、CPU11上でソフトウェア処理により行っても良いし、図2には図示しない、CPU11とは別に設けられた専用のハードウェアチップ上で行うようにしても良い。
The
エフェクト部233は、入力される中解像度または低解像度フレームを、高解像度化するための画像処理(以下、「超解像度変換処理(鮮鋭化処理)」という)を施して、高解像度の動画データのフレーム(以下、「高解像度フレーム」という)を生成する。ここで、超解像度変換処理とは、第1解像度である低解像度や中解像度の画像信号(低解像度フレームや中解像度フレーム)から本来の画素値を推定して画素を増やすことにより、第2解像度である高解像度の鮮鋭化映像信号(高解像度フレーム)を復元する鮮鋭化処理を意味する。ここで、本来の画素値とは、例えば、低解像度(第1解像度)の画像信号を得たときと同じ被写体を、高解像度(第2解像度)の画像信号の画素数を持つカメラで撮像したときに得られる画像信号の各画素が持つ値を指す。また、「推定して画素を増やす」とは、画像の特徴を捕らえて、相関性があるという画像の特徴を利用して周辺(フレーム内またはフレーム間)の画像から本来の画素値を推定して画素を増やすことを意味する。
The
なお、超解像度変換処理については、特開2007−310837号公報、特開2008−98803号公報や特開2000−188680号公報等に開示された公知・公用の技術を用いることが可能である。本実施の形態の超解像度変換処理の技術としては、例えば、入力画像の標本化周期で決まるナイキスト周波数より高い周波数成分を有する画像を復元する技術を用いる。 For the super-resolution conversion processing, it is possible to use a publicly known / public technique disclosed in Japanese Unexamined Patent Application Publication No. 2007-310837, Japanese Unexamined Patent Application Publication No. 2008-98803, Japanese Unexamined Patent Application Publication No. 2000-188680, and the like. As a technique for the super-resolution conversion processing of the present embodiment, for example, a technique for restoring an image having a frequency component higher than the Nyquist frequency determined by the sampling period of the input image is used.
例えば、特開2007−310837号公報に開示された超解像度変換処理を用いる場合には、複数の中解像度フレームのそれぞれに対してフレーム中の注目画素を含む注目画像領域中の画素値の変化パターンに最も近い複数の注目画像領域に対応する複数の対応点を基準フレームの中から選択し、対応点での輝度の標本値を対応点に対応している注目画素の画素値に設定し、複数の標本値の大きさと、複数の対応点の配置とに基づいて、基準フレームの画素数よりも多い画素数の高解像度フレームであって基準フレームに対応する高解像度フレームの画素値を算出することにより、中解像度フレームから本来の画素値を推定して画素を増やすことにより、高解像度フレームを復元する。 For example, when using the super-resolution conversion process disclosed in Japanese Patent Application Laid-Open No. 2007-310837, the change pattern of the pixel value in the target image area including the target pixel in the frame for each of a plurality of medium resolution frames. Select a plurality of corresponding points corresponding to a plurality of target image areas closest to the reference frame from the reference frame, set the sample value of the luminance at the corresponding point to the pixel value of the target pixel corresponding to the corresponding point, and Calculating a pixel value of a high-resolution frame corresponding to the reference frame, which is a high-resolution frame having a number of pixels larger than the number of pixels of the reference frame, based on the size of the sample value and the arrangement of a plurality of corresponding points. Thus, the original pixel value is estimated from the medium resolution frame and the number of pixels is increased to restore the high resolution frame.
また、特開2008−98803号公報に開示された同一フレーム画像内の自己合同位置探索を利用した超解像度変換処理を用いる場合には、中解像度フレームの探索領域の各画素の誤差を比較して最小となる第1の画素位置を算出し、第1の画素位置及びこの第1の誤差、第1の画素の周辺の第2の画素位置及びこの第2の誤差に基づいて、探索領域のなかで誤差が最小となる位置を小数精度で算出する。そして、この位置を終点及び注目画素を始点とする小数精度ベクトルを算出し、小数精度ベクトルを用いて、探索領域に含まれない画面上の画素を終点とする、小数精度ベクトルの外挿ベクトルを算出する。そして、小数精度ベクトル、外挿ベクトル及び画像データから取得された画素値に基づいて、画像データに含まれる画素数よりも多い画素数の高解像度画像の画素値を算出する。エフェクト部233は、このような処理を行うことにより、中解像度フレームから本来の画素値を推定して画素を増やすことにより、高解像度フレームを復元する。
In addition, when using the super-resolution conversion process using self-congruent position search in the same frame image disclosed in Japanese Patent Application Laid-Open No. 2008-98803, the error of each pixel in the search area of the medium resolution frame is compared. The minimum first pixel position is calculated, and based on the first pixel position and the first error, the second pixel position around the first pixel, and the second error, The position where the error is minimized is calculated with decimal precision. Then, a decimal precision vector with this position as the end point and the target pixel as the start point is calculated, and an extrapolation vector of the decimal precision vector with the pixel on the screen not included in the search region as the end point is calculated using the decimal precision vector. calculate. Then, based on the decimal precision vector, the extrapolation vector, and the pixel value acquired from the image data, the pixel value of the high-resolution image having a larger number of pixels than the number of pixels included in the image data is calculated. By performing such processing, the
また、特開2000−188680号公報に開示された複数フレーム画像間でのマッピングを利用した超解像度変換処理を用いることもできる。 Also, a super-resolution conversion process using mapping between a plurality of frame images disclosed in Japanese Patent Laid-Open No. 2000-188680 can be used.
ただし、エフェクト部233における超解像度変換処理(鮮鋭化処理)の手法は、上記に限定されるものではなく、低解像度または中解像度の画像信号から本来の画素値を推定して画素を増やすことにより、高解像度の画像信号を復元する処理であれば、あらゆる手法を適用することができる。
However, the super resolution conversion process (sharpening process) method in the
エフェクト部233によって、少なくとも一方に対して補正が施されたビデオデータa2およびオーディオデータb2(ここでは、ビデオデータa2のみ)は、続いて、AV同期部234に導かれる。AV同期部234は、エフェクト部233から受け取ったビデオデータa2およびオーディオデータb2を、タイムスタンプ部232によって付与された時間情報に基づき、補正に伴う遅延時間の差を吸収すべく、時間的に一致させてDLL部102に出力するモジュールである(a3,b3)。この時間情報に基づくビデオデータa2およびオーディオデータb2の出力についても後述する。
The video data a2 and the audio data b2 (here, only the video data a2) corrected for at least one by the
AV同期部234からDLL部102に出力されたビデオデータa3およびオーディオデータb3は、DLL部102を仲介してカーネル部101に渡され(a4,b4)高画質化や高音質化が図られた画像出力および音声出力が行われることになる。
The video data a3 and audio data b3 output from the
よって、既存の動画受信再生プログラム220をそのまま活用しつつ、ユーザは、動画配信サイト2からダウンロードしたAVコンテンツを高画質や高音質で鑑賞することが可能となる。
Therefore, the user can appreciate the AV content downloaded from the moving
図4は、キャプチャ設定部231によるDLL部102内のルーチンの書き換え処理の一例を説明するための概念図である。
FIG. 4 is a conceptual diagram for explaining an example of a routine rewriting process in the
前述したように、動画受信再生プログラム220は、AVコンテンツから分離して取り出したビデオデータおよびオーディオデータ(AVデータ)を、OS100のDLL部102に引き渡す。そこで、この動画受信再生プログラム220が起動した旨をブラウザ210から通知されるとともに、エンジン起動部235がユーザからエフェクトエンジン230における主処理の実行が指示されたことを判断して起動されたエフェクトエンジン230のキャプチャ設定部231は、入力したAVデータに対して例えば形式チェックなどの処理を施すDLL部102内のルーチン(図示の「本来の処理」部分)とは別にエフェクトエンジン230にAVデータを引き渡すための呼び出し手続き(図示の「コール」)がその先頭部に配置されたルーチンに書き換える。AVデータの引き渡しは、補正対象のAVデータが格納されている主メモリ13上のアドレス情報を伝達することによって行う。この書き換えを、キャプチャ設定部231が実行する。
As described above, the moving image reception /
図5は、AV同期部234による、タイムスタンプ部232によって付与された時間情報に基づいた、エフェクト部233によって補正されたビデオデータおよびオーディオデータの出力原理を説明するための概念図である。
FIG. 5 is a conceptual diagram for explaining the output principle of video data and audio data corrected by the
図5中、(A)は、動画受信再生プログラム220がAVコンテンツをダウンロードする様子を示すタイミングチャート、(B)は、動画受信再生プログラム220がダウンロードしたAVコンテンツをデコードして分離・取得したビデオデータおよびオーディオデータを出力する様子を示すタイミングチャート、(C)は、エフェクトエンジン230のエフェクト部233が補正後のビデオデータおよびオーディオデータを出力する様子を示すタイミングチャート、(D)は、エフェクトエンジン230のAV同期部234がエフェクト部233から受け取ったビデオデータおよびオーディオデータをDLL部102に出力する様子を示すタイミングチャートである。
In FIG. 5, (A) is a timing chart showing how the video reception /
コンピュータ1と動画配信サイト2との間でインターネット3を介して実行されるデータ通信は、通信環境の変化の影響を受け得るので、動画受信再生プログラム220によるAVコンテンツ(D1,D2,・・・)のダウンロードは、図5(A)に示すように、時間的に不規則となる可能性がある。これに対して、AVコンテンツをデコードする動画受信再生プログラム220は、分離して取り出したビデオデータ(V1,V2,・・・)およびオーディオデ一タ(A1,A2,・・・)を、図5(B)に示すように、時間的な同期を取ってOS100のDLL部102に出力する機能を有している。よって、エフェクトエンジン230のタイムスタンプ部232は、ほぼ、この図5(B)に示すタイミングで、時間的な同期の取られたビデオデータおよびオーディオデータに同一の時間情報を付与することになる。
Since data communication executed between the
しかしながら、エフェクトエンジン230のエフェクト部233によって、ビデオデータに対する高画質化のための補正やオーディオデータに対する高音質化のための補正が実行されると、(補正の有無や内容の違いによって、)図5(C)に示すように、ビデオデータとオーディオデータとの間で時差が生じてしまう。そこで、エフェクトエンジン230のAV同期部234は、タイムスタンプ部232によって付与された時間情報で特定される時点から例えばパラメータ入力される期間(x)が経過したときに、ビデオデータおよびオーディオデータを出力することによって、図5(D)に示すように、当該ビデオデータおよびオーディオデータを再度時間的に一致させる。
However, when the
この期間(x)は、ユーザがAVコンテンツの再生開始を指示する操作を行った後、動画配信サイト2から動画受信再生プログラム220にAVコンテンツが転送され始めるまでの所要期間と比較して十分小さいので、ユーザに違和感を与えることはない。
This period (x) is sufficiently smaller than a required period until the AV content starts to be transferred from the
このAV同期部234が、補正に伴う遅延時間差の吸収機構を備えることで、エフェクト部233に、様々な補正手法を適用することが可能となる。例えば、高度な補正手法を適用する場合には、時間(x)を大きい値とすれば良く、また、ビデオデータとオーディオデータとの関係を考慮することなく、補正の有無や補正手法を個別に決定することが可能となる。
Since the
以上の処理により、エンジン起動部235がユーザからエフェクトエンジン230における主処理の実行が指示されたことを判断した場合には、動画受信再生プログラム220によるAVコンテンツに含まれるビデオデータとオーディオデータとについての画像出力および音声出力と、エフェクトエンジン230で高画質化のための補正を施されたビデオデータとオーディオデータとについての画像出力および音声出力とが実行されることになる。この場合、本実施の形態においては、動画受信再生プログラム220によるAVコンテンツの再生が開始され、その後、エフェクトエンジン230によって動画受信再生プログラム220の出力画面に対して高画質化のための補正を施された動画像が、LCD15の全画面で再生される。その際、動画受信再生プログラム220によるAVコンテンツの再生ウインドウW1(図10参照)は、バックグランド(エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2(図10参照)の下に隠れている)で続けられている。
When the
操作指示同期部236は、詳細は後述するが、動画受信再生プログラム220による動画像に対するユーザ操作と、エフェクトエンジン230で高画質化のための補正を施された動画像に対するユーザ操作との同期をとるモジュールである。
As will be described in detail later, the operation
次に、エンジン起動部235におけるユーザからのエフェクトエンジン230における主処理の実行指示の判断処理について説明する。ここで、図6はエフェクトエンジン230における主処理の実行指示の判断処理の流れを示すフローチャートである。動画受信再生プログラム220によるAVコンテンツに含まれるビデオデータの画像(動画)がLCD15に出力されている状態で(図7参照)、ポインティングデバイス27のユーザ操作によりマウスポインタが動画上(再生ウィンドウW1上)に重なったこと(マウスオーバー)がEC/KBC25、OS100を介してエンジン起動部235に通知されると、エンジン起動部235はポインティングデバイス27のマウスポインタが動画上にあると判断して(ステップS1のYes)、エンジン起動部235はOS100を介して動画情報(動画サイズ、AVコンテンツのダウンロード元のURL(Uniform Resource Locator)、動画受信再生プログラム220のバージョンなど)を取得する(ステップS2)。なお、動画情報(動画サイズ、AVコンテンツのダウンロード元のURL(Uniform Resource Locator)、動画受信再生プログラム220のバージョンなど)を、動画受信再生プログラム220から直接取得するようにしても良い。
Next, a determination process of an execution instruction for main processing in the
次いで、エンジン起動部235は、ステップS2で取得した動画情報に基づき、例えばエフェクトエンジン230のエフェクト部233による高画質化処理のサポート対象条件に合致する動画か否かを判断する(ステップS3)。動画情報として取得する動画サイズ、AVコンテンツのダウンロード元のURL、動画受信再生プログラム220のバージョンなどは、エフェクトエンジン230のエフェクト部233による高画質化処理に様々な影響を与える情報である。例えば、動画サイズが規定のサイズに一致しない場合には、高画質化処理が複雑になるため、規定サイズ以外のサイズの動画はエフェクト部233による高画質化処理をサポートしないようにしたものである。また、AVコンテンツのダウンロード元のURLが予め定められた有害なサイトである場合には、当該サイトからダウンロードしたAVコンテンツは、エフェクト部233による高画質化処理をサポートしないようにしたものである。さらに、動画受信再生プログラム220のバージョンによっては、高画質化処理ルーチンが異なる可能性が考えられるため、規定のバージョン以外のバージョンの動画受信再生プログラム220による動画はエフェクト部233による高画質化処理をサポートしないようにしたものである。
Next, the
エンジン起動部235は、エフェクト部233による高画質化処理のサポート対象条件に合致する動画であると判断した場合には(ステップS3のYes)、OS100や表示コントローラ14を介して、図8に示すように高画質化処理の操作用のボタンBをLCD15に表示されている動画上に表示させる(ステップS4)。
When the
図8に示す状態で動画上に表示されているボタンBがポインティングデバイス27のユーザ操作によりクリックされたことがEC/KBC25、OS100を介してエンジン起動部235に通知されると、エンジン起動部235はポインティングデバイス27によりボタンBがクリックされたことにより、ユーザからエフェクトエンジン230における主処理の実行が指示されたことを判断して(ステップS5のYes)、キャプチャ設定部231、タイムスタンプ部232、エフェクト部233、AV同期部234、操作指示同期部236をそれぞれ起動させる(ステップS6)。
When the
なお、エンジン起動部235は、エフェクト部233による高画質化処理のサポート対象条件に合致する動画でないと判断した場合は(ステップS3のNo)、ステップS1に戻り、ポインティングデバイス27のユーザ操作によるマウスオーバーに待機する。
If the
また、ボタンBがクリックされないまま数秒(例えば5秒)経過した場合には(ステップS7のYes)、動画上に表示されている高画質化処理の操作用のボタンBを非表示とし(ステップS8)、ステップS1に戻り、ポインティングデバイス27のユーザ操作によるマウスオーバーに待機する。
If several seconds (for example, 5 seconds) have passed without the button B being clicked (Yes in step S7), the button B for high image quality display operation displayed on the moving image is not displayed (step S8). ), The process returns to step S1 and waits for the mouse over by the user operation of the
これにより、ユーザはAVコンテンツがエフェクト部233による高画質化処理などのオプション機能処理のサポート対象条件に合致する動画であるか否かを考慮することなく、高画質化処理などのオプション機能処理をスマートに起動することができる。
Thereby, the user can perform optional function processing such as high image quality processing without considering whether the AV content is a moving image that matches the support target condition of the optional function processing such as high image quality processing by the
次に、操作指示同期部236における動画受信再生プログラム220による動画像(AVコンテンツに含まれる画像データ)に対するユーザ操作と、エフェクトエンジン230で高画質化のための補正を施された動画像(キャプチャ画像データ)に対するユーザ操作との同期をとる同期処理について説明する。
Next, a user operation on a moving image (image data included in AV content) by the moving image reception /
前述したように、本実施の形態においては、動画受信再生プログラム220によるAVコンテンツの再生が開始され、その後、動画受信再生プログラム220の出力画面に対して高画質化のための補正をエフェクトエンジン230によって施された動画像が、LCD15の全画面で再生される。その際、動画受信再生プログラム220によるAVコンテンツの再生ウインドウW1は、バックグランド(エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2の下に隠れている)で続けられている。
As described above, in the present embodiment, the playback of AV content by the moving image reception /
ここで問題となるのは、エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2に対するユーザ操作を、バックグランド(エフェクトエンジン230によって高画質化された(例えば、高解像度化処理が施された)動画像が表示される全画面のウインドウW2の下に隠れている)で再生されている動画受信再生プログラム220による動画像に対してするのでは、必ずしも良い操作環境とは言えないという点である。
The problem here is that the user operation on the full-screen window W2 on which a moving image with high image quality is displayed by the
本実施形態では、エフェクトエンジン230内のエフェクト部233は、動画受信再生プログラム220で復号して得られる動画像データと、ユーザ操作用の操作画像データとを一体とした表示画像データに対して、高解像度化等の処理を施している。ここで、実際にユーザが見ている画像はエフェクトエンジン230が処理し、出力する画像であるので、ユーザは処理後の表示画像データに対して操作指示を行うこととなる。一方、実際に該操作に対する処理(例えば再生の停止/再開等)は、動画受信再生プログラム220が行う。そのために、エフェクトエンジン230上の画像に対してユーザがポインタを操作して得られたポインタイベントを動画像受信再生プログラム220に渡す必要がある。
In the present embodiment, the
ここで、元の表示画像データと、高解像度化処理を行った後の表示画像データとでは、解像度が異なることから、画像に対するポインタの相対位置(座標位置)は、両者間で異なることとなる。つまり、エフェクトエンジン230上でユーザがポインタを操作して得られたポインタイベント(座標位置情報を含む)をそのまま動画受信再生プログラム220に渡しても、ユーザが意図した座標位置の画像への操作となならないことになる。
Here, since the resolution is different between the original display image data and the display image data after the high resolution processing, the relative position (coordinate position) of the pointer with respect to the image is different between the two. . That is, even if a pointer event (including coordinate position information) obtained by operating a pointer on the
そこで、本実施の形態においては、操作指示同期部236を備えることにより、操作指示同期部236が、動画受信再生プログラム220により再生されている動画像と違うウインドウ(エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2)に対するユーザの操作を受け付けると、ユーザのマウス操作(ポインタイベント)を解析すると共に、座標位置情報を変換し、動画受信再生プログラム220に対し適切なメッセージを送ることにより、動画受信再生プログラム220による動画像再生ウインドウW1上でのポインタイベントと同等の振る舞いを可能としたものである。
Therefore, in the present embodiment, by providing the operation
図9は、操作指示同期部236の機能構成を示すブロック図である。図9に示すように、操作指示同期部236は、エフェクトエンジン230のエフェクト部233が再生する高画質化された動画像が表示される全画面のウインドウW2に対するポインタイベントを検知するイベント検知手段であるイベント検知部236aと、ポインタイベントが検知された場合、ポインタイベント(ポインタイベントの発生した座標位置の情報である座標位置情報を含む)を、動画受信再生プログラム220に転送(出力)するイベント出力手段であるイベント転送部236bと、エフェクトエンジン230のエフェクト部233が再生する高画質化(解像度が変換)された動画像が表示される全画面のウインドウW2と動画受信再生プログラム220による動画像再生ウインドウW1との座標系(画像に対するポインタの取るべき相対座標)が異なる場合に、イベントが検知された全画面のウインドウW2上の座標位置情報を動画像再生ウインドウW1上の座標位置情報に変換する座標位置情報変換手段である座標系変換部236cと、を備えている。
FIG. 9 is a block diagram illustrating a functional configuration of the operation
ここで、図10は操作指示同期部236による同期処理の動作概要を示す模式図、図11は操作指示同期部236による同期処理の流れを示すフローチャートである。なお、図10に示すように、エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2には動画受信再生プログラム220により実現されるAVコンテンツに対する各種処理操作をユーザに指示させるための操作指示部材であるプレーヤーの各種操作ボタンb1〜b5(操作画像データ)もキャプチャされている。図10に示すように、操作指示同期部236は、エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2に表示されている操作ボタンb1〜b5のいずれかに対するポインティングデバイス27によるクリックやマウスオーバー、キーボード(KB)26のキー操作によるイベントを検知すると(ステップS11のYes:イベント検知部236a)、ステップS12に進む。
Here, FIG. 10 is a schematic diagram showing an outline of the operation of the synchronization processing by the operation
続いて操作指示同期部236は、ポインティングデバイス27によるクリックやマウスオーバー、キーボード(KB)26によるキー操作/ポインティング操作された全画面上における座標位置を取得し(ステップS12)、取得した座標をキャプチャサイズに対応するように変換することにより、バックグランド(エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2の下に隠れている)で再生されている動画受信再生プログラム220が出力する表示画像データ上の座標系に変換し(ステップS13:座標系変換部236c)、取得されたポインタイベントの座標位置情報部分を変換した座標位置情報に置換したメッセージ(ポインタイベント)に変換して(ステップS14)、ポインティングデバイス27によるクリックやマウスオーバー、キーボード(KB)26によるキー操作された全画面上における位置(取得した座標)が後述するようなエフェクトエンジン230が有している機能に対する指示を選択させるメニューM(図12(b)参照)上でない場合には(ステップS15のNo)、変換したメッセージを動画受信再生プログラム220に転送する(ステップS16:イベント転送部236b)。これにより、取得した全画面における座標位置が各種操作ボタンb1〜b5上である場合には、動画受信再生プログラム220により実現されるプレーヤーの各種操作ボタンb1〜b5に対する操作を実現することができる。
Subsequently, the operation
尚ここで、エフェクトエンジン230は、ポインタイベントを動画受信再生プログラム220に渡すのみならず、自身で処理しても良い。例えば、ポインティングデバイス27を動かすイベントが発生した場合には、エフェクトエンジン235は、ウインドウW2の上部にメニューMを動画像にオーバーレイされるように表示制御する。
Here, the
なお、操作指示同期部236は、ポインティングデバイス27によるクリックやマウスオーバー、キーボード(KB)26によるキー操作された全画面上における位置(取得した座標)が、エフェクトエンジン230が有している機能に対する指示を選択させるメニューM(図12(c)参照)上の領域である場合には(ステップS15のYes)、キャプチャ設定部231のみにポインタイベントを渡して(ステップS17)、エフェクトエンジン230に対する処理を実行させる。尚ここで、上述の通り全画面のウインドウW2上で「ポインティングデバイス27を動かす」イベントが発生した場合には、場所(座標位置)は関係なくメニューMが出現する(図12(b)(c)参照)。その後、ポインティングデバイス27が止まると、ポインティングデバイス27のポインタ位置がメニューM上ではない限り、メニューMは消滅する。また、メニューMの選択肢をポインティングデバイス27でクリックした場合には、メニューMの選択肢に対応付けられたエフェクトエンジン230が有している機能が実行される。このとき動画受信再生プログラム220にはポインタイベントは出力しない。
It should be noted that the operation
このように、エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2上におけるマウス操作領域によって、エフェクトエンジン230によって高画質化された動画像が表示される全画面のW2に対する処理と動画受信再生プログラム220により実現されるプレーヤーの各種操作ボタンb1〜b5に対する操作処理とを異ならせることができる。
In this way, the full-screen W2 on which the high-quality moving image is displayed by the
これにより、エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2を操作した結果が動画受信再生プログラム220により実現されるプレーヤーの各種操作ボタンb1〜b5に対する操作に反映され、この操作が反映された動画受信再生プログラム220による動画像がさらにエフェクトエンジン230のキャプチャ設定部231にキャプチャされ、結果として、エフェクトエンジン230によって高画質化された動画像が表示される全画面の再生状態も変わる。したがって、ユーザは、エフェクトエンジン230によって高画質化された動画像が表示される全画面のウインドウW2と動画受信再生プログラム220による動画像の再生ウインドウW1との位置関係を意識せず、エフェクトエンジン230によって高画質化された動画像が表示される全画面再生ウインドウW2を動画受信再生プログラム220のフル画面状態として認識し、操作することができる。
As a result, the result of operating the full-screen window W2 on which the high-quality moving image is displayed by the
このように本実施の形態によれば、画像再生手段が再生するコンテンツに含まれる画像データと当該画像データとともに画像再生手段に表示されるものであってコンテンツに対する各種処理操作をユーザに指示させるための操作画像データとを一体に取り込んで画像処理手段が処理する表示画像データに対するポインタイベントが検知された場合、ポインタイベントの座標位置情報を変換して画像再生手段に出力し、画像再生手段は、当該ポインタイベントの座標位置が操作画像データ部分である場合に、当該操作画像データに関連付けられた処理を実行することにより、画像処理手段が再生する表示画像データを操作した結果が、画像再生手段が有している操作画像データに対する操作に反映され、この操作が反映された画像再生手段が再生する画像データがさらに画像処理手段によって取り込まれ、結果として、画像処理手段が出力する表示画像データの表示状態も変わるので、ユーザは、画像処理手段が表示する表示画像データと画像再生手段が再生する表示画像データとの位置関係を意識せず、画像再生手段が再生する画像データと画像処理手段が再生する表示画像データとを同時に操作することができる。 As described above, according to the present embodiment, the image data included in the content reproduced by the image reproduction means and the image reproduction means are displayed together with the image data, and the user is instructed to perform various processing operations on the content. When a pointer event is detected with respect to display image data processed by the image processing means by fetching the operation image data, the coordinate position information of the pointer event is converted and output to the image reproduction means. When the coordinate position of the pointer event is the operation image data part, the result of operating the display image data reproduced by the image processing means by executing the process associated with the operation image data is It is reflected in the operation for the operation image data that it has, and the image playback means reflecting this operation is restarted. The image data to be processed is further captured by the image processing means, and as a result, the display state of the display image data output from the image processing means also changes, so that the user reproduces the display image data displayed by the image processing means and the image reproduction means. The image data reproduced by the image reproduction means and the display image data reproduced by the image processing means can be operated simultaneously without being aware of the positional relationship with the display image data.
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine a component suitably in different embodiment.
1 画像処理装置
220 画像再生手段
230 画像再生装置
236a イベント検知手段
236b イベント出力手段
236c 座標位置情報変換手段
240 画像処理手段
b1〜b5 操作画像データ
DESCRIPTION OF
Claims (10)
前記画像処理手段が出力する前記第2の表示画像データに対するポインタイベントを検知するイベント検知手段と、
前記ポインタイベントが検知された場合、該ポインタイベントに含まれる座標位置情報を変換する座標位置情報変換手段と、
該座標位置情報変換後の前記ポインタイベントを前記画像再生手段に出力するイベント出力手段と、
を備えることを特徴とする画像再生装置。 Moving image data obtained by decoding the encoded data by the image reproducing means, and image data output by the image reproducing means together with the moving image data, for providing the user with various processing operations on the moving image data Image processing means for performing image processing on the first display image data including the operation image data so as to be displayed as second display image data; and
Event detection means for detecting a pointer event for the second display image data output by the image processing means;
When the pointer event is detected, coordinate position information conversion means for converting the coordinate position information included in the pointer event;
Event output means for outputting the pointer event after the coordinate position information conversion to the image reproduction means;
An image reproducing apparatus comprising:
ことを特徴とする請求項1記載の画像再生装置。 The coordinate position information conversion unit is configured to include coordinates included in the pointer event based on a coordinate relationship between a relative position of the pointer on the first display image data and a relative position of the pointer on the second display image data. Convert location information,
The image reproducing apparatus according to claim 1, wherein:
前記画像処理手段は、前記ポインタイベントが検知された前記第2の表示画像データ上の座標位置に応じた処理を実行する、
ことを特徴とする請求項1記載の画像再生装置。 The event output means outputs the pointer event including coordinate position information on the second display image data to the image processing means,
The image processing means executes processing according to a coordinate position on the second display image data in which the pointer event is detected;
The image reproducing apparatus according to claim 1, wherein:
ことを特徴とする請求項3記載の画像再生装置。 When the coordinate position on the second display image data where the pointer event is detected is within a specific range, the event output means reproduces the event and the pointer event where the event is detected in the image reproduction. Output to the image processing means without outputting to the means;
The image reproduction apparatus according to claim 3.
ことを特徴とする請求項4記載の画像再生装置。 The image processing means converts the resolution of the first display image data to generate the second display image data;
5. An image reproducing apparatus according to claim 4, wherein
前記画像再生手段が出力する前記動画像データと前記操作画像データとを含む第1の表示画像データに画像処理を施して第2の表示画像データとして表示可能に出力する画像処理手段と、
前記画像処理手段が出力する前記第2の表示画像データに対するポインタイベントを検知するイベント検知手段と、
前記ポインタイベントが検知された場合、該ポインタイベントに含まれる座標位置情報を変換する座標位置情報変換手段と、
該座標位置情報変換後の前記ポインタイベントを前記画像再生手段に出力するイベント出力手段と、
を備え、
前記画像再生手段は、前記イベント出力手段から出力された前記ポインタイベントの前記第1の表示画像データ上の座標位置が前記操作画像データ上である場合に、当該操作画像データに関連付けられた処理を実行する、
ことを特徴とする画像処理装置。 Image reproduction means for decoding encoded data into moving image data and outputting operation image data for providing a user with various operation functions for the moving image data;
Image processing means for performing image processing on the first display image data including the moving image data and the operation image data output by the image reproducing means and outputting the second display image data so as to be displayable;
Event detection means for detecting a pointer event for the second display image data output by the image processing means;
When the pointer event is detected, coordinate position information conversion means for converting the coordinate position information included in the pointer event;
Event output means for outputting the pointer event after the coordinate position information conversion to the image reproduction means;
With
The image reproduction means performs processing associated with the operation image data when the coordinate position on the first display image data of the pointer event output from the event output means is on the operation image data. Execute,
An image processing apparatus.
ことを特徴とする請求項6記載の画像処理装置。 The coordinate position information conversion unit is configured to include coordinates included in the pointer event based on a coordinate relationship between a relative position of the pointer on the first display image data and a relative position of the pointer on the second display image data. Convert location information,
The image processing apparatus according to claim 6.
前記画像処理手段は、前記ポインタイベントが検知された前記第2の表示画像データ上の座標位置に応じた処理を実行する、
ことを特徴とする請求項6記載の画像処理装置。 The event output means outputs the pointer event including coordinate position information on the second display image data to the image processing means,
The image processing means executes processing according to a coordinate position on the second display image data in which the pointer event is detected;
The image processing apparatus according to claim 6.
ことを特徴とする請求項8記載の画像処理装置。 When the coordinate position on the second display image data where the pointer event is detected is within a specific range, the event output means reproduces the event and the pointer event where the event is detected in the image reproduction. Output to the image processing means without outputting to the means;
The image processing apparatus according to claim 8.
ことを特徴とする請求項9記載の画像処理装置。 The image processing means converts the resolution of the first display image data to generate the second display image data;
The image processing apparatus according to claim 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001088A JP2010160576A (en) | 2009-01-06 | 2009-01-06 | Image reproduction apparatus and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001088A JP2010160576A (en) | 2009-01-06 | 2009-01-06 | Image reproduction apparatus and image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010160576A true JP2010160576A (en) | 2010-07-22 |
Family
ID=42577712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009001088A Pending JP2010160576A (en) | 2009-01-06 | 2009-01-06 | Image reproduction apparatus and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010160576A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142645A (en) * | 1999-11-11 | 2001-05-25 | Fujitsu General Ltd | Image display device having touch panel |
JP2005275450A (en) * | 2004-03-22 | 2005-10-06 | Canon Inc | Display device, its control method and control program |
JP2006079164A (en) * | 2004-09-07 | 2006-03-23 | Sony Corp | Information processor, method, and program |
-
2009
- 2009-01-06 JP JP2009001088A patent/JP2010160576A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142645A (en) * | 1999-11-11 | 2001-05-25 | Fujitsu General Ltd | Image display device having touch panel |
JP2005275450A (en) * | 2004-03-22 | 2005-10-06 | Canon Inc | Display device, its control method and control program |
JP2006079164A (en) * | 2004-09-07 | 2006-03-23 | Sony Corp | Information processor, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11943486B2 (en) | Live video broadcast method, live broadcast device and storage medium | |
CN106233706B (en) | Apparatus and method for providing backward compatibility of video with both standard and high dynamic range | |
CN111314724A (en) | Cloud game live broadcasting method and device | |
JP5014259B2 (en) | Display control apparatus and display control method | |
CN112367543B (en) | Display device, mobile terminal, screen projection method and screen projection system | |
US20120011468A1 (en) | Information processing apparatus and method of controlling a display position of a user interface element | |
KR101942269B1 (en) | Apparatus and method for playing back and seeking media in web browser | |
JP4786739B2 (en) | Information processing apparatus and video content data reproduction method | |
CN102902761A (en) | Cross-terminal cloud browse method and system | |
US20110091183A1 (en) | Information processing apparatus and data transfer method | |
US20110154270A1 (en) | Image display system, image display device, program, and recording medium | |
WO2013176510A1 (en) | Method and apparatus for multi-playing videos | |
US20230017791A1 (en) | Display method and display apparatus for operation prompt information of input control | |
WO2011077550A1 (en) | Screen relay device | |
JP5087014B2 (en) | Information processing apparatus and playback apparatus | |
JP5268991B2 (en) | Information processing apparatus and video content reproduction method | |
JP5010666B2 (en) | Information processing device | |
JP2008040347A (en) | Image display device, image display method, and image display program | |
CN112269668A (en) | Application resource sharing and display equipment | |
JP2008186448A (en) | Presentation system and method | |
JP5492263B2 (en) | Information processing apparatus, method, and program | |
JP2010160576A (en) | Image reproduction apparatus and image processing apparatus | |
JP2010109755A (en) | Information processing apparatus, effect program and content correction processing method | |
JP6212447B2 (en) | Movie reproduction control apparatus, movie reproduction control method and program | |
CN114895824B (en) | Application window processing method, terminal device, server and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111024 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120327 |