[go: up one dir, main page]

JP6834042B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP6834042B2
JP6834042B2 JP2020033764A JP2020033764A JP6834042B2 JP 6834042 B2 JP6834042 B2 JP 6834042B2 JP 2020033764 A JP2020033764 A JP 2020033764A JP 2020033764 A JP2020033764 A JP 2020033764A JP 6834042 B2 JP6834042 B2 JP 6834042B2
Authority
JP
Japan
Prior art keywords
image data
input
image
input image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020033764A
Other languages
Japanese (ja)
Other versions
JP2020115639A (en
Inventor
智章 小宮山
智章 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020033764A priority Critical patent/JP6834042B2/en
Publication of JP2020115639A publication Critical patent/JP2020115639A/en
Application granted granted Critical
Publication of JP6834042B2 publication Critical patent/JP6834042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置に関する。 The present invention relates to a display device.

近年、4K2K(4096×2160)や8K4K(8192×4320)等の高精細画像を表示可能な表示装置が実用化されている。しかしながら高精細画像データの伝送には広帯域が要求されるため伝送系のコストが高くなる。そこで、元の高精細画像データ(全体画像データという)を複数の部分画像データに分割して伝送し、表示装置において部分画像データを合成して全体画像データを再生する方法が提案されている。この方法によれば、伝送に広帯域が要求されないため伝送系のコストを低減できる。分割画像データから全体画像データを正しく構成するためには、表示装置に入力されている複数の画像データのうち、全体画像データを構成する分割画像データを正しく選択する必要がある。ユーザ操作によってこの選択を行う構成では、分割数が多くなるとユーザに煩雑な操作をさせることになるという課題がある。分割画像データの選択を自動で行う構成としては、入力画像データを解析し、所定の条件を満たす入力画像データを部分画像データとして判定する方法がある。特許文献1には、複数の入力画像データのうち同期信号の周波数が同じである画像データの数をカウントし、最も画像データの数が多い周波数を基準として画像合成を行う方法が開示されている。 In recent years, display devices capable of displaying high-definition images such as 4K2K (4096 x 2160) and 8K4K (8192 x 4320) have been put into practical use. However, the transmission of high-definition image data requires a wide band, which increases the cost of the transmission system. Therefore, a method has been proposed in which the original high-definition image data (referred to as the whole image data) is divided into a plurality of partial image data and transmitted, and the partial image data is synthesized in the display device to reproduce the whole image data. According to this method, the cost of the transmission system can be reduced because a wide band is not required for transmission. In order to correctly configure the entire image data from the divided image data, it is necessary to correctly select the divided image data constituting the entire image data from the plurality of image data input to the display device. In a configuration in which this selection is made by a user operation, there is a problem that a user is required to perform a complicated operation when the number of divisions is large. As a configuration for automatically selecting the divided image data, there is a method of analyzing the input image data and determining the input image data satisfying a predetermined condition as the partial image data. Patent Document 1 discloses a method of counting the number of image data having the same synchronization signal frequency among a plurality of input image data and performing image composition based on the frequency having the largest number of image data. ..

特開2013−5226号公報Japanese Unexamined Patent Publication No. 2013-5226

特許文献1の方法で推定した部分画像データの組み合わせが常に全体画像データを構成する部分画像データの組み合わせになるとは限らない。例えば、同期信号の周波数が同じである画像データA1、A2、Bが入力されており、このうち画像データA1とA2は全体画像データAを構成する部分画像データであり、画像データBは全体画像データAとは独立の画像データであるとする。この場合、特許文献1の方法では、画像データBも全体画像データAを構成する部分画像データと判定されてしまう可能性がある。そうすると、全体画像データのサイズが表示装置の表示可能なサイズを超えてしまう。 The combination of the partial image data estimated by the method of Patent Document 1 is not always the combination of the partial image data constituting the entire image data. For example, image data A1, A2, and B having the same synchronization signal frequency are input, of which image data A1 and A2 are partial image data constituting the entire image data A, and image data B is the entire image. It is assumed that the image data is independent of the data A. In this case, in the method of Patent Document 1, there is a possibility that the image data B is also determined to be the partial image data constituting the entire image data A. Then, the size of the entire image data exceeds the size that can be displayed on the display device.

そこで、本発明は、表示装置に入力される複数の画像データのうち全体画像データを構成する部分画像データを精度良く判定する技術を提供することを目的とする。 Therefore, an object of the present invention is to provide a technique for accurately determining partial image data constituting the entire image data among a plurality of image data input to a display device.

上記の目的を達成するために、本発明に係る表示装置の一つは、画像を表示する表示手段と、複数の入力画像データが入力される入力手段と、前記複数の入力画像データのうち、前記表示手段に画像を表示するために用いる1つの入力画像データをユーザが選択するための第1画像を表示するように前記表示手段を制御する制御手段と、を有し、前記表示手段が表示可能な画像データを構成する複数の部分画像データを前記複数の入力画像データが含む場合、前記制御手段は、前記第1画像と、前記複数の部分画像データに対応する入力画像データの組み合わせをユーザが選択するための第2画像と、を併せて表示するように、前記表示手段を制御する。

In order to achieve the above object, one of the display devices according to the present invention includes a display means for displaying an image, an input means for inputting a plurality of input image data, and the plurality of input image data. The display means has control means for controlling the display means so as to display a first image for the user to select one input image data used for displaying the image on the display means, and the display means displays. When the plurality of input image data includes a plurality of partial image data constituting the possible image data, the control means uses a combination of the first image and the input image data corresponding to the plurality of partial image data. The display means is controlled so as to display the second image for selection by the user.

上記の目的を達成するために、本発明に係る制御方法の一つは、画像を表示する表示手段を有する表示装置の制御方法であって、複数の入力画像データが入力される入力ステップと、前記複数の入力画像データのうち、前記表示手段に画像を表示するために用いる1つの入力画像データをユーザが選択するための第1画像を表示するように前記表示手段を制御する制御ステップと、を有し、前記表示手段が表示可能な画像データを構成する複数の部分画像データを前記複数の入力画像データが含む場合、前記制御ステップでは、前記第1画像と、前記複数の部分画像データに対応する入力画像データの組み合わせをユーザが選択するための第2画像と、を併せて表示するように、前記表示手段を制御する。

In order to achieve the above object, one of the control methods according to the present invention is a control method of a display device having a display means for displaying an image, which includes an input step in which a plurality of input image data are input and an input step. A control step for controlling the display means so as to display a first image for the user to select one input image data used for displaying the image on the display means among the plurality of input image data. When the plurality of input image data includes a plurality of partial image data constituting the image data that can be displayed by the display means, in the control step, the first image and the plurality of partial image data are combined. The display means is controlled so that the second image for the user to select the combination of the corresponding input image data is also displayed.

本発明によれば、表示装置に入力される複数の画像データのうち全体画像データを構成する部分画像データを精度良く判定することができる。 According to the present invention, it is possible to accurately determine the partial image data constituting the entire image data among the plurality of image data input to the display device.

実施形態1〜3の表示装置100が有する複数の構成要素を説明するための図である。It is a figure for demonstrating a plurality of components having the display device 100 of Embodiments 1-3. 実施形態1における表示装置100で行われる処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process performed by the display device 100 in Embodiment 1. FIG. 入力画像データのフォーマット情報の一例を説明するための図である。It is a figure for demonstrating an example of the format information of the input image data. パターンテーブルの一例を説明するための図である。It is a figure for demonstrating an example of a pattern table. 画像入力部を選択するメニューの一例を説明するための図である。It is a figure for demonstrating an example of the menu for selecting an image input part. 実施形態3における表示装置100で行われる処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process performed by the display device 100 in Embodiment 3. 隣接する画素の画素値の差分を判定する処理を説明するための図である。It is a figure for demonstrating the process of determining the difference of the pixel value of the adjacent pixel.

以下、図面を参照して本発明の実施形態を説明する。ただし、本発明の実施形態は以下の実施形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments of the present invention are not limited to the following embodiments.

[実施形態1]
図1は、実施形態1〜3における表示装置100が有する複数の構成要素を説明するための図である。
実施形態1では、表示装置100が、例えば、プロジェクタとして動作する場合を説明するが、表示装置100はプロジェクタに限るものではない。表示装置100がプロジェクタとして動作する場合、表示装置100は、単板式のプロジェクタとして構成することも、3板式のプロジェクタとして構成することも可能である。表示装置100がプロジェクタとして動作する場合、表示装置100は、液晶表示器を有するプロジェクタとして構成することも、有機EL(Electro Luminescence)表示器を有するプロジェクタとして構成することも可能である。表示装置100がプロジェクタとして動作する場合、表示装置100は、MEMS(Micro Electro Mechanical Systems)シャッターを有するプロジェクタとして構成することも可能である。
[Embodiment 1]
FIG. 1 is a diagram for explaining a plurality of components included in the display device 100 according to the first to third embodiments.
In the first embodiment, the case where the display device 100 operates as, for example, a projector will be described, but the display device 100 is not limited to the projector. When the display device 100 operates as a projector, the display device 100 can be configured as a single-panel projector or a three-panel projector. When the display device 100 operates as a projector, the display device 100 can be configured as a projector having a liquid crystal display or a projector having an organic EL (Electroluminescence) display. When the display device 100 operates as a projector, the display device 100 can also be configured as a projector having a MEMS (Micro Electro Mechanical Systems) shutter.

制御部101は、表示装置100を構成する各構成要素の動作を制御する。制御部101は、他の構成要素とバスで接続されており、他の構成要素へ制御指示を出したり、他の構成要素との間でデータのやり取りを行ったりする。
操作部102は、ユーザからの指示を受け付ける。操作部102を操作することにより、ユーザは所望の指示(コマンド)を表示装置100へ入力することができる。電源部103は、表示装置100を構成する各構成要素への電力供給を制御する。液晶部104は、1枚又は3枚の液晶パネルで構成され、画像データに基づく画像が形成される。実施形態1において液晶部104の画素数は3840×2160であるとする。なおこの画素数は一例であって液晶パネルの画素数はこれに限られない。
The control unit 101 controls the operation of each component constituting the display device 100. The control unit 101 is connected to other components by a bus, issues control instructions to the other components, and exchanges data with the other components.
The operation unit 102 receives an instruction from the user. By operating the operation unit 102, the user can input a desired instruction (command) to the display device 100. The power supply unit 103 controls the power supply to each component constituting the display device 100. The liquid crystal unit 104 is composed of one or three liquid crystal panels, and an image based on image data is formed. In the first embodiment, it is assumed that the number of pixels of the liquid crystal unit 104 is 3840 × 2160. Note that this number of pixels is an example, and the number of pixels of the liquid crystal panel is not limited to this.

液晶駆動部105は、画像処理部118から入力される画像データに基づいて液晶部104の液晶パネルの液晶素子を駆動し、画像を形成させる。光源106は、液晶部104に光を供給する。投影光学系107は、液晶部104を透過した光をスクリーンに投影する。光源制御部108は、光源106の光量等を制御する。光学系制御部109は、投影光学系107のズームレンズ及びフォーカスレンズの動作を制御し、ズーム倍率及び焦点調整等を行う。 The liquid crystal driving unit 105 drives the liquid crystal element of the liquid crystal panel of the liquid crystal unit 104 based on the image data input from the image processing unit 118 to form an image. The light source 106 supplies light to the liquid crystal unit 104. The projection optical system 107 projects the light transmitted through the liquid crystal unit 104 onto the screen. The light source control unit 108 controls the amount of light of the light source 106 and the like. The optical system control unit 109 controls the operation of the zoom lens and the focus lens of the projection optical system 107, and adjusts the zoom magnification and the focus.

画像入力部110〜113は、PCやDVDプレイヤー等から出力された複数の画像データが入力される画像入力インタフェースである。DVI(Digital Visual Interface)及びHDMI(登録商標)は、画像入力インタフェースの一例である。画像入力インタフェースがHDMIである場合、画像データとともに画像処理等の制御コマンドも同時に入力されることがある。実施形態1では、画像入力部110〜113は、HDMIであるとする。画像入力部110〜113は、後述する画像入力部の選択メニュー300(図5参照)におけるHDMI1〜HDMI4に対応する。
画像入力部110〜113は、周波数カウンタやパルスカウンタ等の測定回路を備え、入力される画像データの同期信号のタイミング等のフォーマット情報を測定して取得し、測定結果を内部レジスタに格納する。
The image input units 110 to 113 are image input interfaces for inputting a plurality of image data output from a PC, a DVD player, or the like. DVI (Digital Visual Interface) and HDMI (registered trademark) are examples of image input interfaces. When the image input interface is HDMI, control commands such as image processing may be input at the same time as the image data. In the first embodiment, it is assumed that the image input units 110 to 113 are HDMI. The image input units 110 to 113 correspond to HDMI1 to HDMI4 in the selection menu 300 (see FIG. 5) of the image input unit described later.
The image input units 110 to 113 include measurement circuits such as a frequency counter and a pulse counter, measure and acquire format information such as the timing of a synchronization signal of input image data, and store the measurement result in an internal register.

表示装置100は、表示モードとして標準モードと合成モードとを有する。標準モードでは、表示装置100は、画像入力部110〜113から入力される画像データのうちいずれか1つの画像データに基づく画像を表示する。合成モードでは、表示装置100は、複数の画像データを部分画像データとして合成して得られる、当該部分画像データよりサイズが大きい全体画像データに基づく画像を表示する。合成モードは、例えば4系統のHD画像(1920×1080)を入力してそれらを合成することにより4K画像(3840×2160)を表示するような用途で用いられる。これにより画像入力端子や画像伝送系としてはHD画像に対応したものを用いることができるためコスト増を押さえつつ4K
や8K等の高精細画像の表示に対応することができる。実施形態1では、説明を簡単にするため、合成モードにおいて、全体画像データは、部分画像データを2つ又は4つ合成することによって得られるものとする。なお、全体画像データを構成する部分画像データの数はこの例に限らない。また、全体画像データを合成する際に複数の部分画像データを並べる方法は、横一列、縦一列、タイル状等の方法が考えられる。表示モードの切り替えや全体画像データを構成する部分画像データの選択の設定及び指示は、ユーザが、後述するOSD(On Screen Display)メニュー等を見ながら表示装置100に入力することができる。
The display device 100 has a standard mode and a composite mode as display modes. In the standard mode, the display device 100 displays an image based on any one of the image data input from the image input units 110 to 113. In the compositing mode, the display device 100 displays an image based on the whole image data having a size larger than the partial image data, which is obtained by compositing a plurality of image data as the partial image data. The compositing mode is used, for example, for displaying a 4K image (3840 x 2160) by inputting four HD images (1920 × 1080) and synthesizing them. As a result, HD images can be used as the image input terminal and image transmission system, so 4K can be used while suppressing cost increases.
It can support the display of high-definition images such as 8K and 8K. In the first embodiment, for simplification of the description, the whole image data is obtained by synthesizing two or four partial image data in the compositing mode. The number of partial image data constituting the entire image data is not limited to this example. Further, as a method of arranging a plurality of partial image data when synthesizing the whole image data, a method such as a horizontal row, a vertical row, or a tile shape can be considered. The setting and instruction for switching the display mode and selecting the partial image data constituting the entire image data can be input to the display device 100 by the user while looking at the OSD (On Screen Display) menu or the like described later.

USB(Universal Serial Bus)インタフェース114は、USB機器を接続するためのインタフェースである。USBインタフェース114にポインティングデバイス、キーボード、フラッシュメモリ等の外部機器を接続することにより、外部機器から制御コマンドや画像データ等の各種のファイルの入出力ができる。
カードインターフェース115は、SDカードやコンパクトフラッシュ等のカード型の記録媒体を挿入可能であり、記録媒体に対し画像データ等の各種のファイルの入出力ができる。通信部116は、有線LANや無線LAN等の通信インタフェースであり、イントラネットやインターネットに接続することで画像データ等の各種のファイルやコマンド等の送受信を行う。
The USB (Universal Social Bus) interface 114 is an interface for connecting a USB device. By connecting an external device such as a pointing device, keyboard, or flash memory to the USB interface 114, various files such as control commands and image data can be input / output from the external device.
The card interface 115 can insert a card-type recording medium such as an SD card or a compact flash, and can input / output various files such as image data to the recording medium. The communication unit 116 is a communication interface such as a wired LAN or a wireless LAN, and transmits / receives various files such as image data and commands by connecting to an intranet or the Internet.

内部メモリ117は、半導体メモリやハードディスク等で構成される記憶手段であり、画像データやユーザ設定データ等の各種の情報を保存する。ファイル再生部133は、上記の種々の外部インタフェースから入力されるファイルを処理し、画像データを生成して画像処理部118に出力する。ファイル再生部133は、エンコードされたファイルを制御部101の指示に基づきデコードする処理を行う。画像入力部110〜113から入力された画像データはファイル再生部133を経由せず、直接、画像処理部118に送信される。 The internal memory 117 is a storage means composed of a semiconductor memory, a hard disk, or the like, and stores various information such as image data and user-set data. The file reproduction unit 133 processes files input from the various external interfaces described above, generates image data, and outputs the image data to the image processing unit 118. The file reproduction unit 133 performs a process of decoding the encoded file based on the instruction of the control unit 101. The image data input from the image input units 110 to 113 is directly transmitted to the image processing unit 118 without passing through the file reproduction unit 133.

画像処理部118は、ファイル再生部133や画像入力部110〜113から入力される画像データや制御部101から入力される画像データに対し、画像処理を行う。画像処理部118が行う画像処理には、例えば、液晶部104の画像形成に適合するように画素数を変換する処理や、液晶パネルの交流駆動のために画像データのフレーム数を倍にする処理等がある。ここで、液晶パネルの交流駆動とは、液晶パネルの液晶にかける電圧の方向をフレーム毎に入れ替えて表示させる方法である。これは、液晶にかける電圧の方向が正方向でも逆方向でも画像を形成できる液晶パネルの性質を利用した駆動方法である。この駆動方法では、液晶駆動部105に正方向用の画像と逆方向用の画像を1枚ずつ送る必要があるので、画像処理部118は、画像データのフレーム数を倍にする処理を行う。 The image processing unit 118 performs image processing on the image data input from the file reproduction unit 133 and the image input units 110 to 113 and the image data input from the control unit 101. The image processing performed by the image processing unit 118 includes, for example, a process of converting the number of pixels so as to match the image formation of the liquid crystal unit 104, and a process of doubling the number of frames of image data for AC driving of the liquid crystal panel. And so on. Here, the AC drive of the liquid crystal panel is a method of displaying by switching the direction of the voltage applied to the liquid crystal of the liquid crystal panel for each frame. This is a driving method that utilizes the property of a liquid crystal panel that can form an image regardless of whether the voltage applied to the liquid crystal is in the forward direction or the reverse direction. In this driving method, it is necessary to send one image for the forward direction and one image for the reverse direction to the liquid crystal driving unit 105, so the image processing unit 118 performs a process of doubling the number of frames of the image data.

画像処理部118は、画像入力部110〜113から入力された画像データに対してフォーマット情報の測定や画像解析も行う。画像処理部118は、画像データにおける同期信号等のタイミングを測定し、制御部101が読み取り可能な内部レジスタに格納する。また画像データの画素値の情報を内部レジスタに格納する。
画像処理部118は、画像データに対し、キーストーン補正を行う。キーストーン補正は、スクリーンに対して斜め方向から画像を投影した場合に投影画像が歪んで台形等の形状になるのを抑制するために、画像データに対し形状変形を行う処理である。キーストーン補正では、画像処理部118は、入力される画像データの水平方向・垂直方向に拡大・縮小する。これにより、投影像の台形状の歪みと液晶パネル上での画像の歪みとが相殺され、正しいアスペクト比の画像がスクリーンに投影表示される。画像処理部118は、後述する傾きセンサ119により得られた表示装置100の傾き角に基づいて自動でキーストーン補正を行ってもよいし、ユーザが操作部102を操作することにより入力されたキーストーン補正のコマンドに従って補正を行ってもよい。
The image processing unit 118 also measures format information and performs image analysis on the image data input from the image input units 110 to 113. The image processing unit 118 measures the timing of a synchronization signal or the like in the image data and stores it in an internal register that can be read by the control unit 101. In addition, the pixel value information of the image data is stored in the internal register.
The image processing unit 118 performs keystone correction on the image data. The keystone correction is a process of deforming the shape of image data in order to prevent the projected image from being distorted into a trapezoidal shape when the image is projected from an oblique direction with respect to the screen. In the keystone correction, the image processing unit 118 enlarges / reduces the input image data in the horizontal / vertical direction. As a result, the trapezoidal distortion of the projected image and the distortion of the image on the liquid crystal panel are offset, and the image having the correct aspect ratio is projected and displayed on the screen. The image processing unit 118 may automatically perform keystone correction based on the tilt angle of the display device 100 obtained by the tilt sensor 119, which will be described later, or the key input by the user operating the operation unit 102. The correction may be performed according to the stone correction command.

傾きセンサ119は、表示装置100の傾きを検出する。タイマ120は、表示装置100の動作時間や各構成要素の動作時間を検出する。温度計121は、表示装置100の光源106の温度、液晶部104の温度、外気温等を測定する。赤外線受信部122及び123は、表示装置100に指示を送信するリモコン等からの赤外線信号を受信し、制御部101にコマンドを送信する。実施形態1の表示装置100は、後方に設置された赤外線受信部122と前方に設置された赤外線受信部123との複数の赤外線受信部を有している。赤外線受信部の設置数はこれに限らない。 The tilt sensor 119 detects the tilt of the display device 100. The timer 120 detects the operating time of the display device 100 and the operating time of each component. The thermometer 121 measures the temperature of the light source 106 of the display device 100, the temperature of the liquid crystal unit 104, the outside air temperature, and the like. The infrared receiving units 122 and 123 receive an infrared signal from a remote controller or the like that transmits an instruction to the display device 100, and transmit a command to the control unit 101. The display device 100 of the first embodiment has a plurality of infrared receiving units of an infrared receiving unit 122 installed at the rear and an infrared receiving unit 123 installed at the front. The number of infrared receivers installed is not limited to this.

焦点検出部124は、表示装置100とスクリーンとの間の距離を検出する。撮像部125は、スクリーンの方向を撮像する。スクリーン測光部126は、スクリーンにより反射される光の光量や輝度を測定する。表示部128は、表示装置100の状態や警告等を表示する。表示制御部129は、表示部128を制御する。バッテリ130は、表示装置100を持ち運んで使用するとき等に電力を供給する。電源入力部131は、外部からの交流電力を受け入れ、所定の電圧に整流して電源部103に供給する。
冷却部132は、例えば、ヒートシンクとファンにより構成され、表示装置100内の熱を外部に放出することにより本体を冷却する。RAM134は、内部メモリ117に格納されているプログラムの展開先として、或いは画像データを格納するフレームメモリとして用いられる。
The focus detection unit 124 detects the distance between the display device 100 and the screen. The imaging unit 125 images the direction of the screen. The screen metering unit 126 measures the amount of light and the brightness of the light reflected by the screen. The display unit 128 displays the status of the display device 100, a warning, and the like. The display control unit 129 controls the display unit 128. The battery 130 supplies electric power when the display device 100 is carried and used. The power input unit 131 receives AC power from the outside, rectifies it to a predetermined voltage, and supplies it to the power supply unit 103.
The cooling unit 132 is composed of, for example, a heat sink and a fan, and cools the main body by releasing heat in the display device 100 to the outside. The RAM 134 is used as a deployment destination of a program stored in the internal memory 117 or as a frame memory for storing image data.

次に、表示装置100の基本的な動作について説明する。
制御部101は、操作部102により電源ONの指示が入力されると、電源部103に対し、各構成要素に電力を供給するように指示を出し、各構成要素を待機状態にする。次に、制御部101は、光源制御部108に対し、光源106からの発光を開始させるように指示を出す。次に、制御部101は、焦点検出部124からスクリーンと表示装置100との間の距離の情報を取得し、投影光学系107を調整するよう光学系制御部109に指示を出す。光学系制御部109は、制御部101からの指示に基づき、スクリーンに投影光が結像するように、投影光学系107のズームレンズやフォーカスレンズを動作させる。
Next, the basic operation of the display device 100 will be described.
When the power ON instruction is input by the operation unit 102, the control unit 101 issues an instruction to the power supply unit 103 to supply electric power to each component, and puts each component in a standby state. Next, the control unit 101 instructs the light source control unit 108 to start light emission from the light source 106. Next, the control unit 101 acquires information on the distance between the screen and the display device 100 from the focus detection unit 124, and instructs the optical system control unit 109 to adjust the projection optical system 107. Based on the instruction from the control unit 101, the optical system control unit 109 operates the zoom lens and the focus lens of the projection optical system 107 so that the projected light is imaged on the screen.

このようにして、投影の準備が整う。次に、画像処理部118は、表示モードに応じて画像入力部110〜113に入力された画像データに対する画像処理を行う。例えば、標準モードでは、画像処理部118は、いずれかの入力画像データを所定のレイアウトでフレームに配置し、液晶部104に適した画素数に変換する。さらに、画像処理部118は、必要に応じて画像データに対しガンマ補正、輝度ムラ補正、キーストーン補正を行う。液晶駆動部105は、画像処理部118により補正された画像データに基づき液晶部104を駆動し、液晶部104の液晶パネルに画像が形成される。 In this way, the projection is ready. Next, the image processing unit 118 performs image processing on the image data input to the image input units 110 to 113 according to the display mode. For example, in the standard mode, the image processing unit 118 arranges any of the input image data in a frame in a predetermined layout and converts the number of pixels suitable for the liquid crystal unit 104. Further, the image processing unit 118 performs gamma correction, luminance unevenness correction, and keystone correction on the image data as needed. The liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the image data corrected by the image processing unit 118, and an image is formed on the liquid crystal panel of the liquid crystal unit 104.

液晶部104の液晶パネルに形成された画像は、光源106から発せられた光により投影光学系107に入射し、投影光学系107によりスクリーンに画像が投影される。画像投影中は、制御部101は、光源106等の温度を温度計121により検出し、温度に応じて冷却部132を動作させて、光源106等の冷却を行う。制御部101は、例えば、光源の温度が40度以上になった場合に冷却部132を作動させる制御を行う。 The image formed on the liquid crystal panel of the liquid crystal unit 104 is incident on the projection optical system 107 by the light emitted from the light source 106, and the image is projected on the screen by the projection optical system 107. During image projection, the control unit 101 detects the temperature of the light source 106 and the like with the thermometer 121, and operates the cooling unit 132 according to the temperature to cool the light source 106 and the like. The control unit 101 controls, for example, to operate the cooling unit 132 when the temperature of the light source becomes 40 degrees or higher.

操作部102により電源OFFの指示が入力されると、制御部101は、各構成要素に終了処理を行うよう指示を出す。各構成要素の動作停止の準備が整うと、電源部103は各構成要素への電力供給を順次停止する。制御部101は、各構成要素の動作停止後、冷却部132をしばらく動作させることにより、表示装置100を冷却する。 When an instruction to turn off the power is input by the operation unit 102, the control unit 101 issues an instruction to each component to perform end processing. When the operation of each component is ready to be stopped, the power supply unit 103 sequentially stops the power supply to each component. The control unit 101 cools the display device 100 by operating the cooling unit 132 for a while after the operation of each component is stopped.

表示モードが合成モードである場合、画像処理部118は、画像入力部110〜113
に入力された画像データをユーザの指示又は後述する部分画像データの判定処理結果に基づいて合成し、1枚の全体画像として表示する。ユーザは、OSD等の設定メニューを見ながら、操作部102を操作することにより、入力画像データのうちどれを全体画像データを構成する部分画像データの組み合わせとするかの指定を入力することができる。ユーザにより指定された入力画像データの組み合わせに基づいて、画像処理部118は全体画像データを合成する。画像処理部118は、入力画像データを合成して得られた全体画像データを、液晶部104に適した画素数に変換し、また、必要に応じてガンマ補正、輝度ムラ補正、キーストーン補正を行う。液晶駆動部105は、画像処理部118により補正された全体画像データに基づき液晶部104を駆動し、液晶部104の液晶パネルに画像が形成される。
液晶部104の液晶パネルに形成された画像は、光源106から発せられた光により投影光学系107に入射し、投影光学系107によりスクリーンに画像が投影される。
When the display mode is the composite mode, the image processing unit 118 uses the image input units 110 to 113.
The image data input to is synthesized based on the user's instruction or the determination processing result of the partial image data described later, and is displayed as one whole image. By operating the operation unit 102 while looking at the setting menu of the OSD or the like, the user can input which of the input image data is to be a combination of the partial image data constituting the entire image data. .. The image processing unit 118 synthesizes the entire image data based on the combination of the input image data specified by the user. The image processing unit 118 converts the entire image data obtained by synthesizing the input image data into a number of pixels suitable for the liquid crystal unit 104, and performs gamma correction, luminance unevenness correction, and keystone correction as necessary. Do. The liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the overall image data corrected by the image processing unit 118, and an image is formed on the liquid crystal panel of the liquid crystal unit 104.
The image formed on the liquid crystal panel of the liquid crystal unit 104 is incident on the projection optical system 107 by the light emitted from the light source 106, and the image is projected on the screen by the projection optical system 107.

次に、図2及び図3を参照し、画像入力部110〜113から入力される画像データのうち、全体画像データを構成する部分画像データの組み合わせを検出する処理について説明する。
図2は、実施形態1における表示装置100で行われる処理を説明するためのフローチャートである。
実施形態1では、操作部102やリモコンから入力されるユーザ指示をトリガとして図2に示す処理が行われるものとする。ユーザにより操作部102から本処理を実行する指示が入力されると、制御部101はS101の処理を開始する。
Next, with reference to FIGS. 2 and 3, a process of detecting a combination of partial image data constituting the entire image data among the image data input from the image input units 110 to 113 will be described.
FIG. 2 is a flowchart for explaining the process performed by the display device 100 in the first embodiment.
In the first embodiment, it is assumed that the process shown in FIG. 2 is performed by using a user instruction input from the operation unit 102 or the remote controller as a trigger. When the user inputs an instruction to execute this process from the operation unit 102, the control unit 101 starts the process of S101.

S101において、制御部101は、画像入力部110〜113に対し、入力されている画像データのフォーマット情報の測定を指示する。実施形態1では、測定するフォーマット情報は、後述する図3に示すように、画素数(Image Size)202、水平同期信号周波数(hSyncFreq)203、垂直同期信号周波数(vSyncFreq)204、量子化クロック(Dclk)205、走査方式(Scanning)206、水平同期信号極性(hPol)207、垂直同期信号極性(vPol)208、水平総ドット数(hTotal)209、水平同期信号幅(hSyncWidth)210、水平バックポーチ(hBp)211、垂直総ライン数(vTotal)212、垂直同期信号幅(vSyncWidth)213、垂直バックポーチ(vBp)214である。画像入力部110〜113は、これらの情報を内部に備えている測定回路により測定し、その結果を内部のレジスタに格納する。制御部101は当該測定結果をバスを介して読み出し、RAM134へ展開する。ここでは画像入力部110〜113へ画像データが入力されているため、制御部101は、画像入力部110〜113にアクセスし、測定結果情報を読み出す。
図3は、入力画像データのフォーマット情報の測定結果200の一例を説明するための図である。画像入力部番号(Port)201の「1」〜「4」は、それぞれ画像入力部110〜113に対応している。
In S101, the control unit 101 instructs the image input units 110 to 113 to measure the format information of the input image data. In the first embodiment, the format information to be measured includes the number of pixels (Image Size) 202, the horizontal synchronization signal frequency (hSyncFreq) 203, the vertical synchronization signal frequency (vSyncFreq) 204, and the quantization clock (VSyncFreq) 204, as shown in FIG. Dclk) 205, scanning method 206, horizontal sync signal polarity (hPol) 207, vertical sync signal polarity (vPol) 208, total horizontal dot count (hTotal) 209, horizontal sync signal width (hSyncWidth) 210, horizontal back pouch. (HBp) 211, total number of vertical lines (vTotal) 212, vertical sync signal width (vSyncWith) 213, vertical back pouch (vBp) 214. The image input units 110 to 113 measure these information by a measuring circuit provided inside, and store the result in an internal register. The control unit 101 reads the measurement result via the bus and develops it in the RAM 134. Here, since the image data is input to the image input units 110 to 113, the control unit 101 accesses the image input units 110 to 113 and reads out the measurement result information.
FIG. 3 is a diagram for explaining an example of the measurement result 200 of the format information of the input image data. "1" to "4" of the image input unit number (Port) 201 correspond to the image input units 110 to 113, respectively.

S102において、制御部101は、S101で読み出した測定結果に基づき、フォーマット情報が一致する入力画像データを探索する。制御部101は、図3に示す画像入力部のフォーマット情報の測定結果の各要素について比較演算を行い、全てのフォーマット情報の値が一致する入力画像データの組み合わせを探索する。ここでは全てのフォーマット情報の値が一致する入力画像データの組み合わせを探索する例を示したが、ジッター等により測定結果には多少の誤差が含まれることも想定されるため、差異が所定の範囲内である場合に「一致している」と判定するようにしてもよい。図3の例では、画像入力部111(Port 2)及び112(Port 3)の入力画像データのフォーマット情報が一致しているため、画像入力部番号2及び入力部番号3の組み合わせが探索結果として出力される。これらが全体画像データを構成する部分画像データの候補となる。部分画像
データの候補数は2となる。S102において、制御部101は、部分画像データの候補数が2又は4である場合(TRUE)、S103に進み、それ以外の場合、処理を終了する。図3の例では、部分画像データの候補数が2であるため、制御部101はS103へ遷移する。
In S102, the control unit 101 searches for input image data with matching format information based on the measurement result read in S101. The control unit 101 performs a comparison calculation for each element of the measurement result of the format information of the image input unit shown in FIG. 3, and searches for a combination of input image data in which the values of all the format information match. Here, an example of searching for a combination of input image data in which the values of all format information match is shown, but since it is assumed that some errors may be included in the measurement result due to jitter or the like, the difference is within a predetermined range. If it is within, it may be determined that it "matches". In the example of FIG. 3, since the format information of the input image data of the image input units 111 (Port 2) and 112 (Port 3) match, the combination of the image input unit number 2 and the input unit number 3 is used as the search result. It is output. These are candidates for the partial image data that constitutes the entire image data. The number of candidates for partial image data is 2. In S102, the control unit 101 proceeds to S103 when the number of candidates for partial image data is 2 or 4 (TRUE), and ends the process in other cases. In the example of FIG. 3, since the number of candidates for the partial image data is 2, the control unit 101 transitions to S103.

S103において、制御部101は、パターンテーブル400を参照し、S102で検出した部分画像データ候補の数及びフォーマット情報と比較する。図4に、実施形態1におけるパターンテーブル400の一例を示す。パターンテーブル400は、表示装置100の合成モードにおいて表示可能な全体画像データとそれを構成する部分画像データの組み合わせの対応関係の情報を示す。全体画素数(Full Image Size)401は、全体画像データの画素数(サイズ)を示しており、この画素数が実施形態1における表示装置100の表示可能な画素数である。入力数(input port)402は、全体画像データを構成する部分画像データの数(全体画像データの部分画像データによる分割数)である。部分画素数(Partial Image Size)403は、全体画像データを構成する部分画像データの画素数を示している。パターンテーブル400は、予め内部メモリ117に記憶されており、表示装置100の起動時に制御部101によりRAM134へ読み出される。 In S103, the control unit 101 refers to the pattern table 400 and compares it with the number of partial image data candidates detected in S102 and the format information. FIG. 4 shows an example of the pattern table 400 according to the first embodiment. The pattern table 400 shows information on the correspondence between the entire image data that can be displayed in the composite mode of the display device 100 and the combination of the partial image data that constitutes the entire image data. The total number of pixels (Full Image Size) 401 indicates the number of pixels (size) of the entire image data, and this number of pixels is the number of pixels that can be displayed by the display device 100 in the first embodiment. The number of inputs (input port) 402 is the number of partial image data constituting the entire image data (the number of divisions of the entire image data by the partial image data). The number of partial pixels (Partial Image Size) 403 indicates the number of pixels of the partial image data constituting the entire image data. The pattern table 400 is stored in the internal memory 117 in advance, and is read out to the RAM 134 by the control unit 101 when the display device 100 is started.

S104において、制御部101は、S102で検出した部分画像データ候補のフォーマット情報のうち画素数202及び部分画像データ候補数と一致する組み合わせがパターンテーブル400にあるか判定する。これにより、制御部101は、測定したフォーマット情報に基づき、複数の入力画像データのうちに、入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する。図3の例では、候補の部分画像データは、画像入力部111及び112に入力されている画素数1920×2160の画像データであり、部分画像データの数は2である。これは、パターンテーブル400において、全体画素数3840×2160且つ入力数が2のパターンと一致する。この全体画像データの画素数は、実施形態1における表示装置100の液晶部104の画素数3840×2160と一致する。液晶部104の画素数の情報は、予め内部メモリ117に記憶されているものとする。制御部101は、パターンテーブル400において、S102で検出した部分画像データ候補の画素数及び候補数と一致するパターンによる全体画像データの画素数と、液晶部104の画素数とを比較する。制御部101は、全体画像データが液晶部104で表示可能な画素数である場合、S105へ遷移する。 In S104, the control unit 101 determines whether the pattern table 400 has a combination of the format information of the partial image data candidates detected in S102 that matches the number of pixels 202 and the number of partial image data candidates. As a result, the control unit 101 determines whether or not there is a combination of partial image data constituting the entire image data having a size larger than the input image data among the plurality of input image data based on the measured format information. In the example of FIG. 3, the candidate partial image data is image data having 1920 × 2160 pixels input to the image input units 111 and 112, and the number of partial image data is 2. This matches the pattern in which the total number of pixels is 3840 × 2160 and the number of inputs is 2 in the pattern table 400. The number of pixels of the entire image data matches the number of pixels of the liquid crystal unit 104 of the display device 100 in the first embodiment, which is 3840 × 2160. It is assumed that the information on the number of pixels of the liquid crystal unit 104 is stored in the internal memory 117 in advance. In the pattern table 400, the control unit 101 compares the number of pixels of the partial image data candidate detected in S102 and the number of pixels of the entire image data according to the pattern matching the number of candidates with the number of pixels of the liquid crystal unit 104. When the total image data is the number of pixels that can be displayed by the liquid crystal unit 104, the control unit 101 transitions to S105.

S105において、制御部101は、S102で検出した部分画像データ候補の組み合わせの画像入力部から入力される画像データを画像処理部118にて合成するよう制御する。これにより、制御部101は、全体画像データを構成する部分画像データの組み合わせと判定された入力画像データを合成して全体画像データを生成する。合成された全体画像データに基づき液晶駆動部105が液晶部104を駆動することにより、全体画像データに基づく画像が投影光学系107によりスクリーンに投影される。 In S105, the control unit 101 controls the image processing unit 118 to synthesize the image data input from the image input unit of the combination of the partial image data candidates detected in S102. As a result, the control unit 101 generates the entire image data by synthesizing the input image data determined to be a combination of the partial image data constituting the entire image data. When the liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the synthesized overall image data, the image based on the overall image data is projected on the screen by the projection optical system 107.

実施形態1では、測定した入力画像データのフォーマット情報及び内部メモリに予め格納しているパターンテーブル400に基づいて入力画像データのうち全体画像データを構成する部分画像データの組み合わせを判定したが、判定方法はこれに限らない。例えば、画像入力部110〜113で受信するHDMI信号に含まれる、CEA(Consumer Electronics Association)Standardで規定されているVIC(Video ID Code)に基づき判定してもよい。入力画像データのうちVICが一致する画像データを、部分画像データの候補として判定してもよい。 In the first embodiment, the combination of the partial image data constituting the entire image data among the input image data is determined based on the format information of the measured input image data and the pattern table 400 stored in advance in the internal memory. The method is not limited to this. For example, the determination may be made based on the VIC (Video ID Code) defined by the CEA (Consumer Electricals Association) Standard included in the HDMI signal received by the image input units 110 to 113. Of the input image data, the image data having the same VIC may be determined as a candidate for the partial image data.

実施形態1によれば、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて適切な部分画像データの組み合わせを探索し、全体画像データを合成して投
影を行うことができる。これにより、ユーザが全体画像データを構成する部分画像データが入力される画像入力部を選択する操作をしなくても、正しく部分画像データを合成した全体画像データを表示することが可能となる。
According to the first embodiment, it is possible to search for an appropriate combination of partial image data based on the measurement result of the format information of the input image data and the pattern table, synthesize the entire image data, and perform projection. As a result, it is possible to display the entire image data in which the partial image data is correctly combined, without the user having to select the image input unit into which the partial image data constituting the entire image data is input.

入力画像データのフォーマット情報の測定対象は、図3に例示したものに限らない。図3に例示したフォーマット情報の一部のみでもよいし、図3に例示しなかったフレームレートやブランキング期間等をさらに測定するようにしてもよい。また、実施形態1のS102では、少なくとも一部のフォーマット情報の値が一致する入力画像データの組み合わせを、全体画像データを構成する部分画像データの組み合わせ候補として判定するようにしてもよい。少なくとも一部のフォーマット情報としては、例えば、画素数、フレームレート、同期信号周波数、ブランキング期間等を例示できる。 The measurement target of the format information of the input image data is not limited to that illustrated in FIG. Only a part of the format information illustrated in FIG. 3 may be used, or the frame rate, blanking period, etc. not illustrated in FIG. 3 may be further measured. Further, in S102 of the first embodiment, a combination of input image data in which the values of at least a part of the format information match may be determined as a combination candidate of the partial image data constituting the entire image data. As at least a part of the format information, for example, the number of pixels, the frame rate, the synchronization signal frequency, the blanking period, and the like can be exemplified.

実施形態1のS104では、測定したフォーマット情報が一致する入力画像データの組み合わせを部分画像データと判定するとともに、当該部分画像データを合成して得られる全体画像データが液晶部104で表示可能なサイズの画像か判定している。これにより、例えば、液晶部104の画素数が3840×2160である場合、部分画像データの候補が1920×2160と1920×2160の2つの入力画像データであったときは、正しい部分画像データの組み合わせと判定される。ここで、正しい部分画像データの組み合わせとは、当該部分画像データの組み合わせにより構成される全体画像データのサイズが液晶部104に表示可能なサイズであることである。部分画像データの候補が1920×1080、1920×1080、1920×1080の3つの入力画像データであったときは、正しくない部分画像データの組み合わせと判定される。1920×1080、1920×1080、1920×1080の3つの入力画像データを合成した全体画像データは、液晶部104に表示可能なサイズより大きいからである。 In S104 of the first embodiment, the combination of the input image data that matches the measured format information is determined as the partial image data, and the entire image data obtained by synthesizing the partial image data can be displayed on the liquid crystal unit 104. It is judged whether it is an image of. As a result, for example, when the number of pixels of the liquid crystal unit 104 is 3840 × 2160 and the candidates for the partial image data are two input image data of 1920 × 2160 and 1920 × 2160, the correct combination of partial image data is obtained. Is determined. Here, the correct combination of partial image data means that the size of the entire image data composed of the combination of the partial image data is a size that can be displayed on the liquid crystal unit 104. When the candidates for the partial image data are the three input image data of 1920 × 1080, 1920 × 1080, and 1920 × 1080, it is determined that the combination of the partial image data is incorrect. This is because the total image data obtained by synthesizing the three input image data of 1920 × 1080, 1920 × 1080, and 1920 × 1080 is larger than the size that can be displayed on the liquid crystal unit 104.

[実施形態2]
実施形態1では、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて全体画像データを構成する部分画像データの組み合わせを自動で決定する例を示したが、部分画像データの組み合わせ候補をユーザに提示する例を説明する。実施形態2では、実施形態1と共通の部分についてはその説明を省略し、実施形態1と異なる部分を中心に説明する。
[Embodiment 2]
In the first embodiment, an example is shown in which the combination of the partial image data constituting the entire image data is automatically determined based on the measurement result of the format information of the input image data and the pattern table, but the user can select the combination candidate of the partial image data. An example presented in will be described. In the second embodiment, the description of the parts common to the first embodiment will be omitted, and the parts different from the first embodiment will be mainly described.

図2に示すフローチャートのS104までは実施形態1と同様である。
S104において、制御部101は、S102で検出した部分画像データ候補のフォーマット情報のうち画素数202及び部分画像データ候補数と一致する組み合わせがパターンテーブル400にあるか判定する。一致する組み合わせがある場合、制御部101は、当該組み合わせに係る入力画像データの情報(画像入力部の情報)をOSDメニューによりユーザに提示する。これにより、制御部101は、全体画像データを構成する部分画像データの組み合わせと判定した入力画像データの情報をユーザに提示する。ユーザは、この提示情報に基づき、手動で、部分画像データの組み合わせを指定することができる。操作部102は、複数の入力画像データのうち部分画像データの組み合わせを指定する指示をユーザから受け付ける。
Up to S104 of the flowchart shown in FIG. 2, the same as that of the first embodiment.
In S104, the control unit 101 determines whether the pattern table 400 has a combination of the format information of the partial image data candidates detected in S102 that matches the number of pixels 202 and the number of partial image data candidates. When there is a matching combination, the control unit 101 presents the information of the input image data (information of the image input unit) related to the combination to the user by the OSD menu. As a result, the control unit 101 presents the information of the input image data determined to be a combination of the partial image data constituting the entire image data to the user. The user can manually specify a combination of partial image data based on this presentation information. The operation unit 102 receives an instruction from the user to specify a combination of partial image data among the plurality of input image data.

図5(a)は、ユーザにより操作部102から図2に示す処理を実行する指示を受ける前の標準モードにおける画像入力部の選択メニュー300である。標準モードでは、選択メニュー300において、画像入力部110〜113(HDMI1〜4)のうちいずれか1つを表示対象の画像データの入力部として選択することが可能である。
図5(b)は、ユーザにより操作部102から図2に示す処理を実行する指示を受けた後の合成モードにおける画像入力部の選択メニュー300である。合成モードでは、図2の処理により制御部101が探索した、全体画像データを構成する部分画像データの組み
合わせ候補を示す選択項目301が選択メニュー300に追加されている。
FIG. 5A is a selection menu 300 of the image input unit in the standard mode before receiving an instruction from the operation unit 102 to execute the process shown in FIG. 2 by the user. In the standard mode, in the selection menu 300, any one of the image input units 110 to 113 (HDMI1 to 4) can be selected as the input unit of the image data to be displayed.
FIG. 5B is a selection menu 300 of the image input unit in the composition mode after receiving an instruction from the operation unit 102 to execute the process shown in FIG. 2 by the user. In the compositing mode, a selection item 301 indicating a combination candidate of the partial image data constituting the entire image data searched by the control unit 101 by the process of FIG. 2 is added to the selection menu 300.

図3の例では、S104の処理により、制御部101は、画像入力部111及び画像入力部112(選択メニュー300におけるHDMI2及びHDMI3)の組み合わせを全体画像データを構成する部分画像データの組み合わせと判定する。この判定結果に基づき、制御部101は、画像処理部118に対し、選択メニュー300に当該組み合わせの情報を示す選択項目301を生成し、OSDメニューとして表示画像に重畳し、ユーザに当該組み合わせの情報を提示するよう制御する。ユーザが操作部102の操作により、選択項目301を選択する指示を入力した場合、制御部101は、S102で検出した部分画像データ候補の組み合わせの画像入力部から入力される画像データを画像処理部118にて合成するよう制御する。これにより、制御部101は、部分画像データの組み合わせとしてユーザに指定された入力画像データを合成して全体画像データを生成する。合成された全体画像データに基づき液晶駆動部105が液晶部104を駆動することにより、全体画像データに基づく画像が投影光学系107によりスクリーンに投影される。 In the example of FIG. 3, by the processing of S104, the control unit 101 determines that the combination of the image input unit 111 and the image input unit 112 (HDMI2 and HDMI3 in the selection menu 300) is a combination of the partial image data constituting the entire image data. To do. Based on this determination result, the control unit 101 generates a selection item 301 indicating the information of the combination in the selection menu 300 for the image processing unit 118, superimposes it on the display image as an OSD menu, and informs the user of the combination. Control to present. When the user inputs an instruction to select the selection item 301 by operating the operation unit 102, the control unit 101 inputs the image data input from the image input unit of the combination of the partial image data candidates detected in S102 to the image processing unit. Control to synthesize at 118. As a result, the control unit 101 synthesizes the input image data designated by the user as a combination of the partial image data to generate the entire image data. When the liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the synthesized overall image data, the image based on the overall image data is projected on the screen by the projection optical system 107.

実施形態2によれば、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて適切な部分画像データの組み合わせが探索され、その結果が画像入力部の選択メニュー300に選択項目301としてユーザに提示される。ユーザは、この提示された情報に基づき、全体画像データを構成する部分画像データが入力されている画像入力部を簡単に選択することができる。これにより、ユーザが部分画像データが入力されている画像入力部を選択する操作を大幅に簡略化することが可能となる。 According to the second embodiment, an appropriate combination of partial image data is searched for based on the measurement result of the format information of the input image data and the pattern table, and the result is displayed to the user as a selection item 301 in the selection menu 300 of the image input unit. Presented. Based on the presented information, the user can easily select an image input unit in which the partial image data constituting the entire image data is input. This makes it possible to greatly simplify the operation of selecting an image input unit in which partial image data is input by the user.

実施形態2において、部分画像データの組み合わせの候補として判定された画像データを入力している画像入力部をOSDのGUIによりユーザに提示する例を説明したが、ユーザへの提示方法はこれに限らない。各画像入力部にLED(Light Emitting Diode)等で構成されるインジケータを備え、部分画像データの組み合わせの候補に対応する画像入力部のLEDを点灯させることによりユーザに部分画像データの組み合わせの情報を提示してもよい。或いは、表示部128に部分画像データの組み合わせの候補の情報を表示してもよい。 In the second embodiment, an example of presenting an image input unit for inputting image data determined as a candidate for a combination of partial image data to a user by an OSD GUI has been described, but the method of presenting to the user is limited to this. Absent. Each image input unit is equipped with an indicator composed of an LED (Light Emitting Diode) or the like, and the LED of the image input unit corresponding to the candidate for the combination of partial image data is turned on to provide the user with information on the combination of partial image data. You may present it. Alternatively, information on candidates for the combination of partial image data may be displayed on the display unit 128.

[実施形態3]
実施形態3では、全体画像データを構成する部分画像データと同じフォーマットの画像データであって、当該全体画像データとは独立した画像データが画像入力部から入力されている場合に、部分画像データの組み合わせを正しく判定する方法について説明する。実施形態1及び2では、フォーマット情報の測定結果とパターンテーブルとを比較することで全体画像データを構成する部分画像データを判定した。しかし、当該部分画像データとフォーマット情報が同じだが、当該全体画像データを構成する部分画像データではない画像データが入力されている場合、当該画像データが部分画像データでないことを精度良く判定できることが好ましい。
[Embodiment 3]
In the third embodiment, when the image data in the same format as the partial image data constituting the whole image data and the image data independent of the whole image data is input from the image input unit, the partial image data A method of correctly determining the combination will be described. In the first and second embodiments, the partial image data constituting the entire image data is determined by comparing the measurement result of the format information with the pattern table. However, when the format information is the same as the partial image data but the image data that is not the partial image data constituting the whole image data is input, it is preferable that the image data can be accurately determined not to be the partial image data. ..

実施形態3では、全体画像データを構成するために2つの部分画像データの候補を上下又は左右に並べた場合に互いに隣接する端部又はつなぎ目における画素(隣接画素という)の画素値の差に着目する。隣接画素の画素値の差分が小さい場合、1つの連続した画像データを分割した部分画像データと判定できる。そこで、実施形態3では、2つの入力画像データを上下又は左右に並べた場合に互いに隣接する端部における画素値の差分絶対値の総和が所定の閾値より小さい場合、2つの入力画像データは全体画像データを構成する部分画像データの組み合わせに含まれると判定する。 In the third embodiment, attention is paid to the difference in pixel values of pixels (referred to as adjacent pixels) at edges or joints adjacent to each other when two partial image data candidates are arranged vertically or horizontally in order to compose the entire image data. To do. When the difference between the pixel values of the adjacent pixels is small, it can be determined that one continuous image data is divided partial image data. Therefore, in the third embodiment, when the two input image data are arranged vertically or horizontally and the total sum of the absolute differences between the pixel values at the adjacent ends is smaller than the predetermined threshold value, the two input image data are the whole. It is determined that the image data is included in the combination of the partial image data constituting the image data.

図6は、実施形態3における表示装置100で行われる処理を説明するためのフローチャートである。S201からS204までの処理は、図2のS101からS104までの
処理と同様である。ここでは、S204以降の処理について説明する。
S204において、S202で検出した部分画像データ候補のフォーマット情報のうち画素数202及び部分画像データ候補数と一致する組み合わせがパターンテーブル400にある場合、制御部101はS205へ遷移する。
FIG. 6 is a flowchart for explaining the process performed by the display device 100 in the third embodiment. The processing from S201 to S204 is the same as the processing from S101 to S104 in FIG. Here, the processing after S204 will be described.
In S204, when the pattern table 400 has a combination of the format information of the partial image data candidates detected in S202 that matches the number of pixels 202 and the number of partial image data candidates, the control unit 101 transitions to S205.

S205において、制御部101は、部分画像データの候補の互いに隣接する端部における画素値の差分絶対値和が閾値より小さいか否かの判定処理を行う。実施形態1及び2では、全体画像データの画素数が3840×2160である場合を例に説明したが、実施形態3では、簡単のため、図7(a)〜(d)に示す5×5の2値の画像データを例に説明する。図7の例では、部分画像データは5×5であり、これを2枚組み合わせて合成される全体画像データは10×5である。 In S205, the control unit 101 performs a determination process of whether or not the sum of the difference absolute values of the pixel values at the adjacent ends of the partial image data candidates is smaller than the threshold value. In the first and second embodiments, the case where the number of pixels of the entire image data is 3840 × 2160 has been described as an example, but in the third embodiment, for the sake of simplicity, the 5 × 5 shown in FIGS. 7 (a) to 7 (d) The binary image data of the above will be described as an example. In the example of FIG. 7, the partial image data is 5 × 5, and the total image data synthesized by combining two images is 10 × 5.

図6(b)は、差分絶対値和の判定処理を説明するためのフローチャートである。
まず、図7(a)の画像データが画像入力部111へ入力されており、図7(b)の画像データが画像入力部112へ入力されている場合について説明する。
FIG. 6B is a flowchart for explaining the determination process of the sum of the absolute values of the differences.
First, a case where the image data of FIG. 7A is input to the image input unit 111 and the image data of FIG. 7B is input to the image input unit 112 will be described.

S301において、制御部101は、2つの入力画像データの隣接する画素の画素値の差分を取得して行くためのカウンタnを初期化する。カウンタnの値はRAM134に格納される。このカウンタnは、図7(a)の画像と図7(b)の画像との隣接する端部における画素値を比較するライン番号を意味する(n=1〜5)。 In S301, the control unit 101 initializes the counter n for acquiring the difference between the pixel values of the adjacent pixels of the two input image data. The value of the counter n is stored in the RAM 134. The counter n means a line number for comparing the pixel values at the adjacent ends of the image of FIG. 7 (a) and the image of FIG. 7 (b) (n = 1 to 5).

S302において、制御部101は、画像入力部111へ入力されている図7(a)の画像のうち、画像入力部112へ入力されている図7(b)の画像と隣接する端部の1ライン目の画素E:1の画素値を画像処理部118のフレームメモリから読み出す。図7(a)の画像の画素E:1は、図示する通り白であるため、階調値1が読み出される。 In S302, the control unit 101 is one of the end portions of the image of FIG. 7 (a) input to the image input unit 111, which is adjacent to the image of FIG. 7 (b) input to the image input unit 112. The pixel value of pixel E: 1 of the line is read from the frame memory of the image processing unit 118. Since the pixel E: 1 of the image of FIG. 7A is white as shown, the gradation value 1 is read out.

S303において、制御部101は、画像入力部112へ入力されている図7(b)の画像のうち、画像入力部111へ入力されている図7(a)の画像と隣接する端部の1ライン目の画素A:1の画素値を画像処理部118のフレームメモリから読み出す。図7(b)の画像の画素A:1は、図示する通り白であるため、階調値1が読み出される。 In S303, the control unit 101 is one of the end portions of the image of FIG. 7 (b) input to the image input unit 112, which is adjacent to the image of FIG. 7 (a) input to the image input unit 111. The pixel value of pixel A: 1 of the line is read from the frame memory of the image processing unit 118. Since the pixel A: 1 of the image of FIG. 7B is white as shown, the gradation value 1 is read out.

S304において、制御部101は、S302及びS303で読み出した図7(a)の画素E:1画素値と図7(b)の画素A:1の画素の画素値との差分絶対値を計算する。ここでは各画素の画素値はともに1であるため、差分絶対値は0となる。制御部101は、計算した隣接画素の画素値の差分絶対値をRAM134にて格納する。制御部101は、以降のラインについても同様に隣接画素の画素値の差分絶対値を計算し、総和をとる。図7(a)及び図7(b)においては、図示する通り、各ラインの隣接画素の画素値は同じであるため、差分絶対値和は0となる。
以上、図6(b)の差分絶対値和を計算する処理が終わると、制御部101は図6(a)のS206に遷移する。
In S304, the control unit 101 calculates the absolute difference between the pixel E: 1 pixel value of FIG. 7A and the pixel value of the pixel A: 1 of FIG. 7B read out in S302 and S303. .. Here, since the pixel value of each pixel is 1, the absolute difference value is 0. The control unit 101 stores the calculated difference absolute value of the pixel values of the adjacent pixels in the RAM 134. The control unit 101 similarly calculates the difference absolute value of the pixel values of the adjacent pixels for the subsequent lines and sums them. In FIGS. 7 (a) and 7 (b), as shown in the figure, the pixel values of the adjacent pixels of each line are the same, so that the sum of the absolute values of the differences is 0.
As described above, when the process of calculating the difference absolute value sum of FIG. 6B is completed, the control unit 101 transitions to S206 of FIG. 6A.

S206において、制御部101は、S205で求めた差分絶対値和が閾値より小さいか判定する。ここでは閾値を3とする。上記のように、図7(a)及び図7(b)の場合、差分絶対値和は0であるため、閾値より小さい。これは、図7(a)及び図7(b)の入力画像データは、隣接する端部において画素値の差が小さく、連続する1つの画像データを分割した部分画像データである可能性が高いことを意味する。この場合、制御部101はS207へ遷移する。 In S206, the control unit 101 determines whether the sum of the absolute values obtained in S205 is smaller than the threshold value. Here, the threshold value is set to 3. As described above, in the case of FIGS. 7 (a) and 7 (b), the sum of the absolute values of the differences is 0, which is smaller than the threshold value. This is because the input image data of FIGS. 7 (a) and 7 (b) has a small difference in pixel values at adjacent ends, and it is highly possible that the input image data is partial image data obtained by dividing one continuous image data. Means that. In this case, the control unit 101 transitions to S207.

S207において、制御部101は、S202で検出した部分画像データ候補の組み合わせの画像入力部から入力される画像データを画像処理部118にて合成するよう制御す
る。合成された全体画像データに基づき液晶駆動部105が液晶部104を駆動することにより、全体画像データに基づく画像が投影光学系107によりスクリーンに投影される。
In S207, the control unit 101 controls the image processing unit 118 to synthesize the image data input from the image input unit of the combination of the partial image data candidates detected in S202. When the liquid crystal driving unit 105 drives the liquid crystal unit 104 based on the synthesized overall image data, the image based on the overall image data is projected on the screen by the projection optical system 107.

次に、図7(c)の画像データが画像入力部111へ入力されており、図7(d)の画像データが画像入力部112へ入力されている場合について説明する。上記の説明と差異がある図6(b)のS302以降の処理を説明する。 Next, a case where the image data of FIG. 7 (c) is input to the image input unit 111 and the image data of FIG. 7 (d) is input to the image input unit 112 will be described. The processing after S302 in FIG. 6B, which is different from the above description, will be described.

S302において、制御部101は、画像入力部111へ入力されている図7(c)の画像のうち、画像入力部112へ入力されている図7(d)の画像と隣接する端部の1ライン目の画素E:1の画素値を画像処理部118のフレームメモリから読み出す。図7(c)の画像の画素E:1は、図示する通り白であるため、階調値1が読み出される。 In S302, the control unit 101 is one of the end portions of the image of FIG. 7 (c) input to the image input unit 111, which is adjacent to the image of FIG. 7 (d) input to the image input unit 112. The pixel value of pixel E: 1 of the line is read from the frame memory of the image processing unit 118. Since the pixel E: 1 of the image of FIG. 7C is white as shown, the gradation value 1 is read out.

S303において、制御部101は、画像入力部112へ入力されている図7(d)の画像のうち、画像入力部111へ入力されている図7(c)の画像と隣接する端部の1ライン目の画素A:1の画素値を画像処理部118のフレームメモリから読み出す。図7(d)の画像の画素A:1は、図示する通り黒であるため、階調値0が読み出される。 In S303, the control unit 101 is one of the end portions of the image of FIG. 7 (d) input to the image input unit 112, which is adjacent to the image of FIG. 7 (c) input to the image input unit 111. The pixel value of pixel A: 1 of the line is read from the frame memory of the image processing unit 118. Since the pixel A: 1 of the image of FIG. 7D is black as shown, the gradation value 0 is read out.

S304において、制御部101は、S302及びS303で読み出した図7(c)の画素E:1画素値と図7(d)の画素A:1の画素の画素値との差分絶対値を計算する。ここでは、図7(c)の画素E:1画素値は1、図7(d)の画素A:1の画素の画素値は0であるため、差分絶対値は1となる。制御部101は、計算した隣接画素の画素値の差分絶対値をRAM134にて格納する。制御部101は、以降のラインについても同様に隣接画素の画素値の差分絶対値を計算し、総和をとる。図7(c)及び図7(d)においては、図示する通り、各ラインの隣接画素の画素値に差があるため、差分絶対値和は5となる。
以上、図6(b)の差分絶対値和を計算する処理が終わると、制御部101は図6(a)のS206に遷移する。
In S304, the control unit 101 calculates the absolute difference between the pixel E: 1 pixel value of FIG. 7 (c) and the pixel value of the pixel A: 1 of FIG. 7 (d) read out in S302 and S303. .. Here, since the pixel E: 1 pixel value of FIG. 7 (c) is 1 and the pixel value of the pixel A: 1 of FIG. 7 (d) is 0, the absolute difference value is 1. The control unit 101 stores the calculated difference absolute value of the pixel values of the adjacent pixels in the RAM 134. The control unit 101 similarly calculates the difference absolute value of the pixel values of the adjacent pixels for the subsequent lines and sums them. In FIGS. 7 (c) and 7 (d), as shown in the figure, there is a difference in the pixel values of the adjacent pixels of each line, so that the sum of the absolute values of the differences is 5.
As described above, when the process of calculating the difference absolute value sum of FIG. 6B is completed, the control unit 101 transitions to S206 of FIG. 6A.

S206において、制御部101は、S205で求めた差分絶対値和が閾値より小さいか判定する。ここでは閾値を3とする。上記のように、図7(c)及び図7(d)の場合、差分絶対値和は5であるため、閾値以上である。これは、図7(c)及び図7(d)の入力画像データは、隣接する端部において画素値の差が大きく、連続する1つの画像データを分割した部分画像データではないことを意味する。この場合、図6(a)のフローチャートの処理は終了する。 In S206, the control unit 101 determines whether the sum of the absolute values obtained in S205 is smaller than the threshold value. Here, the threshold value is set to 3. As described above, in the case of FIGS. 7 (c) and 7 (d), the sum of the absolute values of the differences is 5, which is equal to or greater than the threshold value. This means that the input image data of FIGS. 7 (c) and 7 (d) has a large difference in pixel values at adjacent ends and is not partial image data obtained by dividing one continuous image data. .. In this case, the processing of the flowchart of FIG. 6A ends.

実施形態3によれば、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて適切な部分画像データの組み合わせ候補が探索される。さらに、隣接する候補の画像データの端部の画素値同士を比較することで、より精度良く部分画像データの組み合わせを判定できる。これにより、ユーザが全体画像データを構成する部分画像データが入力される画像入力部を選択する操作をしなくても、正しく部分画像データを合成した全体画像データを表示することが可能となる。 According to the third embodiment, an appropriate combination candidate of the partial image data is searched based on the measurement result of the format information of the input image data and the pattern table. Further, by comparing the pixel values at the ends of the adjacent candidate image data, the combination of the partial image data can be determined more accurately. As a result, it is possible to display the entire image data in which the partial image data is correctly combined, without the user having to select the image input unit into which the partial image data constituting the entire image data is input.

[実施形態4]
実施形態1〜3で説明した様々な機能、処理及び方法は、パーソナルコンピュータ、マイクロコンピュータ、CPU(Central Processing Unit)などがプログラムを用いて実現することもできる。以下、実施形態4では、パーソナルコンピュータ、マイクロコンピュータ、CPUなどを「コンピュータX」と呼ぶ。また、実施形態4では、コンピュータXを制御するためのプログラムであって、実施形態1〜3で説明した様々な機能、処理及び方法を実現するためのプログラムを「プログラムY」と呼ぶ。
実施形態1〜3で説明した様々な機能、処理及び方法は、コンピュータXがプログラムYを実行することによって実現される。この場合において、プログラムYは、コンピュータ読み取り可能な記憶媒体を介してコンピュータXに供給される。実施形態4におけるコンピュータ読み取り可能な記憶媒体は、ハードディスク装置、磁気記憶装置、光記憶装置、光磁気記憶装置、メモリカード、揮発性メモリ、不揮発性メモリなどの少なくとも一つを含む。実施形態4におけるコンピュータ読み取り可能な記憶媒体は、non−transitory(非一時的)な記憶媒体である。
[Embodiment 4]
The various functions, processes, and methods described in the first to third embodiments can also be realized by a personal computer, a microcomputer, a CPU (Central Processing Unit), or the like by using a program. Hereinafter, in the fourth embodiment, a personal computer, a microcomputer, a CPU, and the like are referred to as "computer X". Further, in the fourth embodiment, a program for controlling the computer X and for realizing various functions, processes, and methods described in the first to third embodiments is referred to as a "program Y".
The various functions, processes and methods described in the first to third embodiments are realized by the computer X executing the program Y. In this case, the program Y is supplied to the computer X via a computer-readable storage medium. The computer-readable storage medium according to the fourth embodiment includes at least one such as a hard disk device, a magnetic storage device, an optical storage device, a photomagnetic storage device, a memory card, a volatile memory, and a non-volatile memory. The computer-readable storage medium according to the fourth embodiment is a non-transitory (non-temporary) storage medium.

100:表示装置、101:制御部、104:液晶部、110:画像入力部、111:画像入力部、112:画像入力部、113:画像入力部、118:画像処理部
100: Display device, 101: Control unit, 104: Liquid crystal unit, 110: Image input unit, 111: Image input unit, 112: Image input unit, 113: Image input unit, 118: Image processing unit

Claims (17)

画像を表示する表示手段と、Display means for displaying images and
複数の入力画像データが入力される入力手段と、Input means for inputting multiple input image data and
前記複数の入力画像データのうち、前記表示手段に画像を表示するために用いる1つの入力画像データをユーザが選択するための第1画像を表示するように前記表示手段を制御する制御手段と、A control means for controlling the display means so as to display a first image for the user to select one input image data used for displaying an image on the display means among the plurality of input image data.
を有し、Have,
前記表示手段が表示可能な画像データを構成する複数の部分画像データを前記複数の入力画像データが含む場合、前記制御手段は、前記第1画像と、前記複数の部分画像データに対応する入力画像データの組み合わせをユーザが選択するための第2画像と、を併せて表示するように、前記表示手段を制御することを特徴とする表示装置。When the plurality of input image data includes a plurality of partial image data constituting the image data that can be displayed by the display means, the control means controls the first image and the input images corresponding to the plurality of partial image data. A display device characterized in that the display means is controlled so as to display a second image for selecting a combination of data by the user.
前記制御手段は、画素数を含む各入力画像データのフォーマット情報に基づいて、前記複数の入力画像データが、前記複数の部分画像データを含むか否かを判定することを特徴とする請求項1に記載の表示装置。The control means is characterized in that it determines whether or not the plurality of input image data includes the plurality of partial image data based on the format information of each input image data including the number of pixels. The display device described in. 前記フォーマット情報は、フレームレート、同期信号周波数又はブランキング期間を含むことを特徴とする請求項2に記載の表示装置。 The format information, frame rate, display device according to claim 2, characterized in that it comprises a synchronization signal frequency or blanking period. 前記制御手段は、前記複数の入力画像データのうち、同一の画素数である画像データが所定数存在する場合、前記複数の入力画像データが、前記複数の部分画像データを含むと判定することを特徴とする請求項1乃至請求項3のいずれか1項に記載の表示装置。When a predetermined number of image data having the same number of pixels exists among the plurality of input image data, the control means determines that the plurality of input image data includes the plurality of partial image data. The display device according to any one of claims 1 to 3, which is characterized. 前記制御手段は、2つの前記入力画像データを上下又は左右に並べた場合に互いに隣接する端部における画素値の差が閾値より小さい場合であって、前記複数の入力画像データが、前記複数の部分画像データを含むと判定した場合に、さらに、当該2つの入力画像データは前記部分画像データの組み合わせに含まれると判定することを特徴とする請求項1乃至請求項4のいずれか1項に記載の表示装置。 The control means is a case where the difference between the pixel values at the ends adjacent to each other is smaller than the threshold value when the two input image data are arranged vertically or horizontally, and the plurality of input image data are the plurality of the input image data. According to any one of claims 1 to 4, when it is determined that the partial image data is included, it is further determined that the two input image data are included in the combination of the partial image data. The display device described. ユーザ操作を受けつける受付手段をさらに備え、Further equipped with a reception means to accept user operations
前記第1画像と前記第2画像とが表示されている場合に、前記第2画像を選択するユーWhen the first image and the second image are displayed, you can select the second image.
ザ操作を受け付けたことに応じて、前記制御手段は、前記選択された第2画像に対応する前記複数の部分画像データを組み合わせた画像データに基づく画像を表示するように前記表示手段を制御することを特徴とする請求項1乃至請求項5のいずれか1項に記載の表示装置。In response to the acceptance of the operation, the control means controls the display means so as to display an image based on the image data in which the plurality of partial image data corresponding to the selected second image are combined. The display device according to any one of claims 1 to 5, characterized in that.
前記入力手段は、HDMIで規定された形式で入力画像データが入力されることを特徴とする請求項1乃至請求項6のいずれか1項に記載の表示装置。The display device according to any one of claims 1 to 6, wherein the input means is input with input image data in a format specified by HDMI. 前記表示手段は、スクリーンに画像を投影する投影手段を有することを特徴とする請求項1乃至請求項7のいずれか1項に記載の表示装置。The display device according to any one of claims 1 to 7, wherein the display means includes a projection means for projecting an image on a screen. 画像を表示する表示手段を有する表示装置の制御方法であって、A control method for a display device having a display means for displaying an image.
複数の入力画像データが入力される入力ステップと、Input steps in which multiple input image data are input, and
前記複数の入力画像データのうち、前記表示手段に画像を表示するために用いる1つの入力画像データをユーザが選択するための第1画像を表示するように前記表示手段を制御する制御ステップと、A control step for controlling the display means so as to display a first image for the user to select one input image data used for displaying an image on the display means among the plurality of input image data.
を有し、Have,
前記表示手段が表示可能な画像データを構成する複数の部分画像データを前記複数の入力画像データが含む場合、前記制御ステップでは、前記第1画像と、前記複数の部分画像データに対応する入力画像データの組み合わせをユーザが選択するための第2画像と、を併せて表示するように、前記表示手段を制御することを特徴とする制御方法。When the plurality of input image data includes a plurality of partial image data constituting the image data that can be displayed by the display means, in the control step, the first image and the input image corresponding to the plurality of partial image data A control method comprising controlling the display means so as to display a second image for selecting a combination of data by the user.
前記制御ステップでは、画素数を含む各入力画像データのフォーマット情報に基づいて、前記複数の入力画像データが、前記複数の部分画像データを含むか否かを判定することを特徴とする請求項9に記載の制御方法。9. The control step is characterized in that it is determined whether or not the plurality of input image data includes the plurality of partial image data based on the format information of each input image data including the number of pixels. The control method described in. 前記フォーマット情報は、フレームレート、同期信号周波数又はブランキング期間を含むことを特徴とする請求項10に記載の制御方法。The control method according to claim 10, wherein the format information includes a frame rate, a synchronization signal frequency, or a blanking period. 前記制御ステップでは、前記複数の入力画像データのうち、同一の画素数である画像データが所定数存在する場合、前記複数の入力画像データが、前記複数の部分画像データを含むと判定することを特徴とする請求項9乃至請求項11のいずれか1項に記載の制御方法。In the control step, when a predetermined number of image data having the same number of pixels exists among the plurality of input image data, it is determined that the plurality of input image data includes the plurality of partial image data. The control method according to any one of claims 9 to 11, wherein the control method is characterized. 前記制御ステップでは、2つの前記入力画像データを上下又は左右に並べた場合に互いに隣接する端部における画素値の差が閾値より小さい場合であって、前記複数の入力画像データが、前記複数の部分画像データを含むと判定した場合に、さらに、当該2つの入力画像データは前記部分画像データの組み合わせに含まれると判定することを特徴とする請求項9乃至請求項12のいずれか1項に記載の制御方法。In the control step, when the two input image data are arranged vertically or horizontally, the difference between the pixel values at the adjacent ends is smaller than the threshold value, and the plurality of input image data are the plurality of input image data. According to any one of claims 9 to 12, when it is determined that the partial image data is included, it is further determined that the two input image data are included in the combination of the partial image data. The control method described. ユーザ操作を受けつける受付ステップをさらに有し、It also has a reception step to accept user operations,
前記第1画像と前記第2画像とが表示されている場合に、前記第2画像を選択するユーザ操作を受け付けたことに応じて、前記制御ステップでは、前記選択された第2画像に対応する前記複数の部分画像データを組み合わせた画像データに基づく画像を表示するように前記表示手段を制御することを特徴とする請求項9乃至請求項13のいずれか1項に記載の制御方法。When the first image and the second image are displayed, the control step corresponds to the selected second image in response to the acceptance of the user operation for selecting the second image. The control method according to any one of claims 9 to 13, wherein the display means is controlled so as to display an image based on image data in which a plurality of partial image data are combined.
前記入力ステップでは、HDMIで規定された形式で入力画像データが入力されることを特徴とする請求項9乃至請求項14のいずれか1項に記載の制御方法。The control method according to any one of claims 9 to 14, wherein in the input step, input image data is input in a format defined by HDMI. 前記表示手段は、スクリーンに画像を投影する投影手段を有することを特徴とする請求項9乃至請求項15のいずれか1項に記載の制御方法。The control method according to any one of claims 9 to 15, wherein the display means includes a projection means for projecting an image on a screen. 請求項9乃至請求項16のいずれか1項に記載の制御方法の各ステップをコンピュータに実行させるためのプログラム。A program for causing a computer to execute each step of the control method according to any one of claims 9 to 16.
JP2020033764A 2020-02-28 2020-02-28 Display device Active JP6834042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020033764A JP6834042B2 (en) 2020-02-28 2020-02-28 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020033764A JP6834042B2 (en) 2020-02-28 2020-02-28 Display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015169541A Division JP2017044995A (en) 2015-08-28 2015-08-28 Display device

Publications (2)

Publication Number Publication Date
JP2020115639A JP2020115639A (en) 2020-07-30
JP6834042B2 true JP6834042B2 (en) 2021-02-24

Family

ID=71778984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020033764A Active JP6834042B2 (en) 2020-02-28 2020-02-28 Display device

Country Status (1)

Country Link
JP (1) JP6834042B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131181A (en) * 2006-11-17 2008-06-05 Sharp Corp Television display device and channel designation method in a plurality of screens
JP5669614B2 (en) * 2011-02-18 2015-02-12 キヤノン株式会社 Image display apparatus and control method thereof
JP2013005226A (en) * 2011-06-16 2013-01-07 Canon Inc Video signal processing device, control method thereof and display device
JP2013153410A (en) * 2011-12-28 2013-08-08 Sharp Corp Av apparatus
JP2014134755A (en) * 2012-12-12 2014-07-24 Sharp Corp Display device, display method, television receiver, program, and recording medium
JP2015055845A (en) * 2013-09-13 2015-03-23 シャープ株式会社 Display unit and display method
JP2015102567A (en) * 2013-11-21 2015-06-04 三菱電機株式会社 Multi-vision display control device and multi-vision system

Also Published As

Publication number Publication date
JP2020115639A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
US9071773B2 (en) Projection system
US10761624B2 (en) Display apparatus and method for controlling display apparatus
US8511830B2 (en) Projection system, control method for projection system, and projection apparatus
US9319651B2 (en) Image projection apparatus, image projection method, and storage medium of program
US20150015583A1 (en) Projector, projector control method, and recording medium storing projector control program
US20190265847A1 (en) Display apparatus and method for controlling display apparatus
JP2019113647A (en) Display device and method for controlling the same
JP6794092B2 (en) Display device
JP2022036737A (en) Projection apparatus, control method, and program
JP2013083755A (en) Display device, method of controlling display device, and program
US9686447B2 (en) Display apparatus
CN111866307B (en) Display device, control method of display device, and storage medium
JP6834042B2 (en) Display device
JP2020013196A (en) Image projection device, control method for image projection device, and program
US9560306B2 (en) Display apparatus for determining a format of an analog video signal
JP2019186690A (en) Control device, projector, projector control method, program
JP2017044995A (en) Display device
JP2015169754A (en) Projector, and control method of projector
JP2018054912A (en) Projection-type display device and method for controlling the same
US11106418B2 (en) Image display apparatus, image output apparatus, control methods thereof, and storage medium
JP6120557B2 (en) Display device, image processing device, and control method thereof
JP5219651B2 (en) Display device
JP2019012927A (en) Video display device
JP2017111514A (en) Image processor and image processing method
JP2016191896A (en) Image processor and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6834042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151