[go: up one dir, main page]

JP2012181264A - Projection device, projection method, and program - Google Patents

Projection device, projection method, and program Download PDF

Info

Publication number
JP2012181264A
JP2012181264A JP2011042801A JP2011042801A JP2012181264A JP 2012181264 A JP2012181264 A JP 2012181264A JP 2011042801 A JP2011042801 A JP 2011042801A JP 2011042801 A JP2011042801 A JP 2011042801A JP 2012181264 A JP2012181264 A JP 2012181264A
Authority
JP
Japan
Prior art keywords
projection
image
human body
unit
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011042801A
Other languages
Japanese (ja)
Inventor
Hideo Hamanaka
秀雄 濱中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011042801A priority Critical patent/JP2012181264A/en
Publication of JP2012181264A publication Critical patent/JP2012181264A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】投影画像の面積を極力減らさず、スクリーン前の人物への光投射を回避させる。
【解決手段】入力画像信号に応じた画像を投影対象に向けて投影する投影系(11〜17)と、画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する撮像系(27,28B,29〜31)と、検出した人体領域の形状に対応し、投影系(11〜17)で投影する画像中の該当領域の輝度を低減させるCPU34とを備える。
【選択図】図1
Light projection onto a person in front of a screen is avoided without reducing the area of a projected image as much as possible.
A projection system (11 to 17) that projects an image according to an input image signal toward a projection target, and an infrared image in the image projection direction is photographed, and a human body is present in the infrared image obtained by photographing. The imaging system (27, 28B, 29 to 31) for detecting the shape of the area to be processed and the luminance of the corresponding area in the image projected by the projection system (11 to 17) corresponding to the detected shape of the human body area CPU34.
[Selection] Figure 1

Description

本発明は、例えばレーザダイオード等を光源とするプロジェクタ装置に好適な投影装置、投影方法及びプログラムに関する。   The present invention relates to a projection apparatus, a projection method, and a program suitable for a projector apparatus using, for example, a laser diode as a light source.

従来、ディスプレイ領域の人物が位置する領域の映像光の明るさを制御して、ディスプレイ領域に位置する人物の目に対する映像光の入射量を低減する、防眩機能を有する投写型表示装置に関する技術が考えられていた。(例えば、特許文献1)   2. Description of the Related Art Conventionally, a technique related to a projection display device having an antiglare function that controls the brightness of image light in a region where a person in the display area is located to reduce the amount of image light incident on the eyes of the person located in the display region Was considered. (For example, Patent Document 1)

特開2000−305481号公報JP 2000-305481 A

上記特許文献に記載された技術では、スクリーン前に立っている人物の位置に応じて、縦方向の領域全体がブランキングされる。そのため、スクリーン前に立つ人物に対する防眩機能は確実に実施可能となるものの、投影する画像の面積とそれに伴う情報量が大幅に減少するという不具合がある。   In the technique described in the above patent document, the entire vertical region is blanked according to the position of the person standing in front of the screen. Therefore, although the anti-glare function for a person standing in front of the screen can be surely implemented, there is a problem that the area of the image to be projected and the amount of information accompanying it are greatly reduced.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、投影画像の面積を極力減らすことなく、且つスクリーン前に立つ人物への光の投射を確実に回避させることが可能な投影装置、投影方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and its object is to reliably avoid projection of light onto a person standing in front of the screen without reducing the area of the projected image as much as possible. It is an object of the present invention to provide a projection apparatus, a projection method, and a program that can perform the above-described process.

本発明の一態様は、入力される画像信号に応じた画像を投影対象に向けて投影する投影手段と、上記投影手段による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出手段と、上記人体形状検出手段で検出した人体領域の形状に対応し、上記投影手段で投影する画像中の該当領域の輝度を低減させる投影制御手段とを具備したことを特徴とする。   According to one aspect of the present invention, a projection unit that projects an image according to an input image signal toward a projection target, an infrared image in the image projection direction by the projection unit, and an infrared image obtained by shooting the infrared image A human body shape detecting means for detecting the shape of a region where a human body exists, and a projection corresponding to the shape of the human body region detected by the human body shape detecting means and reducing the luminance of the corresponding region in the image projected by the projecting means And a control means.

本発明によれば、投影画像の面積を極力減らすことなく、且つスクリーン前に立つ人物への光の投射を確実に回避させることが可能となる。   According to the present invention, it is possible to reliably avoid the projection of light onto a person standing in front of the screen without reducing the area of the projected image as much as possible.

本発明の一実施形態に係るデータプロジェクタ装置の電子回路の機能構成を示すブロック図。The block diagram which shows the function structure of the electronic circuit of the data projector apparatus which concerns on one Embodiment of this invention. 同実施形態に係るプレゼンテーションモードでの投影動作の処理内容を示すフローチャート。6 is a flowchart showing processing details of a projection operation in a presentation mode according to the embodiment. 同実施形態に係る投影画像に対するマスク動作を説明するための図。The figure for demonstrating the mask operation | movement with respect to the projection image which concerns on the same embodiment.

以下、本発明をDLP(Digital Light Processing)(登録商標)方式の電池駆動によるデータプロジェクタ装置に適用した場合の一実施形態について図面を参照して説明する。   Hereinafter, an embodiment in which the present invention is applied to a DLP (Digital Light Processing) (registered trademark) battery-driven data projector apparatus will be described with reference to the drawings.

図1は、本実施形態に係るデータプロジェクタ装置10の主として電子回路の機能構成を説明する図である。同図中、符号11は入力部である。この入力部11は、例えばピンジャック(RCA)タイプのビデオ入力端子、D−sub15タイプのRGB入力端子、HDMI(High−Definition Multimedia Interface)規格の画像/音声入力端子、及びUSB(Universal Serial Bus)コネクタを有し、これらのいずれかの端子を介して有線接続される外部機器から、画像信号及び音声信号を入力する。   FIG. 1 is a diagram for mainly explaining a functional configuration of an electronic circuit of the data projector device 10 according to the present embodiment. In the figure, reference numeral 11 denotes an input unit. The input unit 11 includes, for example, a pin jack (RCA) type video input terminal, a D-sub 15 type RGB input terminal, an HDMI (High-Definition Multimedia Interface) standard image / audio input terminal, and a USB (Universal Serial Bus). An image signal and an audio signal are input from an external device having a connector and connected by wire through any of these terminals.

入力部11から入力された各種規格の画像信号は、システムバスSBを介し、スケーラとも称される投影画像変換部12に入力される。   The image signals of various standards input from the input unit 11 are input to the projection image conversion unit 12 also called a scaler via the system bus SB.

投影画像変換部12は、入力される画像信号を投影に適した所定のフォーマットの画像信号に統一し、内蔵する表示用のバッファメモリに適宜書込んだ後に、書込んだ画像信号を読出して投影画像駆動部13へ送る。   The projection image conversion unit 12 unifies the input image signal into an image signal of a predetermined format suitable for projection, appropriately writes it in a built-in display buffer memory, and then reads and projects the written image signal. The image is sent to the image driver 13.

投影画像駆動部13は、送られてきた画像信号に応じて、所定のフォーマットに従ったフレームレート、例えば60[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、マイクロミラー素子14を表示駆動する。   The projection image drive unit 13 multiplies a frame rate according to a predetermined format, for example, 60 [frames / second], the number of color component divisions, and the number of display gradations, in accordance with the transmitted image signal. The micromirror element 14 is driven to display by high-speed time-division driving.

このマイクロミラー素子14は、アレイ状に配列された複数、例えばWXGA(横1280画素×縦768画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。   The micromirror element 14 performs a display operation by individually turning on / off each inclination angle of a plurality of micromirrors arranged in an array, for example, WXGA (horizontal 1280 pixels × vertical 768 pixels) at high speed. Then, an optical image is formed by the reflected light.

一方で、光源部15から時分割でR,G,Bの原色光が循環的に出射される。この光源部15からの原色光が、ミラー16で全反射して上記マイクロミラー素子14に照射される。   On the other hand, R, G, and B primary color lights are emitted cyclically from the light source unit 15 in a time-sharing manner. The primary color light from the light source unit 15 is totally reflected by the mirror 16 and applied to the micromirror element 14.

そして、マイクロミラー素子14での反射光で光像が形成され、形成された光像が投影レンズ部17を介して、投影対象となる図示しないスクリーンに投影表示される。   Then, an optical image is formed by the reflected light from the micromirror element 14, and the formed optical image is projected and displayed on a screen (not shown) to be projected via the projection lens unit 17.

上記投影レンズ部17は、内部のレンズ光学系中に、フォーカス位置を移動するためのフォーカスレンズ群及びズーム(投影)画角を可変するためのズームレンズ群を有する。   The projection lens unit 17 includes a focus lens group for moving the focus position and a zoom lens group for changing the zoom (projection) angle of view in the internal lens optical system.

上記光源部15は、緑色(G)光を発するLD(以下「G−LD」と称する)19、
赤色(R)光を発する発光ダイオード(以下「R−LED」と称する)20、及び青色(B)光を発するLD(以下「B−LD」と称する)21を有する。
The light source unit 15 includes an LD (hereinafter referred to as “G-LD”) 19 that emits green (G) light,
It has a light emitting diode (hereinafter referred to as “R-LED”) 20 that emits red (R) light and an LD (hereinafter referred to as “B-LD”) 21 that emits blue (B) light.

G−LD19の発する緑色光は、ダイクロイックミラー22を透過した後、インテグレータ23で光強度分布が一様な光束とされてから上記ミラー16へ送られる。   The green light emitted from the G-LD 19 is transmitted through the dichroic mirror 22, and then converted into a light beam having a uniform light intensity distribution by the integrator 23, and then sent to the mirror 16.

R−LED20の発する赤色光は、ダイクロイックミラー24で反射された後、上記ダイクロイックミラー22でも反射され、上記インテグレータ23で光強度分布が一様な光束とされてから上記ミラー16へ送られる。   The red light emitted from the R-LED 20 is reflected by the dichroic mirror 24 and then by the dichroic mirror 22, and the luminous intensity distribution is made uniform by the integrator 23 before being sent to the mirror 16.

B−LD21の発する青色光は、ミラー25で反射された後に上記ダイクロイックミラー24を透過し、その後に上記ダイクロイックミラー22で反射され、上記インテグレータ23で光強度分布が一様な光束とされてから上記ミラー16へ送られる。
上記ダイクロイックミラー22は、緑色光を透過する一方で、赤色光及び青色光を反射する。上記ダイクロイックミラー24は、赤色光を反射する一方で、青色光を透過する。
The blue light emitted from the B-LD 21 is reflected by the mirror 25, then passes through the dichroic mirror 24, is then reflected by the dichroic mirror 22, and is converted into a light beam having a uniform light intensity distribution by the integrator 23. It is sent to the mirror 16.
The dichroic mirror 22 transmits green light while reflecting red light and blue light. The dichroic mirror 24 reflects red light while transmitting blue light.

しかして上記光源部15のG−LD19、R−LED20、及びB−LD21の各発光タイミングや駆動信号の波形等を投影光駆動部26が統括して制御する。投影光駆動部26は、上記投影画像駆動部13から与えられる画像信号に同期したタイミング信号と、後述するCPU34の制御に応じて上記G−LD19、R−LED20、及びB−LD21の発光動作を制御する。   Accordingly, the projection light drive unit 26 controls the light emission timings of the G-LD 19, the R-LED 20, and the B-LD 21 of the light source unit 15, the waveform of the drive signal, and the like. The projection light drive unit 26 performs the light emission operation of the G-LD 19, R-LED 20, and B-LD 21 in accordance with a timing signal synchronized with the image signal supplied from the projection image drive unit 13 and control of the CPU 34 described later. Control.

また、上記投影レンズ部17と隣接するようにして受光レンズ27を配設し、受光レンズ27の合焦位置に固体撮像素子である、CMOSイメージセンサ29を配設する。   A light receiving lens 27 is disposed so as to be adjacent to the projection lens unit 17, and a CMOS image sensor 29, which is a solid-state imaging device, is disposed at a focus position of the light receiving lens 27.

受光レンズ27は、例えば上記投影レンズ部17の最大ズーム画角に合わせて若干大きい撮影画角を有し、光軸方向に移動するフォーカスレンズを含んだレンズ群から構成されるものとする。   For example, the light receiving lens 27 has a photographing field angle slightly larger than the maximum zoom field angle of the projection lens unit 17 and includes a lens group including a focus lens that moves in the optical axis direction.

上記受光レンズ27とCMOSイメージセンサ29との間の光軸中には、可視光透過フィルタ28Aと赤外線透過フィルタ28Bとが選択的に配置される。これらフィルタ28A,28Bは、例えばフィルタレボルバ28の同一回転周上に配置され、フィルタレボルバ28の回動によりいずれか一方が上記撮影光軸中に挿入される。   In the optical axis between the light receiving lens 27 and the CMOS image sensor 29, a visible light transmission filter 28A and an infrared transmission filter 28B are selectively disposed. These filters 28A and 28B are disposed, for example, on the same rotation circumference of the filter revolver 28, and one of the filters 28A and 28B is inserted into the photographing optical axis by the rotation of the filter revolver 28.

上記投影レンズ部17による投影範囲を含んで撮影可能なように上記受光レンズ27、フィルタレボルバ28、及びCMOSイメージセンサ29が設けられる。CMOSイメージセンサ29での撮影動作により得られた、投影範囲を含む画像信号は、A/D変換器30でデジタル化された後、撮影制御部31に送られる。   The light receiving lens 27, the filter revolver 28, and the CMOS image sensor 29 are provided so that photographing can be performed including the projection range of the projection lens unit 17. The image signal including the projection range obtained by the photographing operation by the CMOS image sensor 29 is digitized by the A / D converter 30 and then sent to the photographing control unit 31.

この撮影制御部31は、上記受光レンズ27のフォーカスレンズを移動させてのコントラスト方式のAF(自動合焦)動作、上記CMOSイメージセンサ29を走査駆動しての撮影動作をそれぞれ実行させる。   The photographing control unit 31 executes a contrast AF (automatic focusing) operation by moving the focus lens of the light receiving lens 27 and a photographing operation by scanning the CMOS image sensor 29.

また撮影制御部31は、上記フィルタレボルバ28を回動させ、受光レンズ27とCMOSイメージセンサ29間の撮影光軸中に可視光透過フィルタ28Aまたは赤外線透過フィルタ28Bを介在させるフィルタモータ32の駆動制御も行なう。   Further, the imaging control unit 31 rotates the filter revolver 28 so as to drive the filter motor 32 with the visible light transmission filter 28A or the infrared transmission filter 28B interposed in the imaging optical axis between the light receiving lens 27 and the CMOS image sensor 29. Also do.

撮影制御部31は、CMOSイメージセンサ29での撮影により得た画像データを、必要により投影画像の認識、及び顔検出の処理を含む画像処理を施し、その認識結果等をこのデータプロジェクタ装置10全体の制御動作を司るCPU34へ送出する。   The imaging control unit 31 performs image processing including projection image recognition and face detection processing on image data obtained by imaging with the CMOS image sensor 29 as necessary, and the recognition results and the like are displayed on the entire data projector apparatus 10. Is sent to the CPU 34 which controls the control operation.

上記各回路の動作すべてをCPU34が制御する。このCPU34は、メインメモリ35及びプログラムメモリ36と直接接続される。メインメモリ35は、例えばSRAMで構成され、CPU34のワークメモリとして機能する。プログラムメモリ36は、電気的書換可能な不揮発性メモリ、例えばフラッシュROMで構成され、CPU34が実行する動作プログラムや各種定型データ等を記憶する。   The CPU 34 controls all the operations of the above circuits. The CPU 34 is directly connected to the main memory 35 and the program memory 36. The main memory 35 is composed of, for example, an SRAM and functions as a work memory for the CPU 34. The program memory 36 is composed of an electrically rewritable nonvolatile memory such as a flash ROM, and stores an operation program executed by the CPU 34, various fixed data, and the like.

CPU34は、上記プログラムメモリ36に記憶されている動作プログラムや定型データ等を読出し、メインメモリ35に展開して記憶させた上で、当該プログラムを実行することにより、このデータプロジェクタ装置10を統括して制御する。   The CPU 34 controls the data projector device 10 by reading out the operation program, fixed data, etc. stored in the program memory 36, developing and storing them in the main memory 35, and executing the program. Control.

上記CPU34は、操作部37からのキー操作信号に応じて各種投影動作を実行する。
この操作部37は、このデータプロジェクタ装置10専用の図示しないリモートコントローラからの赤外線変調信号を受信するリモコン受光部と、データプロジェクタ装置10の例えば筐体上面に設けられるキー入力部を含む。操作部37は、ユーザがデータプロジェクタ装置10専用のリモートコントローラあるいは本体のキー入力部で操作したキーに基づくキー操作信号をCPU34へ出力する。
The CPU 34 performs various projection operations in response to key operation signals from the operation unit 37.
The operation unit 37 includes a remote control light receiving unit that receives an infrared modulation signal from a remote controller (not shown) dedicated to the data projector device 10, and a key input unit provided on the upper surface of the housing of the data projector device 10, for example. The operation unit 37 outputs a key operation signal based on a key operated by a user with a remote controller dedicated to the data projector device 10 or a key input unit of the main body to the CPU 34.

上記CPU34はさらに、上記システムバスSBを介して音声処理部38と接続される。
音声処理部38は、PCM音源等の音源回路を備え、投影動作時に与えられる音声信号をアナログ化し、スピーカ部39を駆動して放音させ、あるいは必要によりビープ音等を発生させる。
The CPU 34 is further connected to an audio processing unit 38 via the system bus SB.
The sound processing unit 38 includes a sound source circuit such as a PCM sound source, converts the sound signal given during the projection operation into an analog signal, drives the speaker unit 39 to emit sound, or generates a beep sound or the like as necessary.

次に上記実施形態の動作について説明する。
図2は、例えば「プレゼン(プレゼンテーション)モード」と称する、人物がスクリーン前に位置してプレゼンテーションを行なうモードを設定しての動作時に、CPU34が実行する処理内容を示すフローチャートである。
Next, the operation of the above embodiment will be described.
FIG. 2 is a flowchart showing the processing contents executed by the CPU 34 in an operation called a “presentation (presentation) mode” for setting a mode in which a person is positioned in front of the screen and giving a presentation.

その処理当所にCPU34は、スクリーン前の人物の位置を検出するタイミングであるか否かを判断する(ステップS101)。この検出タイミングとしては、動作開始当初、一定時間(ex.2[秒])経過時、入力部11より入力する画像信号の切換え時、及びフォーカス位置やズーム角度など投影環境の変更操作時を含むものとする。   At this processing location, the CPU 34 determines whether it is time to detect the position of the person in front of the screen (step S101). This detection timing includes at the beginning of the operation, when a certain time (ex. 2 [seconds]) has elapsed, when the image signal input from the input unit 11 is switched, and when the projection environment is changed such as the focus position and zoom angle. Shall be.

上記ステップS101で検出タイミングであると判断すると、投影レンズ部17よりその時点で入力されている画像の投影を行ないながら、一方で撮影制御部31によりフィルタレボルバ28の可視光透過フィルタ28Aを受光レンズ27とCMOSイメージセンサ29間の撮影光軸中に挿入するように設定し、可視光領域の投影画像をCMOSイメージセンサ29で撮影させる(ステップS102)。   If it is determined in step S101 that the detection timing is reached, an image input at that time is projected from the projection lens unit 17, while the imaging control unit 31 moves the visible light transmission filter 28A of the filter revolver 28 to the light receiving lens. 27 and the CMOS image sensor 29 are set so as to be inserted into the imaging optical axis, and a projected image in the visible light region is captured by the CMOS image sensor 29 (step S102).

このとき撮影制御部31では、撮影に際して受光レンズ27の一部を構成するフォーカスレンズを移動させることで上述した如くコントラスト方式のAF動作を実行する。AF動作により得た、最も画像のコントラストが高くなるフォーカスレンズの駆動位置に基づいて、投影対象となるスクリーンまでの距離値を検出する。   At this time, the imaging control unit 31 performs the contrast AF operation as described above by moving the focus lens that constitutes a part of the light receiving lens 27 during imaging. The distance value to the screen to be projected is detected based on the driving position of the focus lens that provides the highest image contrast obtained by the AF operation.

図3(A)は、このときCMOSイメージセンサ29で撮影される可視光画像の内容を例示する。同図(A)では、背景全域のスクリーンSC中に投影画像領域PAが位置し、且つ投影画像領域PAの一部に重なるようにして、プレゼンテーションを行なっている人物PSが写り込んだ状態を示している。
上述した如く受光レンズ27での投影画角は、投影レンズ部17の最大ズーム画角より若干大きくなるように設定されているため、確実に投影画像全域を撮影可能となる。
FIG. 3A illustrates the contents of a visible light image captured by the CMOS image sensor 29 at this time. FIG. 4A shows a state in which the projected image area PA is located in the screen SC of the entire background and the person PS who is presenting is reflected so as to overlap a part of the projected image area PA. ing.
As described above, since the projection angle of view of the light receiving lens 27 is set to be slightly larger than the maximum zoom angle of view of the projection lens unit 17, the entire projection image can be reliably photographed.

撮影制御部31は、上記撮影した可視光画像中から、投影画像領域PAを抽出する(ステップS103)。具体的には、可視光画像中の、投影画像領域PAを規定する矩形コーナー部の4点A〜Dの各座標位置を検出する。   The imaging control unit 31 extracts a projected image area PA from the captured visible light image (step S103). Specifically, the coordinate positions of the four points A to D of the rectangular corner portion that defines the projection image area PA in the visible light image are detected.

撮影制御部31が実行する上記投影画像領域PAの抽出に際しては、撮影した可視光画像のみを用いて輪郭抽出処理により矩形の投影画像領域PAを切出すものとしてもよいし、その時点で投影レンズ部17より投影している画像とのマッチングをとるものとしてもよい。   When extracting the projection image area PA executed by the imaging control unit 31, a rectangular projection image area PA may be cut out by contour extraction processing using only the captured visible light image, and at that time, the projection lens may be extracted. The image may be matched with the image projected from the unit 17.

次いで、撮影制御部31によりフィルタレボルバ28の赤外線透過フィルタ28Bを受光レンズ27とCMOSイメージセンサ29間の撮影光軸中に挿入するように設定し、赤外線の画像をCMOSイメージセンサ29で撮影させる(ステップS104)。   Next, the imaging control unit 31 sets the infrared transmission filter 28B of the filter revolver 28 to be inserted into the imaging optical axis between the light receiving lens 27 and the CMOS image sensor 29, and causes the CMOS image sensor 29 to capture an infrared image ( Step S104).

図3(B)は、このときCMOSイメージセンサ29で撮影される赤外線画像の内容を例示する。同図(B)では、人物PSの特に肌が露出している顔部分FC、及び手首から先の部分HD,HDが、それぞれ赤外線を発している物体として画像上で検出可能となる。   FIG. 3B illustrates the contents of an infrared image captured by the CMOS image sensor 29 at this time. In FIG. 5B, the face portion FC of the person PS where the skin is particularly exposed and the portions HD and HD ahead of the wrist can be detected on the image as objects emitting infrared rays.

こうして得た赤外線画像に対して撮影制御部31が、CPU34からの指示に基づいて顔検出処理(顔位置の検出処理)を実行し、上記顔部分FCのみを抽出する(ステップS105)。   The imaging control unit 31 performs face detection processing (face position detection processing) on the infrared image obtained in this manner based on an instruction from the CPU 34, and extracts only the face portion FC (step S105).

これは、プログラムメモリ36に記憶されている顔検出プログラム(顔位置検出アルゴリズム)により実行される。   This is executed by a face detection program (face position detection algorithm) stored in the program memory 36.

プログラムメモリ36には、例えば、一般的な人物のそれぞれのパーツ(顔部分や手首から先の部分)の相対的な大きさ、位置関係等を記憶しているデータベースも格納している。   The program memory 36 also stores, for example, a database that stores the relative size, positional relationship, and the like of each part (portion from the face and wrist) of a general person.

CPU34は、上記顔検出プログラムに基づいて、検出された人物PSの形状を、上記データベースと比較し、顔部分や手首から先の部分がどの部分に相当するかを判断、特定し、顔部分FC部分のみを抽出(検出)するようにすればよい。   Based on the face detection program, the CPU 34 compares the shape of the detected person PS with the database, determines and identifies which part the face part and the part beyond the wrist correspond to, and determines the face part FC. It is only necessary to extract (detect) only the portion.

そしてCPU34では、上記撮影制御部31で抽出した顔部分FCの領域の位置を、上記ステップS103で抽出した投影画像領域PAを基準とした座標範囲に変換することで、人物PSの顔が投影画像のどの位置に対応するのかを得ることができる。   The CPU 34 converts the position of the area of the face portion FC extracted by the photographing control unit 31 into a coordinate range based on the projection image area PA extracted in step S103, whereby the face of the person PS is projected. It is possible to obtain the position corresponding to the position.

したがって、上記のようにして検出した顔部分FCをマスクするような範囲の設定を行なった上で(ステップS106)、上記ステップS101からの処理に戻る。   Therefore, after setting the range for masking the face portion FC detected as described above (step S106), the process returns to the processing from step S101.

ここで上記マスクの設定とは、例えばマイクロミラー素子14で各原色光に応じた光像を形成する際、画像中の上記顔部分FCに該当する画素群の各階調値を大幅に低減させ、「黒」、あるいはそれに準じた非常に低い輝度で投影させることを指すものとする。   Here, the setting of the mask means, for example, when the light image corresponding to each primary color light is formed by the micromirror element 14, each gradation value of the pixel group corresponding to the face portion FC in the image is greatly reduced, “Black” or projection with a very low luminance equivalent thereto is assumed.

その後、上記ステップS101で検出タイミングではないと判断すると、入力部11より入力される画像信号に基づき、直前の上記ステップS106で設定したように顔部分をマスクした光像をマイクロミラー素子14で形成して、投影レンズ部17よりスクリーンSCに向けて投影させた後(ステップS107)、再び上記ステップS101からの処理に戻る。   Thereafter, when it is determined in step S101 that it is not the detection timing, a light image with the face portion masked is formed by the micromirror element 14 as set in the previous step S106 based on the image signal input from the input unit 11. Then, after the projection lens unit 17 projects the image onto the screen SC (step S107), the process returns to step S101 again.

図3(C)は、このとき投影レンズ部17より投影する画像の内容を示す。図示する如く、投影画像領域PA中の上記顔部分FCに該当してマスク領域M1を輝度がゼロの「黒」、あるいはそれに準じた非常に低い輝度で投影するものとした。これにより、スクリーンSCの前でプレゼンテーションを行なっている人物PSの顔部分FCに眩しい光が入射することを確実に回避できる。   FIG. 3C shows the contents of the image projected from the projection lens unit 17 at this time. As shown in the figure, the mask area M1 corresponding to the face portion FC in the projection image area PA is projected with “black” having a luminance of zero or with a very low luminance equivalent thereto. Thereby, it is possible to reliably avoid the dazzling light entering the face portion FC of the person PS who is presenting in front of the screen SC.

このようにして上記図2の処理を繰返し実行し、適宜タイミングでマスク位置の更新設定を行ないながら、最小限必要と思われる位置部分をマスクした画像の投影を続行する。   In this way, the above-described processing of FIG. 2 is repeatedly executed, and the projection of an image in which a position portion considered to be a minimum is masked is continued while updating the mask position at an appropriate timing.

以上詳述した如く本実施形態によれば、投影画像の面積を必要以上に減らすことなく、且つスクリーンSCの前に立つ人物PSへの光の投射を回避させることが可能となる。   As described above in detail, according to the present embodiment, it is possible to avoid the projection of light onto the person PS standing in front of the screen SC without reducing the area of the projected image more than necessary.

なお上記実施形態においては、赤外線画像の撮影とは別に、可視光画像の撮影を行ない、スクリーン上で投影される画像の位置を正確に把握しておくものとしたので、位置合わせの精度を上げてマスクする部分を必要最小限としながら、スクリーンの前に立つ人物への光の投射を確実に回避できる。   In the above embodiment, a visible light image is captured separately from the infrared image capturing, and the position of the image projected on the screen is accurately grasped. Therefore, it is possible to reliably avoid the projection of light onto a person standing in front of the screen while minimizing the masking portion.

加えて上記実施形態では、赤外線画像に対して顔検出処理により人物の顔位置を検出するものとしたので、例えば投影する画像中に顔が写り込んでいても影響を受けず、スクリーンの前に立つ人物の顔への光の投射を確実に回避できる。   In addition, in the above embodiment, since the face position of the person is detected by the face detection process on the infrared image, for example, even if a face is reflected in the image to be projected, it is not affected and is displayed in front of the screen. Projection of light onto the face of a standing person can be reliably avoided.

さらに上記実施形態では、投影画像の範囲を撮影するための可視光画像撮影と、スクリーン前に立つ人物を撮影するための赤外線画像撮影とを1つの撮像光学系で兼用するものとし、撮影光軸中の光学フィルタを選択的に装脱することで対処するものとしたので、装置全体の構成を簡易化できると共に、可視光画像撮影と赤外線画像撮影とでパララックス(視差)が存在せず、位置合わせの精度をより向上できる。   Furthermore, in the above-described embodiment, a single imaging optical system combines the visible light image capturing for capturing the range of the projected image and the infrared image capturing for capturing the person standing in front of the screen. Since it was decided to deal with by selectively removing the optical filter inside, it is possible to simplify the overall configuration of the apparatus, and there is no parallax between the visible light image shooting and the infrared image shooting, The accuracy of alignment can be further improved.

また上記実施形態では説明しなかったが、投影レンズ部17を介して投影する画像の位置及び範囲に対し、受光レンズ27を介して撮像する画像の位置及び範囲の関係を予め特定できるような構成、例えばスクリーンまでの距離からパララックス(視差)が補正できるような構成とすれば、投影画像の位置及び範囲を検出するための可視光画像の撮影とそれに続く検出処理は省略できる。   In addition, although not described in the above embodiment, a configuration in which the relationship between the position and range of the image captured through the light receiving lens 27 and the position and range of the image projected through the projection lens unit 17 can be specified in advance. For example, if the configuration is such that parallax (parallax) can be corrected from the distance to the screen, shooting of the visible light image for detecting the position and range of the projected image and subsequent detection processing can be omitted.

さらに上記実施形態では、可視光領域の投影画像をCMOSイメージセンサ29で撮影させるために、可視光透過フィルタ28Aを使うとして説明したが、可視光領域の投影画像を撮影できるのであれば、撮像素子の特性との関係により、可視光透過フィルタとしては単なる開口であってもよい。   Furthermore, in the above-described embodiment, the visible light transmission filter 28A is used to capture the projected image in the visible light region with the CMOS image sensor 29. However, if the projected image in the visible light region can be captured, the imaging device Depending on the characteristics, the visible light transmission filter may be a simple opening.

なお上記実施形態は、DLP方式のデータプロジェクタ装置に適用した場合について説明したが、本発明はプロジェクタ方式等を限定するものではなく、その他の方式の投影装置、あるいは投影機能を備えた各種電子機器などにも同様に適用することが可能となる。   In the above embodiment, the case where the present invention is applied to a DLP data projector apparatus has been described. However, the present invention does not limit the projector system or the like, and other types of projection apparatuses or various electronic devices having a projection function. It can be similarly applied to the above.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当所の特許請求の範囲に記載された発明を付記する。   The invention described in the claims of the present application of the present application will be appended below.

請求項1記載の発明は、入力される画像信号に応じた画像を投影対象に向けて投影する投影手段と、上記投影手段による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出手段と、上記人体形状検出手段で検出した人体領域の形状に対応し、上記投影手段で投影する画像中の該当領域の輝度を低減させる投影制御手段とを具備したことを特徴とする。   According to the first aspect of the present invention, a projection unit that projects an image according to an input image signal toward a projection target, an infrared image in the image projection direction by the projection unit, and an infrared image obtained by shooting The human body shape detecting means for detecting the shape of the area where the human body is present and the shape of the human body area detected by the human body shape detecting means, and the luminance of the corresponding area in the image projected by the projecting means is reduced. And a projection control means.

請求項2記載の発明は、上記請求項1記載の発明において、上記投影手段による画像投影方向の可視光画像を撮影し、撮影して得た画像中から投影画像の範囲を検出する投影範囲検出手段をさらに具備し、上記投影制御手段は、上記投影範囲検出手段で検出した投影画像の範囲に対する、上記人体形状検出手段で検出した人体領域の形状に基づいて上記投影手段で投影する画像中の該当領域の輝度を低減させることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, a projection range detection is performed in which a visible light image in the image projection direction by the projection unit is photographed and a range of the projected image is detected from the photographed image. Means for projecting the projection means based on the shape of the human body region detected by the human body shape detection means for the range of the projection image detected by the projection range detection means in the image projected by the projection means. It is characterized in that the luminance of the corresponding area is reduced.

請求項3記載の発明は、上記請求項1または2記載の発明において、上記人体形状検出手段は、赤外線画像中から顔検出処理により人物の顔領域の形状を検出することを特徴とすることを特徴とする。   The invention according to claim 3 is the invention according to claim 1 or 2, characterized in that the human body shape detecting means detects the shape of the face area of a person by face detection processing from an infrared image. Features.

請求項4記載の発明は、上記請求項1乃至3いずれか一項記載の発明において、上記人体形状検出手段は、投影方向を撮影する撮像光学系に対し、赤外線を透過するフィルタを選択的に挿入して画像を撮影することを特徴とする。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the human body shape detecting means selectively selects a filter that transmits infrared rays with respect to an imaging optical system that captures the projection direction. It is characterized in that it is inserted and an image is taken.

請求項5記載の発明は、上記請求項2または3記載の発明において、上記人体形状検出手段及び上記投影範囲検出手段は、投影方向を撮影する一撮像光学系に対し、人体形状検出手段では赤外線を透過する第1のフィルタを、投影範囲検出手段では可視光を透過する第2のフィルタを、選択的に挿入して画像を撮影することを特徴とする。   According to a fifth aspect of the present invention, in the invention of the second or third aspect, the human body shape detecting means and the projection range detecting means are configured so that the human body shape detecting means is an infrared ray for one imaging optical system for photographing the projection direction. An image is photographed by selectively inserting a first filter that transmits light and a second filter that transmits visible light in the projection range detection means.

請求項6記載の発明は、入力される画像信号に応じた画像を投影対象に向けて投影する投影部を備えた装置での投影方法であって、上記投影部による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出工程と、上記人体形状検出工程で検出した人体領域の形状に対応し、上記投影部で投影する画像中の該当領域の輝度を低減させる投影制御工程とを有したことを特徴とする。   The invention according to claim 6 is a projection method in an apparatus including a projection unit that projects an image according to an input image signal toward a projection target, and an infrared image in an image projection direction by the projection unit is obtained. Corresponding to the shape of the human body shape detected in the human body shape detection step, and the shape of the human body region detected in the human body shape detection step, and projected by the projection unit And a projection control step for reducing the luminance of the corresponding area in the image.

請求項7記載の発明は、入力される画像信号に応じた画像を投影対象に向けて投影する投影部を備えた装置が内蔵したコンピュータが実行するプログラムであって、上記プログラムを、上記投影部による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出手段、及び上記人体形状検出手段で検出した人体領域の形状に対応し、上記投影部で投影する画像中の該当領域の輝度を低減させる投影制御手段として機能させることを特徴とする。   The invention according to claim 7 is a program executed by a computer built in an apparatus including a projection unit that projects an image according to an input image signal toward a projection target, and the program is stored in the projection unit. Corresponding to the shape of the human body region detected by the human body shape detecting means, and the human body shape detecting means for detecting the shape of the region where the human body exists from the infrared image obtained by shooting the infrared image of the image projection direction by And it is made to function as a projection control means which reduces the brightness | luminance of the applicable area | region in the image projected by the said projection part.

10…データプロジェクタ装置、11…入力部、12…投影画像変換部、13…投影画像駆動部、14…マイクロミラー素子、15…光源部、16…ミラー、17…投影レンズ部、19…緑色レーザダイオード(G−LD)、20…赤色発光ダイオード(R−LED)、21…青色レーザダイオード(B−LD)、22…ダイクロイックミラー、23…インテグレータ、24…ダイクロイックミラー、25…ミラー、26…投影光駆動部、27…受光レンズ、28…フィルタレボルバ、28A…可視光透過フィルタ、28B…赤外線透過フィルタ、29…CMOSイメージセンサ、30…A/D変換器、31…撮影制御部、32…フィルタモータ(M)、34…CPU、35…メインメモリ、36…プログラムメモリ、37…操作部、38…音声処理部、39…スピーカ部、SB…システムバス。   DESCRIPTION OF SYMBOLS 10 ... Data projector apparatus, 11 ... Input part, 12 ... Projection image conversion part, 13 ... Projection image drive part, 14 ... Micromirror element, 15 ... Light source part, 16 ... Mirror, 17 ... Projection lens part, 19 ... Green laser Diode (G-LD), 20 ... Red light emitting diode (R-LED), 21 ... Blue laser diode (B-LD), 22 ... Dichroic mirror, 23 ... Integrator, 24 ... Dichroic mirror, 25 ... Mirror, 26 ... Projection Light drive unit, 27 ... light receiving lens, 28 ... filter revolver, 28A ... visible light transmission filter, 28B ... infrared transmission filter, 29 ... CMOS image sensor, 30 ... A / D converter, 31 ... photographing control unit, 32 ... filter Motor (M), 34 ... CPU, 35 ... main memory, 36 ... program memory, 37 ... operation unit, 38 ... Voice processing unit, 39 ... speaker, SB ... system bus.

Claims (7)

入力される画像信号に応じた画像を投影対象に向けて投影する投影手段と、
上記投影手段による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出手段と、
上記人体形状検出手段で検出した人体領域の形状に対応し、上記投影手段で投影する画像中の該当領域の輝度を低減させる投影制御手段と
を具備したことを特徴とする投影装置。
Projection means for projecting an image according to an input image signal toward a projection target;
Human body shape detection means for capturing an infrared image in the direction of image projection by the projection means and detecting the shape of a region where a human body exists from the infrared image obtained by photographing,
A projection apparatus comprising: a projection control unit that reduces the luminance of a corresponding region in an image projected by the projection unit corresponding to the shape of the human body region detected by the human body shape detection unit.
上記投影手段による画像投影方向の可視光画像を撮影し、撮影して得た画像中から投影画像の範囲を検出する投影範囲検出手段をさらに具備し、
上記投影制御手段は、上記投影範囲検出手段で検出した投影画像の範囲に対する、上記人体形状検出手段で検出した人体領域の形状に基づいて上記投影手段で投影する画像中の該当領域の輝度を低減させる
ことを特徴とする請求項1記載の投影装置。
A visible range image is captured in the image projection direction by the projection unit, and further includes a projection range detection unit that detects a range of the projection image from the captured image.
The projection control unit reduces the luminance of the corresponding region in the image projected by the projection unit based on the shape of the human body region detected by the human body shape detection unit with respect to the range of the projection image detected by the projection range detection unit. The projection apparatus according to claim 1, wherein:
上記人体形状検出手段は、赤外線画像中から顔検出処理により人物の顔領域の形状を検出することを特徴とすることを特徴とする請求項1または2記載の投影装置。   The projection apparatus according to claim 1, wherein the human body shape detecting means detects the shape of a human face region from an infrared image by face detection processing. 上記人体形状検出手段は、投影方向を撮影する撮像光学系に対し、赤外線を透過するフィルタを選択的に挿入して画像を撮影することを特徴とする請求項1乃至3いずれか一項記載の投影装置。   The said human body shape detection means image | photographs an image by selectively inserting the filter which permeate | transmits infrared rays with respect to the imaging optical system which image | photographs a projection direction, The imaging | photography is characterized by the above-mentioned. Projection device. 上記人体形状検出手段及び上記投影範囲検出手段は、投影方向を撮影する一撮像光学系に対し、人体形状検出手段では赤外線を透過する第1のフィルタを、投影範囲検出手段では可視光を透過する第2のフィルタを、選択的に挿入して画像を撮影することを特徴とする請求項2または3記載の投影装置。   The human body shape detecting unit and the projection range detecting unit transmit a first filter that transmits infrared rays in the human body shape detecting unit and visible light in the projection range detecting unit with respect to one imaging optical system that captures the projection direction. The projection apparatus according to claim 2, wherein the second filter is selectively inserted to capture an image. 入力される画像信号に応じた画像を投影対象に向けて投影する投影部を備えた装置での投影方法であって、
上記投影部による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出工程と、
上記人体形状検出工程で検出した人体領域の形状に対応し、上記投影部で投影する画像中の該当領域の輝度を低減させる投影制御工程と
を有したことを特徴とする投影方法。
A projection method in an apparatus including a projection unit that projects an image according to an input image signal toward a projection target,
A human body shape detection step of capturing an infrared image in the image projection direction by the projection unit, and detecting a shape of a region where a human body exists from the infrared image obtained by shooting,
A projection method comprising: a projection control step for reducing the luminance of a corresponding region in an image projected by the projection unit corresponding to the shape of the human body region detected in the human body shape detection step.
入力される画像信号に応じた画像を投影対象に向けて投影する投影部を備えた装置が内蔵したコンピュータが実行するプログラムであって、
上記プログラムを、
上記投影部による画像投影方向の赤外線画像を撮影し、撮影して得た赤外線画像中から人体が存在する領域の形状を検出する人体形状検出手段、及び
上記人体形状検出手段で検出した人体領域の形状に対応し、上記投影部で投影する画像中の該当領域の輝度を低減させる投影制御手段
として機能させることを特徴とするプログラム。
A program executed by a computer built in an apparatus including a projection unit that projects an image according to an input image signal toward a projection target,
The above program
Taking an infrared image in the image projection direction by the projection unit, detecting a shape of a region where a human body exists from an infrared image obtained by the imaging, and a human body region detected by the human body shape detection unit A program that functions as a projection control unit that corresponds to a shape and reduces the luminance of a corresponding region in an image projected by the projection unit.
JP2011042801A 2011-02-28 2011-02-28 Projection device, projection method, and program Withdrawn JP2012181264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011042801A JP2012181264A (en) 2011-02-28 2011-02-28 Projection device, projection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011042801A JP2012181264A (en) 2011-02-28 2011-02-28 Projection device, projection method, and program

Publications (1)

Publication Number Publication Date
JP2012181264A true JP2012181264A (en) 2012-09-20

Family

ID=47012531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011042801A Withdrawn JP2012181264A (en) 2011-02-28 2011-02-28 Projection device, projection method, and program

Country Status (1)

Country Link
JP (1) JP2012181264A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104052977A (en) * 2014-06-12 2014-09-17 海信集团有限公司 Interactive image projection method and device
CN104378566A (en) * 2013-08-12 2015-02-25 联想(北京)有限公司 Projection method and electronic equipment
CN104698727A (en) * 2015-03-24 2015-06-10 海信集团有限公司 Human body protection method and device for laser projection device and laser projection device
JP2018025809A (en) * 2017-09-13 2018-02-15 カシオ計算機株式会社 Light irradiation control device and program
KR20200034045A (en) * 2018-09-20 2020-03-31 주식회사 에스지엠 Screen sports system showing achievement images
WO2020253387A1 (en) * 2019-06-20 2020-12-24 青岛海信激光显示股份有限公司 Projection method and device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104378566A (en) * 2013-08-12 2015-02-25 联想(北京)有限公司 Projection method and electronic equipment
CN104052977A (en) * 2014-06-12 2014-09-17 海信集团有限公司 Interactive image projection method and device
CN104698727A (en) * 2015-03-24 2015-06-10 海信集团有限公司 Human body protection method and device for laser projection device and laser projection device
JP2018025809A (en) * 2017-09-13 2018-02-15 カシオ計算機株式会社 Light irradiation control device and program
KR20200034045A (en) * 2018-09-20 2020-03-31 주식회사 에스지엠 Screen sports system showing achievement images
KR102106708B1 (en) * 2018-09-20 2020-05-06 주식회사 에스지엠 Screen sports system showing achievement images
WO2020253387A1 (en) * 2019-06-20 2020-12-24 青岛海信激光显示股份有限公司 Projection method and device
US11829057B2 (en) 2019-06-20 2023-11-28 Hisense Laser Display Co., Ltd Projection method and projection apparatus

Similar Documents

Publication Publication Date Title
US9016872B2 (en) Projector and method for projecting image from projector
US7839543B2 (en) Document imager, document stillness detection method, and computer program product
US9470966B2 (en) Image projection apparatus and presentation system
US9794536B2 (en) Projector, and method of controlling projector
US8434879B2 (en) Control device and projection-type video-image display device
KR101767853B1 (en) Information processing device, image projecting system, and computer program
US9804483B2 (en) Projector and method of controlling projector
JP2012181264A (en) Projection device, projection method, and program
JP2015043066A (en) Image projection device
US20110279738A1 (en) Control device and projection video display device
JP2019176356A (en) Projector, and method for controlling projector
JP2016092779A (en) Image projection system, information processing apparatus, information processing method, and program
US9524696B2 (en) Image projection device
CN107872659B (en) Projection arrangement and projecting method
JP3901185B2 (en) Projection apparatus, projection image capturing method, and program
US10037734B2 (en) Display apparatus and control method
JP2015060162A (en) Projection apparatus, projection method, and projection processing program
CN107018393B (en) Projector and control method of projector
JP2015079214A (en) Projection screen and image projection system
US12096161B2 (en) Projection system, and control method for projection system
US20240244167A1 (en) Color adjustment method, projector, and non-transitory computer-readable storage medium storing program
JP5445482B2 (en) Photographed image output device, photographing control method and program for the device
JP5168906B2 (en) Projection system, projection apparatus, optical point apparatus, projection control method, point light control method, and program
JP2015184972A (en) Motion detection device, image display device, and motion detection method
JP2021034891A (en) Control device and control method used for capturing projected image

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513