[go: up one dir, main page]

JP6903348B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6903348B2
JP6903348B2 JP2019127698A JP2019127698A JP6903348B2 JP 6903348 B2 JP6903348 B2 JP 6903348B2 JP 2019127698 A JP2019127698 A JP 2019127698A JP 2019127698 A JP2019127698 A JP 2019127698A JP 6903348 B2 JP6903348 B2 JP 6903348B2
Authority
JP
Japan
Prior art keywords
image
enhanced
brightness
smoothed
oblique light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019127698A
Other languages
Japanese (ja)
Other versions
JP2021012641A (en
Inventor
英之 上椙
英之 上椙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institutes for Cultural Heritage
Original Assignee
National Institutes for Cultural Heritage
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institutes for Cultural Heritage filed Critical National Institutes for Cultural Heritage
Priority to JP2019127698A priority Critical patent/JP6903348B2/en
Publication of JP2021012641A publication Critical patent/JP2021012641A/en
Priority to JP2021073609A priority patent/JP6957068B2/en
Application granted granted Critical
Publication of JP6903348B2 publication Critical patent/JP6903348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物の拓本画像を生成するための画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program for generating a rubbing image of an object.

拓本は、墨と紙を用いて構造物の凹凸を写し取る古典的な技術である。石碑等の文化財を調査する現場において記録結果を確認することができ、再調査のリスクが少ないこと、実寸に近い画像を取得することができることなどから、拓本は文化財の調査においてこれまで広く利用されている。 Takumoto is a classic technique that uses ink and paper to copy the unevenness of a structure. Takumoto has been widely used in the investigation of cultural properties because the recorded results can be confirmed at the site of investigating cultural properties such as stone monuments, the risk of re-investigation is low, and images close to the actual size can be obtained. It's being used.

一方、拓本の取得には習熟が必要であること、一件の対象物につき約15分から30分程度の時間を要すること、対象物への接触が前提であるため、崩壊や汚損が懸念される資料や水気を嫌う木版画等には適用できないことなど、拓本は多くの欠点も抱えている。そこで近年では、従来の拓本に代わる種々の技術が提案されている。 On the other hand, acquisition of a rubbing book requires proficiency, it takes about 15 to 30 minutes for each object, and contact with the object is a prerequisite, so there is concern about collapse and stains. Takumoto also has many drawbacks, such as not being applicable to materials and woodblock prints that dislike water. Therefore, in recent years, various techniques have been proposed to replace the conventional rubbing.

例えば、3DスキャナやSfM/MVS(Structure from Motion/Multi-view stereo)技術を用いて、文化財等の対象物に接触することなく三次元形状を記録する方法が提案されている。特許文献1には、三次元計測器により石器等の立体的造形物を計測して、立体的造形物の実測図を作成する方法および装置が開示されている。 For example, a method of recording a three-dimensional shape without contacting an object such as a cultural property has been proposed by using a 3D scanner or SfM / MVS (Structure from Motion / Multi-view stereo) technology. Patent Document 1 discloses a method and an apparatus for measuring a three-dimensional model such as a stone tool with a three-dimensional measuring instrument and creating an actual measurement drawing of the three-dimensional model.

特開2005−251043号公報Japanese Unexamined Patent Publication No. 2005-251043

しかしながら、3DスキャナやSfM/MVS技術を用いて三次元形状を記録する方法は、次のような欠点を抱えている。例えば、対象物の形状データの取得および解析には高価な撮像装置や高性能の計算機が必要とされる。対象物に応じてSfM/MVSの解析パラメータを調整するためには、ユーザに専門的な知識が必要とされる。計算機による解析処理にも比較的長い時間(例えば、現状では約6時間)を要しており、石碑等の文化財を調査する現場において解析結果を確認することは困難である。 However, the method of recording a three-dimensional shape using a 3D scanner or SfM / MVS technology has the following drawbacks. For example, an expensive imaging device and a high-performance computer are required to acquire and analyze shape data of an object. In order to adjust the analysis parameters of SfM / MVS according to the object, the user needs specialized knowledge. It takes a relatively long time (for example, about 6 hours at present) for the analysis process by a computer, and it is difficult to confirm the analysis result at the site of investigating cultural properties such as stone monuments.

記録した三次元形状のデータを確認した結果、データに欠損がある場合や解析結果が不鮮明である場合には、調査現場において再調査が必要になる。しかしながら、例えば海外の遺跡での調査や膨大な数の悉皆調査では、現場において調査を行う機会自体が限られている。よって、3DスキャナやSfM/MVS技術を用いて三次元形状を記録する方法や特許文献1の技術は、調査現場において石碑等の拓本を取得するフィールドワークには適していない。対象物の表面に形成されている凹凸の画像(以下、拓本画像と呼ぶ)を迅速かつ簡便に取得する手法が求められている。 As a result of checking the recorded three-dimensional shape data, if the data is missing or the analysis result is unclear, a re-survey is required at the survey site. However, for example, in the case of surveys at overseas archaeological sites or a huge number of surveys, the opportunities for conducting surveys on-site are limited. Therefore, the method of recording a three-dimensional shape using a 3D scanner or SfM / MVS technology and the technology of Patent Document 1 are not suitable for fieldwork for acquiring a rubbing book such as a stone monument at a research site. There is a demand for a method for quickly and easily acquiring an image of unevenness formed on the surface of an object (hereinafter referred to as a rubbing image).

本発明の目的は、迅速かつ簡便に対象物の拓本画像を生成するための画像処理装置を提供することにある。 An object of the present invention is to provide an image processing device for quickly and easily generating a rubbing image of an object.

上記目的を達成するための本発明は、例えば以下に示す態様を含む。
(項1)
対象物の表面に形成された凹凸を含む背景画像を取得する背景画像取得部と、
前記表面の少なくとも一部に斜めの光が照射された斜光画像を取得する斜光画像取得部と、
前記斜光画像および前記背景画像に基づいて、前記光が照射されたことによる輝度変化を表す輝度変化画像を生成する輝度変化画像生成部と、
前記輝度変化画像に平滑化処理を適用して、平滑化画像を生成する平滑化画像生成部と、
前記平滑化画像および前記輝度変化画像に基づいて、前記凹凸が強調された強調画像を生成する強調画像生成部と、
を備える、画像処理装置。
(項2)
前記平滑化画像生成部は、前記平滑化処理として、平滑化フィルタ、メディアンフィルタ、およびガウシアンフィルタのいずれか一つまたはこれらの組み合わせを、前記輝度変化画像に適用して前記平滑化画像を生成する、項1に記載の画像処理装置。
(項3)
前記輝度変化画像生成部は、前記斜光画像と前記背景画像との差分により、前記輝度変化画像を生成する、項1または2に記載の画像処理装置。
(項4)
前記強調画像生成部は、前記平滑化画像と前記輝度変化画像との差分により、前記強調画像を生成する、項3に記載の画像処理装置。
(項5)
前記強調画像生成部は、
前記平滑化画像と、前記輝度変化画像の前記平滑化画像よりも輝度が低い部分との差分により低輝度強調画像を生成し、
前記輝度変化画像の前記平滑化画像よりも輝度が高い部分と、前記平滑化画像との差分により高輝度強調画像を生成し、
前記低輝度強調画像および前記高輝度強調画像を合成して、前記強調画像を生成する、項4に記載の画像処理装置。
(項6)
前記斜光画像取得部は、前記光の照射領域が異なる複数の前記斜光画像を取得し、
前記照射領域が異なる前記斜光画像のそれぞれについて作成された複数の前記強調画像を合成する強調画像合成部をさらに備える、項1から5のいずれかに記載の画像処理装置。
(項7)
前記強調画像合成部は、前記強調画像内の前記凹凸の輝度に基づいて、複数の前記強調画像を比較明合成する、項6に記載の画像処理装置。
(項8)
対象物の表面に形成された凹凸を含む背景画像を取得する背景画像取得ステップと、
前記表面の少なくとも一部に斜めの光が照射された斜光画像を取得する斜光画像取得ステップと、
前記斜光画像および前記背景画像に基づいて、前記光が照射されたことによる輝度変化を表す輝度変化画像を生成する輝度変化画像生成ステップと、
前記輝度変化画像に平滑化処理を適用して、平滑化画像を生成する平滑化画像生成ステップと、
前記平滑化画像および前記輝度変化画像に基づいて、前記凹凸が強調された強調画像を生成する強調画像生成ステップと、
を含む、画像処理方法。
(項9)
項1から7に記載の画像処理装置の各部として、コンピュータを機能させるためのプログラム。
The present invention for achieving the above object includes, for example, the following aspects.
(Item 1)
A background image acquisition unit that acquires a background image including irregularities formed on the surface of an object,
An oblique light image acquisition unit that acquires an oblique light image in which at least a part of the surface is irradiated with oblique light,
A luminance change image generation unit that generates a luminance change image representing a luminance change due to irradiation of the light based on the oblique light image and the background image.
A smoothed image generation unit that generates a smoothed image by applying a smoothing process to the luminance change image,
An enhanced image generation unit that generates an enhanced image in which the unevenness is emphasized based on the smoothed image and the brightness change image.
An image processing device.
(Item 2)
As the smoothing process, the smoothed image generation unit applies any one or a combination of a smoothing filter, a median filter, and a Gaussian filter to the brightness change image to generate the smoothed image. , Item 1. The image processing apparatus according to Item 1.
(Item 3)
Item 2. The image processing apparatus according to Item 1 or 2, wherein the brightness change image generation unit generates the brightness change image by the difference between the oblique light image and the background image.
(Item 4)
Item 3. The image processing apparatus according to Item 3, wherein the enhanced image generation unit generates the enhanced image by the difference between the smoothed image and the brightness change image.
(Item 5)
The emphasized image generation unit
A low-luminance enhanced image is generated by the difference between the smoothed image and a portion of the brightness-changing image whose brightness is lower than that of the smoothed image.
A high-luminance enhanced image is generated by the difference between the portion of the brightness-changing image having a higher brightness than the smoothed image and the smoothed image.
Item 4. The image processing apparatus according to Item 4, wherein the low-luminance-enhanced image and the high-luminance-enhanced image are combined to generate the enhanced image.
(Item 6)
The oblique light image acquisition unit acquires a plurality of the oblique light images having different light irradiation regions, and obtains the oblique light images.
Item 2. The image processing apparatus according to any one of Items 1 to 5, further comprising a emphasized image synthesizing unit for synthesizing a plurality of the enhanced images created for each of the oblique light images having different irradiation regions.
(Item 7)
Item 6. The image processing apparatus according to Item 6, wherein the enhanced image synthesizing unit comparatively brightly synthesizes a plurality of the enhanced images based on the brightness of the unevenness in the enhanced image.
(Item 8)
A background image acquisition step for acquiring a background image including irregularities formed on the surface of an object, and
An oblique light image acquisition step of acquiring an oblique light image in which at least a part of the surface is irradiated with oblique light, and
A brightness change image generation step of generating a brightness change image representing a brightness change due to irradiation of the light based on the oblique light image and the background image.
A smoothing image generation step of applying a smoothing process to the brightness change image to generate a smoothed image,
A highlight image generation step of generating a emphasized image in which the unevenness is emphasized based on the smoothed image and the brightness change image, and
Image processing methods, including.
(Item 9)
A program for operating a computer as each part of the image processing apparatus according to items 1 to 7.

本発明によると、迅速かつ簡便に対象物の拓本画像を生成するための画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing device for quickly and easily generating a rubbing image of an object.

本発明の一実施形態に係る画像処理装置の使用態様を説明するための図である。It is a figure for demonstrating the usage mode of the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置を用いて画像処理を行う手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure which performs image processing using the image processing apparatus which concerns on one Embodiment of this invention. 取得した背景画像の一例である。This is an example of the acquired background image. 取得した斜光画像の一例である。This is an example of the acquired oblique light image. 生成した輝度変化画像の一例である。This is an example of the generated luminance change image. 生成した平滑化画像の一例である。This is an example of the generated smoothed image. 輝度変化画像および平滑化画像の或る横方向の位置に沿った輝度値の分布を示すグラフである。It is a graph which shows the distribution of the luminance value along a certain lateral position of the luminance change image and the smoothed image. 生成した強調画像の一例である。This is an example of the generated emphasized image. 強調画像を説明するための図である。It is a figure for demonstrating the emphasized image. 画像間での字形の変化を比較するための図である。It is a figure for comparing the change of the character shape between images. 合成された拓本画像の一例である。This is an example of a composited rubbing image. 凹凸の表面に光源から斜めの光が照射されている状態を示す模式図である。It is a schematic diagram which shows the state which the surface of an uneven surface is irradiated with oblique light from a light source. 他の実施形態に係る画像処理方法において生成する低輝度強調画像および高輝度強調画像の二種類の強調画像を説明するための図である。It is a figure for demonstrating two kinds of enhanced images, a low-luminance enhanced image and a high-luminance enhanced image, which are generated in the image processing method according to another embodiment. 第1の実施例において本発明の方法と従来の他の手法とを比較するための図である。It is a figure for comparing the method of this invention with other conventional methods in 1st Example. 第2の実施例に係る対象物の画像および拓本画像である。It is an image of an object and a rubbing image according to the second embodiment. 第3の実施例に係る対象物の画像および拓本画像である。It is an image of an object and a rubbing image according to a third embodiment. 第4の実施例に係る対象物の画像および拓本画像である。It is an image of an object and a rubbing image according to a fourth embodiment. 第5の実施例に係る拓本画像である。It is a rubbing image which concerns on the 5th Example.

以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。
[発明の概要]
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and drawings, the same reference numerals indicate the same or similar components, and thus duplicate description of the same or similar components will be omitted.
[Outline of Invention]

図1は、本発明の一実施形態に係る画像処理装置の使用態様を説明するための図である。 FIG. 1 is a diagram for explaining a usage mode of the image processing apparatus according to the embodiment of the present invention.

一実施形態に係る画像処理装置1は、対象物9の表面に形成されている凹凸8の画像(拓本画像)を生成する装置である。対象物9の表面は外部撮像装置2を用いて撮像され、撮像画像は、例えばBluetooth(登録商標)等の無線接続または有線接続により、画像処理装置1に転送される。 The image processing device 1 according to one embodiment is a device that generates an image (rubbed image) of unevenness 8 formed on the surface of an object 9. The surface of the object 9 is imaged by using the external image pickup device 2, and the captured image is transferred to the image processing device 1 by a wireless connection such as Bluetooth (registered trademark) or a wired connection.

画像処理装置1は、背景画像および斜光画像の2種類の撮像画像を用いて、拓本画像として、凹凸8が強調された強調画像を生成する。生成した拓本画像は、例えば画像処理装置1の表示部15に表示される。背景画像は、対象物9の表面に形成された凹凸8を含む画像である。斜光画像は、対象物9の表面の少なくとも一部に斜めの光が照射された画像である。斜めの光は光源3を用いて対象物9の表面に部分的に照射される。本実施形態では、対象物9の表面への斜めの光の照射は、画像処理装置1のユーザにより行われる。 The image processing device 1 uses two types of captured images, a background image and an oblique light image, to generate an enhanced image in which the unevenness 8 is emphasized as a rubbing image. The generated rubbing image is displayed, for example, on the display unit 15 of the image processing device 1. The background image is an image including the unevenness 8 formed on the surface of the object 9. The oblique light image is an image in which at least a part of the surface of the object 9 is irradiated with oblique light. The oblique light is partially applied to the surface of the object 9 by using the light source 3. In the present embodiment, the surface of the object 9 is irradiated with oblique light by the user of the image processing apparatus 1.

対象物9は、好ましくは天然素材による構造物であり、凹凸8は構造物に形成されている文字または模様である。本実施形態では、対象物9は石碑であり、画像処理装置1は、石碑9に彫刻されている文字の拓本画像として強調画像を生成する。 The object 9 is preferably a structure made of a natural material, and the unevenness 8 is a character or pattern formed on the structure. In the present embodiment, the object 9 is a stone monument, and the image processing device 1 generates an emphasized image as a rubbing image of the characters engraved on the stone monument 9.

外部撮像装置2は、例えばCMOSイメージセンサまたはCCDイメージセンサ等の撮像素子を備える例えば市販のデジタルカメラ等の装置で構成されている。本実施形態では、外部撮像装置2には、適切な焦点距離を有する光学レンズ4が装着され、外部撮像装置2は、三脚5により撮像位置が固定されて対象物9の全体を撮像する。他の実施形態では、動画を撮影するビデオカメラ等で外部撮像装置2を構成し、撮影した動画から対象物9の表面を含む静止画像を切り出して使用してもよい。 The external image pickup device 2 is composed of a device such as a commercially available digital camera including an image pickup element such as a CMOS image sensor or a CCD image sensor. In the present embodiment, the external imaging device 2 is equipped with an optical lens 4 having an appropriate focal length, and the external imaging device 2 images the entire object 9 with the imaging position fixed by the tripod 5. In another embodiment, the external imaging device 2 may be configured by a video camera or the like that captures a moving image, and a still image including the surface of the object 9 may be cut out from the captured moving image and used.

光源3には、例えば市販のLED照明等の照明器具を用いることができる。好ましくは、光源3の波長は可視光域の波長である。光源3の波長は、外部撮像装置2の受光特性に応じて種々の波長を用いることができる。
[装置の構成]
As the light source 3, for example, a commercially available lighting fixture such as LED lighting can be used. Preferably, the wavelength of the light source 3 is a wavelength in the visible light region. As the wavelength of the light source 3, various wavelengths can be used depending on the light receiving characteristics of the external imaging device 2.
[Device configuration]

図2は、本発明の一実施形態に係る画像処理装置の機能を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining the function of the image processing apparatus according to the embodiment of the present invention.

一実施形態に係る画像処理装置1は、データ処理部12と、補助記憶装置13と、入力部14と、表示部15と、通信インタフェース部(通信I/F部)16とを備えている。本実施形態では、タブレット端末またはスマートフォン(以下、タブレット端末等と記載する)を用いて画像処理装置1を構成する。他の実施形態では、画像処理装置1は、外部撮像装置2に代えて撮像部11を備えることができる。撮像部11には、例えばタブレット端末等に予め設けられているCMOSイメージセンサ等の撮像素子を用いることができる。さらに他の実施形態では、画像処理装置1には例えばノートブックPC等の汎用コンピュータを用いることができる。 The image processing device 1 according to one embodiment includes a data processing unit 12, an auxiliary storage device 13, an input unit 14, a display unit 15, and a communication interface unit (communication I / F unit) 16. In the present embodiment, the image processing device 1 is configured by using a tablet terminal or a smartphone (hereinafter, referred to as a tablet terminal or the like). In another embodiment, the image processing device 1 can include an image pickup unit 11 instead of the external image pickup device 2. For the image pickup unit 11, for example, an image pickup element such as a CMOS image sensor provided in advance in a tablet terminal or the like can be used. In still another embodiment, a general-purpose computer such as a notebook PC can be used for the image processing device 1.

本実施形態では、画像処理装置1は、ハードウェアの構成として、補助記憶装置13、入力部14、表示部15および通信I/F部16を備えている。図示していないが、画像処理装置1は、ハードウェアの構成として、データ処理を行うCPU等のプロセッサと、プロセッサがデータ処理の作業領域に使用するメモリとをさらに備えている。 In the present embodiment, the image processing device 1 includes an auxiliary storage device 13, an input unit 14, a display unit 15, and a communication I / F unit 16 as hardware configurations. Although not shown, the image processing device 1 further includes a processor such as a CPU that performs data processing and a memory that the processor uses for a work area of data processing as a hardware configuration.

補助記憶装置13は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、フラッシュメモリやeMMC(embedded Multi Media Card)、SSD(Solid State Drive)等によって構成される。本実施形態では、補助記憶装置13には、背景画像31、斜光画像32、輝度変化画像33、平滑化画像34、強調画像35、および画像処理プログラムPが記憶される。 The auxiliary storage device 13 is a non-volatile storage device that stores an operating system (OS), various control programs, data generated by the programs, and the like. For example, a flash memory, an eMMC (embedded Multi Media Card), or an SSD. (Solid State Drive) etc. In the present embodiment, the auxiliary storage device 13 stores the background image 31, the oblique light image 32, the brightness change image 33, the smoothed image 34, the enhanced image 35, and the image processing program P.

背景画像31は、対象物9の表面に形成された凹凸8を含む画像である。斜光画像32は、対象物9の表面の少なくとも一部に斜めの光を照射した時の画像である。輝度変化画像33は、対象物9の表面の少なくとも一部に斜めの光が照射されたことによる輝度変化を表す画像である。輝度変化画像33は、斜光画像32および背景画像31に基づいて生成される。平滑化画像34は、輝度変化画像33に平滑化処理を適用した画像である。強調画像35は、対象物9の表面に形成された凹凸8が強調された画像である。強調画像35は、平滑化画像34および輝度変化画像33に基づいて生成される。 The background image 31 is an image including the unevenness 8 formed on the surface of the object 9. The oblique light image 32 is an image when at least a part of the surface of the object 9 is irradiated with oblique light. The brightness change image 33 is an image showing a brightness change due to irradiation of at least a part of the surface of the object 9 with oblique light. The brightness change image 33 is generated based on the oblique light image 32 and the background image 31. The smoothed image 34 is an image obtained by applying a smoothing process to the luminance change image 33. The emphasized image 35 is an image in which the unevenness 8 formed on the surface of the object 9 is emphasized. The enhanced image 35 is generated based on the smoothed image 34 and the luminance change image 33.

本実施形態では、背景画像31および斜光画像32は、例えば8ビット(輝度値が0〜255の合計256階調)のグレースケール画像として記憶される。輝度変化画像33、平滑化画像34、および強調画像35も8ビットのグレースケール画像として生成され、拓本画像も8ビットのグレースケール画像として生成される。 In the present embodiment, the background image 31 and the oblique light image 32 are stored as, for example, an 8-bit (total of 256 gradations having a brightness value of 0 to 255) grayscale image. The brightness change image 33, the smoothed image 34, and the enhanced image 35 are also generated as an 8-bit grayscale image, and the Takumoto image is also generated as an 8-bit grayscale image.

画像処理プログラムPは、ソフトウェアによる機能ブロックである後述するデータ処理部12内の各部21〜26を実現するためのコンピュータプログラムである。画像処理プログラムPは、通信I/F部16により接続されるインターネット等のネットワークを介して画像処理装置1にインストールしてもよい。あるいは、画像処理プログラムPを記録したメモリカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を画像処理装置1に読み取らせることにより、画像処理プログラムPを画像処理装置1にインストールしてもよい。画像処理プログラムPは、例えばタブレット端末等のアプリケーションとすることができる。 The image processing program P is a computer program for realizing each unit 21 to 26 in the data processing unit 12 described later, which is a functional block by software. The image processing program P may be installed in the image processing device 1 via a network such as the Internet connected by the communication I / F unit 16. Alternatively, the image processing program P is installed in the image processing device 1 by causing the image processing device 1 to read a computer-readable non-temporary tangible recording medium such as a memory card on which the image processing program P is recorded. May be good. The image processing program P can be an application such as a tablet terminal.

入力部14は、例えばマウスやキーボード等で構成することができ、表示部15は、例えば液晶ディスプレイおよび有機ELディスプレイ等で構成することができる。本実施形態では、入力部14および表示部15はタッチパネルとして一体化されている。 The input unit 14 can be composed of, for example, a mouse or a keyboard, and the display unit 15 can be composed of, for example, a liquid crystal display, an organic EL display, or the like. In the present embodiment, the input unit 14 and the display unit 15 are integrated as a touch panel.

通信I/F部16は、有線または無線のネットワークを介して、外部撮像装置2等の外部機器とのデータの送受信を行う。通信I/F部16は、Bluetooth(登録商標)、Wi-Fi(登録商標)、およびZigBee(登録商標)等の種々の無線接続または有線接続であってもよい。他の実施形態において、外部撮像装置2に代えて撮像部11を用いる場合、通信I/F部16は省略することもできる。 The communication I / F unit 16 transmits / receives data to / from an external device such as an external image pickup device 2 via a wired or wireless network. The communication I / F unit 16 may be various wireless or wired connections such as Bluetooth®, Wi-Fi®, and ZigBee®. In another embodiment, when the imaging unit 11 is used instead of the external imaging device 2, the communication I / F unit 16 may be omitted.

本実施形態では、画像処理装置1は、ソフトウェアの構成としてデータ処理部12を備えている。データ処理部12は、プロセッサが画像処理プログラムPを実行することにより実現される機能ブロックである。 In the present embodiment, the image processing device 1 includes a data processing unit 12 as a software configuration. The data processing unit 12 is a functional block realized by the processor executing the image processing program P.

背景画像取得部21は、対象物9の表面に形成された凹凸8を含む背景画像31を取得する。取得した背景画像31は補助記憶装置13に記憶される。本実施形態では、背景画像31は外部撮像装置2を介して取得する。取得した背景画像31が例えばRGB24ビットのフルカラーでありグレースケール画像ではない場合、背景画像取得部21は、取得した背景画像31を例えば8ビットのグレースケール画像に変換して記憶することができる。 The background image acquisition unit 21 acquires the background image 31 including the unevenness 8 formed on the surface of the object 9. The acquired background image 31 is stored in the auxiliary storage device 13. In the present embodiment, the background image 31 is acquired via the external image pickup device 2. When the acquired background image 31 is, for example, RGB 24-bit full-color and not a grayscale image, the background image acquisition unit 21 can convert the acquired background image 31 into, for example, an 8-bit grayscale image and store it.

斜光画像取得部22は、対象物9の表面の少なくとも一部に斜めの光が照射された斜光画像32を取得する。取得した斜光画像32は補助記憶装置13に記憶される。本実施形態では、斜光画像32は外部撮像装置2を介して取得する。取得した斜光画像32が例えばRGB24ビットのフルカラーでありグレースケール画像ではない場合、斜光画像取得部22は、取得した斜光画像32を例えば8ビットのグレースケール画像に変換して記憶することができる。斜めの光は光源3を用いて対象物9の表面に部分的に照射されており、斜光画像取得部22は、光源3により対象物9の表面に照射される光の領域に応じて、光の照射領域が異なる複数の斜光画像32を取得する。 The oblique light image acquisition unit 22 acquires an oblique light image 32 in which at least a part of the surface of the object 9 is irradiated with oblique light. The acquired oblique light image 32 is stored in the auxiliary storage device 13. In the present embodiment, the oblique light image 32 is acquired via the external image pickup device 2. When the acquired oblique light image 32 is, for example, RGB 24-bit full-color and not a grayscale image, the oblique light image acquisition unit 22 can convert the acquired oblique light image 32 into, for example, an 8-bit grayscale image and store it. The oblique light is partially irradiated on the surface of the object 9 by using the light source 3, and the oblique light image acquisition unit 22 receives light according to the region of light irradiated on the surface of the object 9 by the light source 3. A plurality of oblique light images 32 having different irradiation regions are acquired.

輝度変化画像生成部23は、斜光画像32および背景画像31に基づいて、光が照射されたことによる輝度変化を表す輝度変化画像33を生成する。生成した輝度変化画像33は補助記憶装置13に記憶される。本実施形態では、輝度変化画像生成部23は、斜光画像32と背景画像31との差分により、輝度変化画像33を生成する。 The brightness change image generation unit 23 generates a brightness change image 33 showing a change in brightness due to irradiation of light based on the oblique light image 32 and the background image 31. The generated luminance change image 33 is stored in the auxiliary storage device 13. In the present embodiment, the brightness change image generation unit 23 generates the brightness change image 33 by the difference between the oblique light image 32 and the background image 31.

平滑化画像生成部24は、輝度変化画像33に平滑化処理を適用して、平滑化画像34を生成する。生成した平滑化画像34は補助記憶装置13に記憶される。平滑化画像生成部24は、平滑化処理として、平滑化フィルタ、メディアンフィルタ、およびガウシアンフィルタのいずれか一つまたはこれらの組み合わせを、輝度変化画像33に適用して平滑化画像34を生成する。これら3つのフィルタはいずれもローパスフィルタとして機能する。本実施形態では、平滑化画像生成部24は、輝度変化画像33に平滑化フィルタを適用して平滑化画像34を生成する。 The smoothed image generation unit 24 applies a smoothing process to the luminance change image 33 to generate a smoothed image 34. The generated smoothed image 34 is stored in the auxiliary storage device 13. As a smoothing process, the smoothed image generation unit 24 applies any one or a combination of a smoothing filter, a median filter, and a Gaussian filter to the brightness change image 33 to generate a smoothed image 34. All three filters function as low-pass filters. In the present embodiment, the smoothed image generation unit 24 applies a smoothing filter to the luminance change image 33 to generate a smoothed image 34.

強調画像生成部25は、平滑化画像34および輝度変化画像33に基づいて、凹凸が強調された強調画像35を生成する。生成した強調画像35は補助記憶装置13に記憶される。本実施形態では、強調画像生成部25は、平滑化画像34と輝度変化画像33との差分により、強調画像35を生成する。 The enhanced image generation unit 25 generates an enhanced image 35 in which unevenness is emphasized, based on the smoothed image 34 and the brightness change image 33. The generated emphasized image 35 is stored in the auxiliary storage device 13. In the present embodiment, the enhanced image generation unit 25 generates the enhanced image 35 by the difference between the smoothed image 34 and the brightness change image 33.

強調画像合成部26は、照射領域が異なる斜光画像32のそれぞれについて作成された複数の強調画像35を合成する。本実施形態では、強調画像合成部26は、強調画像35内の凹凸の輝度に基づいて、複数の強調画像35を比較明合成する。強調画像合成部26は、合成した強調画像を、拓本画像として例えば表示部15に表示する。強調画像合成部26は、合成した強調画像を例えば補助記憶装置13に記憶してもよい。
[処理手順]
The enhanced image synthesizing unit 26 synthesizes a plurality of enhanced images 35 created for each of the oblique light images 32 having different irradiation regions. In the present embodiment, the enhanced image synthesizing unit 26 comparatively brightly synthesizes a plurality of enhanced images 35 based on the brightness of the unevenness in the enhanced image 35. The emphasized image synthesizing unit 26 displays the combined emphasized image as a Takumoto image on, for example, a display unit 15. The enhanced image synthesizing unit 26 may store the synthesized enhanced image in, for example, an auxiliary storage device 13.
[Processing procedure]

図3は、本発明の一実施形態に係る画像処理装置を用いて画像処理を行う手順を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining a procedure for performing image processing using the image processing apparatus according to the embodiment of the present invention.

ステップS1(背景画像取得ステップ)において、対象物9の表面に形成された凹凸8を含む背景画像31を取得する。ここで、対象物9が例えば屋外に存在する場合には、自然光が対象物9全体に概ね均等にあたる状態となっている。取得した背景画像31の一例を図4に示す。本実施形態では、背景画像31は最初に一度だけ取得する。他の実施形態では、背景画像31は、斜光画像32を取得する度に毎回取得して、常に最新のものを上書きして利用してもよい。 In step S1 (background image acquisition step), the background image 31 including the unevenness 8 formed on the surface of the object 9 is acquired. Here, when the object 9 exists outdoors, for example, the natural light is substantially evenly applied to the entire object 9. An example of the acquired background image 31 is shown in FIG. In the present embodiment, the background image 31 is acquired only once at the beginning. In another embodiment, the background image 31 may be acquired each time the oblique light image 32 is acquired, and the latest one may be overwritten and used at all times.

ステップS2において、対象物9の表面の少なくとも一部に斜めの光を照射する。本実施形態では、対象物9の表面への斜めの光の照射は、画像処理装置1のユーザにより行われる。ユーザは、光源3を用いて対象物9の表面に斜めの光を部分的に照射する。対象物9の表面に対する照射光の角度は、曲率半径が大きい略平面の表面の場合、好ましくは約5°〜20°の範囲である。ここで、照射光の角度とは、対象物9の表面と光源3から照射される照射光の光軸とがなす角度である。照射光の角度が増大し90°に近づくにつれ、照射光は斜光から正面光となる。 In step S2, at least a part of the surface of the object 9 is irradiated with oblique light. In the present embodiment, the surface of the object 9 is irradiated with oblique light by the user of the image processing apparatus 1. The user uses the light source 3 to partially irradiate the surface of the object 9 with oblique light. The angle of the irradiation light with respect to the surface of the object 9 is preferably in the range of about 5 ° to 20 ° in the case of a substantially flat surface having a large radius of curvature. Here, the angle of the irradiation light is an angle formed by the surface of the object 9 and the optical axis of the irradiation light emitted from the light source 3. As the angle of the irradiation light increases and approaches 90 °, the irradiation light changes from oblique light to front light.

なお、対象物9の表面に対する照射光の角度は常に一定である必要はない。対象物9の表面上の同じ照射領域であっても、異なる照射角度で対象物9の表面に斜めの光を照射することができ、それにより、後述するステップS3において、対象物9の表面上の同じ照射領域であっても、異なる斜光画像32を取得することができる。 The angle of the irradiation light with respect to the surface of the object 9 does not have to be always constant. Even in the same irradiation region on the surface of the object 9, the surface of the object 9 can be irradiated with oblique light at different irradiation angles, whereby in step S3 described later, on the surface of the object 9. Even in the same irradiation region of, different oblique light images 32 can be acquired.

ステップS3(斜光画像取得ステップ)において、対象物9の表面の少なくとも一部に斜めの光が照射された斜光画像32を取得する。取得した斜光画像32の一例を図5に示す。斜めの光が照射されることにより、斜光画像32は背景画像31と比較して全体的に輝度値が上昇していることがわかる。例示する手順の態様では、光源3は対象物9の右側(図5の上側)から斜めの光を照射している。斜めの光は光源3を用いて対象物9の表面に部分的に照射されており、光源3により対象物9の表面に照射される光の領域に応じて、光の照射領域が異なる斜光画像32を取得することができる。 In step S3 (oblique image acquisition step), an oblique light image 32 in which at least a part of the surface of the object 9 is irradiated with oblique light is acquired. An example of the acquired oblique light image 32 is shown in FIG. It can be seen that the luminance value of the oblique light image 32 is generally increased as compared with the background image 31 by being irradiated with the oblique light. In the embodiment of the illustrated procedure, the light source 3 irradiates oblique light from the right side (upper side of FIG. 5) of the object 9. Diagonal light is partially illuminated on the surface of the object 9 by using the light source 3, and the oblique light image in which the light irradiation region differs depending on the region of light irradiated on the surface of the object 9 by the light source 3. 32 can be obtained.

ステップS4(輝度変化画像生成ステップ)において、斜光画像32および背景画像31に基づいて、光が照射されたことによる輝度変化を表す輝度変化画像33を生成する。生成した輝度変化画像33の一例を図6に示す。 In step S4 (luminance change image generation step), a luminance change image 33 representing a luminance change due to irradiation with light is generated based on the oblique light image 32 and the background image 31. FIG. 6 shows an example of the generated luminance change image 33.

本実施形態では、斜光画像32と背景画像31との差分により、輝度変化画像33を生成する。画像の差分とは、画素毎の輝度値(例えば8ビットの場合は0〜255の範囲の値)の差分であり、斜光画像32および背景画像31で対応する位置の画素について、例えば斜光画像32の輝度値から背景画像31の輝度値を減算することにより算出する。これにより、輝度変化画像33には、斜めに光が照射されたことにより明るくなった輝度値の数値の変化が抽出される。 In the present embodiment, the brightness change image 33 is generated by the difference between the oblique light image 32 and the background image 31. The image difference is a difference in the brightness value for each pixel (for example, a value in the range of 0 to 255 in the case of 8 bits), and for the pixel at the corresponding position in the oblique light image 32 and the background image 31, for example, the oblique light image 32. It is calculated by subtracting the brightness value of the background image 31 from the brightness value of. As a result, the change in the numerical value of the brightness value brightened by the oblique light irradiation is extracted from the brightness change image 33.

ステップS5(平滑化画像生成ステップ)において、輝度変化画像33に平滑化処理を適用して、平滑化画像34を生成する。生成した平滑化画像34の一例を図7に示す。本実施形態では、輝度変化画像33に平滑化フィルタを適用して平滑化画像34を生成する。平滑化画像34は、光源3により対象物9の表面に照射された斜めの光による照射領域の形状を抽出した画像である。 In step S5 (smoothing image generation step), a smoothing process is applied to the luminance change image 33 to generate a smoothed image 34. An example of the generated smoothed image 34 is shown in FIG. In the present embodiment, a smoothing filter is applied to the brightness change image 33 to generate a smoothed image 34. The smoothed image 34 is an image obtained by extracting the shape of the irradiated region by the oblique light irradiated on the surface of the object 9 by the light source 3.

図8を参照して、平滑化画像34について説明する。図8は、画像の或る横方向の位置に沿った輝度値の分布を示すグラフである。(A)には輝度変化画像33の輝度値の分布を示すグラフ33gを示し、(B)には平滑化画像34の輝度値の分布を示すグラフ34gを示す。なお、(A)には比較用にグラフ33gおよびグラフ34gの両方を示している。 The smoothed image 34 will be described with reference to FIG. FIG. 8 is a graph showing the distribution of luminance values along a certain lateral position of the image. (A) shows a graph 33g showing the distribution of the luminance values of the luminance change image 33, and (B) shows a graph 34g showing the distribution of the luminance values of the smoothed image 34. In addition, in (A), both the graph 33g and the graph 34g are shown for comparison.

(A)のグラフ33gに示すように、輝度変化画像33では画像内の位置毎に輝度値が激しく変化しており、高周波の成分と低周波の成分とが混在している。グラフ33gの上下の振幅も激しく変化している。例示する手順の態様では、光源3は対象物9の右側(図7の上側)から斜めの光を照射しており、グラフ33gの右側へ行くにつれて輝度値も上昇している。輝度値の変化は凹凸8による反射光の強度の変化を反映している。例えば凹凸8の影に相当する画像内の位置では輝度値は増加しにくく、斜めの光により凹凸8が直接照射される画像内の位置では輝度値は増加する。 As shown in the graph 33g of (A), in the luminance change image 33, the luminance value changes drastically for each position in the image, and a high frequency component and a low frequency component are mixed. The vertical amplitude of the graph 33g also changes drastically. In the embodiment of the illustrated procedure, the light source 3 irradiates oblique light from the right side (upper side of FIG. 7) of the object 9, and the brightness value also increases toward the right side of the graph 33g. The change in the brightness value reflects the change in the intensity of the reflected light due to the unevenness 8. For example, the brightness value is unlikely to increase at a position in the image corresponding to the shadow of the unevenness 8, and the brightness value increases at a position in the image where the unevenness 8 is directly irradiated by oblique light.

これに対し、(B)のグラフ34gに示すように、平滑化画像34では、平滑化処理の適用により画像内の位置毎の輝度値の変化は均されており、平滑化画像34には低周波の成分のみが抽出されている。グラフ34gの上下の振幅の変化も穏やかになっている。これにより、平滑化画像34には、光源3により対象物9の表面に照射された斜めの光による照射領域の形状が抽出される。 On the other hand, as shown in the graph 34g of (B), in the smoothed image 34, the change in the luminance value for each position in the image is smoothed by applying the smoothing process, and the smoothed image 34 is low. Only the frequency components are extracted. The change in the amplitude above and below the graph 34g is also gentle. As a result, the shape of the irradiation region due to the oblique light irradiated on the surface of the object 9 by the light source 3 is extracted from the smoothed image 34.

ステップS6(強調画像生成ステップ)において、平滑化画像34および輝度変化画像33に基づいて、対象物9の表面に形成された凹凸8が強調された強調画像35を生成する。生成した強調画像35の一例を図9に示す。 In step S6 (enhanced image generation step), an enhanced image 35 in which the unevenness 8 formed on the surface of the object 9 is emphasized is generated based on the smoothed image 34 and the brightness change image 33. An example of the generated emphasized image 35 is shown in FIG.

本実施形態では、平滑化画像34と輝度変化画像33との差分により、強調画像35を生成する。画像の差分は、平滑化画像34および輝度変化画像33で対応する位置の画素について、例えば平滑化画像34の輝度値から輝度変化画像33の輝度値を減算することにより算出する。これにより、強調画像35には、凹凸8の影に対応する部分の輝度値が抽出される。 In the present embodiment, the enhanced image 35 is generated by the difference between the smoothed image 34 and the brightness change image 33. The image difference is calculated by, for example, subtracting the brightness value of the brightness change image 33 from the brightness value of the smoothed image 34 for the pixels at the positions corresponding to the smoothed image 34 and the brightness change image 33. As a result, the luminance value of the portion corresponding to the shadow of the unevenness 8 is extracted from the enhanced image 35.

図10を参照して、強調画像35について説明する。図10は、強調画像を説明するための図である。(A)および(B)は、画像の或る横方向の位置に沿った輝度値の分布を示すグラフである。(A)には、輝度変化画像33および平滑化画像34の対応する画像内の位置について、輝度変化画像33の輝度値の分布を示すグラフ33g(黒色)と、平滑化画像34の輝度値の分布を示すグラフ34g(灰色)とが示されている。(B)には、強調画像35の輝度値の分布を示すグラフ35g(灰色)が示されている。(C)は輝度変化画像33の一部を拡大した図であり、(A)に示すグラフ33gは(C)中の破線LINEに沿った輝度値の分布である。同様に、(D)は強調画像35の一部を拡大した図であり、(B)に示すグラフ35gは(D)中の破線LINEに沿った輝度値の分布である。(A)〜(D)中に示す参照符号Sは、凹凸8の主な影に対応する破線LINE上の部分である。 The enhanced image 35 will be described with reference to FIG. FIG. 10 is a diagram for explaining the emphasized image. (A) and (B) are graphs showing the distribution of luminance values along a certain lateral position of an image. In (A), a graph 33g (black) showing the distribution of the brightness values of the brightness change image 33 and the brightness values of the smoothed image 34 with respect to the positions of the brightness change image 33 and the smoothed image 34 in the corresponding images. A graph showing the distribution, 34 g (gray), is shown. In (B), a graph 35 g (gray) showing the distribution of the luminance values of the emphasized image 35 is shown. (C) is an enlarged view of a part of the luminance change image 33, and the graph 33g shown in (A) is the distribution of the luminance values along the broken line LINE in (C). Similarly, (D) is an enlarged view of a part of the emphasized image 35, and the graph 35g shown in (B) is the distribution of the luminance values along the broken line LINE in (D). Reference numeral S shown in (A) to (D) is a portion on the broken line LINE corresponding to the main shadow of the unevenness 8.

(A)を参照すると、グラフ33gに示すように、凹凸8の影Sに対応する部分の輝度値は概ね20未満と低く、これまでの技術では、この凹凸8の影Sに対応する部分を周囲と比較して高いコントラスト比で抽出することは達成されていない。一方で、グラフ34gに示すように、平滑化画像34では、この凹凸8の影Sに対応する部分の輝度値は、平滑化処理によりその周囲と同程度の輝度値に均されている。本発明では、平滑化画像34から、平滑化画像34の作成の元となった、高周波の成分を含む輝度変化画像33を減算することにより、強調画像35を生成する。これにより、輝度変化画像33のグラフ33gでは輝度値が概ね20未満と低く、平滑化画像34のグラフ34gとの対比では埋もれていた低い輝度値は、減算処理後の強調画像35のグラフ35gでは平滑化画像34の輝度値を基準として反転され、高い輝度値として抽出される。 With reference to (A), as shown in the graph 33g, the brightness value of the portion corresponding to the shadow S of the unevenness 8 is as low as less than about 20, and in the conventional technique, the portion corresponding to the shadow S of the unevenness 8 is formed. Extraction with a high contrast ratio compared to the surroundings has not been achieved. On the other hand, as shown in the graph 34g, in the smoothed image 34, the luminance value of the portion of the unevenness 8 corresponding to the shadow S is smoothed to the same luminance value as the surroundings. In the present invention, the enhanced image 35 is generated by subtracting the luminance change image 33 containing the high-frequency component, which is the basis for creating the smoothed image 34, from the smoothed image 34. As a result, the luminance value is as low as less than 20 in the graph 33g of the luminance change image 33, and the low luminance value buried in comparison with the graph 34g of the smoothed image 34 is found in the graph 35g of the enhanced image 35 after the subtraction process. It is inverted based on the brightness value of the smoothed image 34 and extracted as a high brightness value.

なお、(B)のグラフ35gに示すように、輝度変化画像33の画素のうち、平滑化画像34の輝度値よりも高い輝度値を有する画素については、減算処理により輝度値はゼロとして抽出される。また、そもそも照射領域外の画素の輝度値は概ねゼロであり、平滑化処理により均されても概ねゼロのままであるので、平滑化画像34から輝度変化画像33を減算しても、照射領域外の画素の輝度値は概ねゼロ(すなわち、黒色)のまま抽出される。 As shown in the graph 35g of (B), among the pixels of the brightness change image 33, the pixels having a brightness value higher than the brightness value of the smoothed image 34 are extracted as zero by the subtraction process. To. Further, since the brightness value of the pixels outside the irradiation region is approximately zero in the first place and remains approximately zero even after being smoothed by the smoothing process, even if the brightness change image 33 is subtracted from the smoothed image 34, the irradiation region The brightness value of the outer pixel is extracted while remaining substantially zero (that is, black).

図6に示す輝度変化画像33では、光源3による光が照射されていない照射領域外の輝度値と、照射領域内の凹凸8の影に対応する部分の輝度値とはいずれも低い。よって、輝度変化画像33を用いて、照射領域内に含まれている凹凸8の影の部分の画素を輝度値に基づいて抽出しようとすると、照射領域外の画素も誤って抽出される。 In the luminance change image 33 shown in FIG. 6, the luminance value outside the irradiation region not irradiated with the light from the light source 3 and the luminance value of the portion corresponding to the shadow of the unevenness 8 in the irradiation region are both low. Therefore, when the brightness change image 33 is used to extract the pixels of the shadow portion of the unevenness 8 included in the irradiation region based on the brightness value, the pixels outside the irradiation region are also erroneously extracted.

これに対し、本発明では、輝度変化画像33に平滑化処理を適用して平滑化画像34を生成し、生成した平滑化画像34から輝度変化画像33を減算することにより、照射領域外の輝度値と、照射領域内に含まれている凹凸8の影の部分の輝度値とを分離することを可能にしている。 On the other hand, in the present invention, the brightness change image 33 is subjected to a smoothing process to generate a smoothed image 34, and the brightness change image 33 is subtracted from the generated smoothed image 34 to obtain the brightness outside the irradiation region. It is possible to separate the value from the brightness value of the shadow portion of the unevenness 8 included in the irradiation area.

図11は、画像間での字形の変化を比較するための図である。(A)は背景画像31であり、(B)は斜光画像32であり、(C)は輝度変化画像33であり、(D)は強調画像35である。(A)〜(D)の各画像には、文字「南無阿弥陀仏」の「陀仏」に相当する部分が示されている。(D)に示す強調画像35では、(A)〜(C)に示す各画像と比較して、凹凸8の影に対応する部分は周囲と比較して高いコントラスト比で抽出されており、文字の形も明瞭に抽出されている。 FIG. 11 is a diagram for comparing changes in glyphs between images. (A) is a background image 31, (B) is an oblique light image 32, (C) is a brightness change image 33, and (D) is an enhanced image 35. In each of the images (A) to (D), the part corresponding to the "Namu Amida Butsu" of the characters "Namu Amida Butsu" is shown. In the emphasized image 35 shown in (D), as compared with the images shown in (A) to (C), the portion corresponding to the shadow of the unevenness 8 is extracted with a higher contrast ratio than the surroundings, and the characters are displayed. The shape of is also clearly extracted.

ステップS7において、ユーザが所望する対象物9の表面の領域を全て処理する(ステップS7においてYes)まで、ステップS2から処理を繰り返し、照射領域を変更して複数の強調画像35を次々に生成する。 In step S7, the processing is repeated from step S2 until the entire surface area of the object 9 desired by the user is processed (Yes in step S7), the irradiation area is changed, and a plurality of emphasized images 35 are generated one after another. ..

ステップS8(強調画像合成ステップ)において、照射領域が異なる斜光画像32のそれぞれについて作成された複数の強調画像35を合成する。本実施形態では、強調画像35内の凹凸の輝度に基づいて、複数の強調画像35を比較明合成する。比較明合成は画像合成の手法であり、例えば星の軌跡を撮像する際に用いられている。比較明合成には種々の公知の手法を用いることができる。 In step S8 (enhanced image composition step), a plurality of enhanced images 35 created for each of the oblique light images 32 having different irradiation regions are combined. In the present embodiment, a plurality of emphasized images 35 are comparatively brightly combined based on the brightness of the unevenness in the enhanced image 35. Comparative bright composition is a method of image composition, and is used, for example, when imaging the trajectory of a star. Various known methods can be used for comparative bright synthesis.

合成された複数の強調画像35は、対象物9の拓本画像として、例えば表示部15に表示される。合成された拓本画像の一例を図12に示す。なお、ユーザが所望する対象物9の表面の領域が最初の1つ目の領域のみである場合は、本ステップにおける画像合成処理は省略され、ステップS6において生成した1枚の強調画像35がそのまま対象物9の拓本画像となる。
[効果]
The combined plurality of emphasized images 35 are displayed, for example, on the display unit 15 as a Takumoto image of the object 9. An example of the synthesized rubbing image is shown in FIG. If the surface region of the object 9 desired by the user is only the first first region, the image composition process in this step is omitted, and the one emphasized image 35 generated in step S6 remains as it is. This is a rubbing image of the object 9.
[effect]

以上、本発明の一実施形態に係る画像処理装置によると、迅速かつ簡便に対象物の拓本画像を生成することができる。ユーザは専門的な知識を必要とすることなく簡便に、短時間で迅速に対象物の拓本画像を生成することができる。 As described above, according to the image processing apparatus according to the embodiment of the present invention, it is possible to quickly and easily generate a rubbing image of an object. The user can easily and quickly generate a rubbing image of an object without requiring specialized knowledge.

本発明によると、外部撮像装置2または撮像部11を用いて対象物9を撮像した画像を用いて、拓本画像を作成する。これにより、墨と紙を用いた従来の拓本とは異なり、対象物へ接触することなく拓本画像を生成することができ、崩壊や汚損が懸念される資料や水気を嫌う木版画等についても、拓本画像を作成することができる。 According to the present invention, a rubbing image is created using an image obtained by capturing an object 9 using an external imaging device 2 or an imaging unit 11. As a result, unlike the conventional rubbing using ink and paper, it is possible to generate a rubbing image without touching the object, and even for materials that may collapse or become dirty, woodblock prints that dislike moisture, etc. You can create a rubbing image.

また、本発明によると、専用の高価な機器を準備する必要はなく、市販の機器を用いて簡便かつ容易に拓本画像を生成することができる。上記した実施形態において例示するタブレット端末等、デジタルカメラおよびLED照明はいずれも市販されている機器である。拓本画像を生成する際の手順も簡便かつ容易である。例えばデジタルカメラにインターバルタイマーを設定して、対象物9を撮像した画像を所定の時間間隔で次々に取得しながら、LED照明等で対象物9に斜めの光を部分的に照射し、照射領域を次々に変更することにより、拓本画像を生成することができる。 Further, according to the present invention, it is not necessary to prepare a dedicated expensive device, and a commercially available device can be used to easily and easily generate a rubbing image. Both the digital camera and the LED lighting, such as the tablet terminal exemplified in the above-described embodiment, are commercially available devices. The procedure for generating the Takumoto image is also simple and easy. For example, an interval timer is set in a digital camera, and images of the object 9 are acquired one after another at predetermined time intervals, and the object 9 is partially irradiated with oblique light by LED lighting or the like to obtain an irradiation area. The rubbing image can be generated by changing the above one after another.

また、本発明によると、画像処理装置を構成するタブレット端末等、デジタルカメラおよびLED照明は携帯可能なサイズおよび重量であり、拓本画像の作成に要する時間も短時間であることから、石碑等の文化財を調査する現場において迅速に記録結果を確認することができる。記録結果を確認した結果、仮に拓本画像に欠損や不鮮明な箇所があった場合であっても、現場において欠損箇所や不鮮明な箇所について即座に強調画像を追加で生成することができる。これにより再調査のリスクも低下する。 Further, according to the present invention, a digital camera and LED lighting such as a tablet terminal constituting an image processing device have a portable size and weight, and the time required to create a rubbing image is short, so that a stone monument or the like can be used. Recorded results can be quickly confirmed at the site of investigating cultural properties. As a result of checking the recording result, even if the rubbing image has a missing part or an unclear part, an additional emphasized image can be immediately generated for the missing part or the unclear part at the site. This also reduces the risk of re-investigation.

また、本発明は文化財調査のフィールドワークにも適している。例えばデジタルカメラに代えて、タブレット端末等に予め設けられている撮像素子を用いることにより、画像処理装置はよりいっそう簡便な構成となる。例えばタブレット端末等に本発明のプログラム(スマートフォンアプリ)をインストールすることにより、フィールドワークの参加者が所有するタブレット端末等を、本発明の画像処理装置とすることができる。これにより、フィールドワークの参加者は、専門的な知識を必要とすることなく迅速かつ簡便に、参加者の郷土に点在する石碑等の拓本画像を生成し記録することができる。また、例えば郷土に存在する石碑等の拓本画像を収集した、郷土史のデジタルデータベースを手軽に作成することができる。
[その他の形態]
The present invention is also suitable for fieldwork of cultural property research. For example, by using an image pickup element provided in advance in a tablet terminal or the like instead of a digital camera, the image processing device has a simpler configuration. For example, by installing the program (smartphone application) of the present invention on a tablet terminal or the like, the tablet terminal or the like owned by the participants of the fieldwork can be used as the image processing device of the present invention. As a result, fieldwork participants can quickly and easily generate and record Takumoto images such as stone monuments scattered in the participants' hometowns without requiring specialized knowledge. In addition, for example, it is possible to easily create a digital database of local history that collects images of Takumoto such as stone monuments existing in the local area.
[Other forms]

以上、本発明を特定の実施形態によって説明したが、本発明は上記した実施形態に限定されるものではない。 Although the present invention has been described above by the specific embodiment, the present invention is not limited to the above-described embodiment.

上記実施形態では、対象物9は石碑であり、画像処理装置1は、石碑9に彫刻されている文字の拓本画像として強調画像35を生成しているが、画像処理装置1が生成する拓本画像はこれに限定されない。例えば、画像処理装置1は、版木を対象物9として、版木に彫刻されている模様の拓本画像を生成してもよく、洞窟を対象物9として、洞窟に彫刻されている壁画の拓本画像を生成してもよく、城壁や堀等の石垣を対象物9として、石垣の外観の拓本画像を生成してもよい。強調画像35では対象物9の凹凸8が強調されているが、強調される凹凸8は凹であっても凸であってもよい。 In the above embodiment, the object 9 is a stone monument, and the image processing device 1 generates the emphasized image 35 as a rubbing image of the characters engraved on the stone monument 9, but the rubbing image generated by the image processing device 1. Is not limited to this. For example, the image processing device 1 may generate a rubbing image of a pattern engraved on the woodblock with the woodblock as the object 9, and may generate a rubbing image of the mural painting engraved on the cave with the cave as the object 9. An image may be generated, or a rubbing image of the appearance of the stone wall may be generated with the stone wall such as a castle wall or a moat as the object 9. In the enhanced image 35, the unevenness 8 of the object 9 is emphasized, but the unevenness 8 to be emphasized may be concave or convex.

上記実施形態では、対象物9は天然素材による構造物であるが、対象物9は構造物であればよく、合成樹脂等の人工素材や例えば細胞等の生体であってもよい。対象物9の寸法も、上記実施形態では数10センチメートルから数メートル程度の肉眼で目視可能な寸法であるが、外部撮像装置2および光学レンズ4の解像度(分解能)の性能に応じた、対象物9の表面に形成された凹凸8を判別可能な寸法であればよい。 In the above embodiment, the object 9 is a structure made of a natural material, but the object 9 may be a structure, and may be an artificial material such as a synthetic resin or a living body such as a cell. In the above embodiment, the size of the object 9 is also a size that can be visually observed with the naked eye of about several tens of centimeters to several meters, but the object 9 corresponds to the performance of the resolution of the external imaging device 2 and the optical lens 4. Any size may be sufficient as long as the unevenness 8 formed on the surface of the object 9 can be discriminated.

上記実施形態では、斜光画像32の輝度値から背景画像31の輝度値を減算することにより輝度変化画像33を生成しているが、画像を生成する際の減算は、補数表現を用いた加算により行ってもよい。例えば、2進数で表現されている背景画像31の輝度値の全ビットを反転してから2進数の1を加算することにより、背景画像31の輝度値を補数で表現し、斜光画像32の輝度値と、補数で表現された背景画像31の輝度値とを加算することにより、輝度変化画像33を生成することができる。これにより、画像を加算することにより輝度変化画像33を生成することができる。同様に、平滑化画像34の輝度値と、補数で表現された輝度変化画像33の輝度値とを加算することにより、強調画像35を生成することができる。 In the above embodiment, the brightness change image 33 is generated by subtracting the brightness value of the background image 31 from the brightness value of the oblique light image 32, but the subtraction at the time of generating the image is by addition using the complement representation. You may go. For example, by inverting all bits of the brightness value of the background image 31 expressed in binary and then adding 1 in binary, the brightness value of the background image 31 is expressed in complement and the brightness of the oblique light image 32. The brightness change image 33 can be generated by adding the value and the brightness value of the background image 31 represented by the complement. As a result, the brightness change image 33 can be generated by adding the images. Similarly, the enhanced image 35 can be generated by adding the brightness value of the smoothed image 34 and the brightness value of the brightness change image 33 represented by the complement.

上記実施形態では、斜光画像32の輝度値から背景画像31の輝度値を減算することにより輝度変化画像33を生成しているが、画像を生成する際の減算の順序は制限されない。例えば、背景画像31および斜光画像32の輝度値を反転させ、輝度値を反転させた背景画像31から輝度値を反転させた斜光画像32を減算することにより、輝度変化画像33を生成してもよい。これにより、輝度変化画像33を生成する際に画像を減算する順序を入れ替えることができる。同様に、輝度変化画像33および平滑化画像34の輝度値を反転させ、輝度値を反転させた輝度変化画像33から輝度値を反転させた平滑化画像34を減算することにより、強調画像35を生成してもよい。なお、輝度値の反転とは、例えば8ビットグレースケールの画像の場合、輝度値を最大階調値の255から減算した値に変換することを意味する。 In the above embodiment, the brightness change image 33 is generated by subtracting the brightness value of the background image 31 from the brightness value of the oblique light image 32, but the order of subtraction when generating the image is not limited. For example, even if the brightness change image 33 is generated by inverting the brightness values of the background image 31 and the oblique light image 32 and subtracting the oblique light image 32 with the inverted brightness value from the background image 31 with the inverted brightness value. Good. Thereby, the order of subtracting the images when the brightness change image 33 is generated can be changed. Similarly, the enhanced image 35 is obtained by reversing the brightness values of the brightness change image 33 and the smoothed image 34 and subtracting the smoothed image 34 having the inverted brightness value from the brightness change image 33 in which the brightness value is reversed. It may be generated. Inversion of the luminance value means, for example, in the case of an 8-bit grayscale image, the luminance value is converted into a value obtained by subtracting the luminance value from the maximum gradation value of 255.

上記実施形態では、斜光画像32と背景画像31との差分により輝度変化画像33を生成しているが、輝度変化画像33を生成する処理はこれに限定されない。輝度変化画像33は、斜光画像32および背景画像31に基づいて生成すればよい。例えば、斜光画像32と背景画像31との差分により得られた画像に、さらに種々の画像処理フィルタを適用することにより、輝度変化画像33を生成してもよい。同様に、平滑化画像34と輝度変化画像33との差分により得られた画像にさらに種々の画像処理フィルタを適用することにより、強調画像35を生成してもよい。 In the above embodiment, the brightness change image 33 is generated by the difference between the oblique light image 32 and the background image 31, but the process of generating the brightness change image 33 is not limited to this. The brightness change image 33 may be generated based on the oblique light image 32 and the background image 31. For example, the brightness change image 33 may be generated by further applying various image processing filters to the image obtained by the difference between the oblique light image 32 and the background image 31. Similarly, the enhanced image 35 may be generated by further applying various image processing filters to the image obtained by the difference between the smoothed image 34 and the brightness change image 33.

上記実施形態では、対象物9の背景画像31は最初に撮像された一枚を取得し、輝度変化画像33はこの最初に撮像された背景画像31を用いて生成しているが、背景画像31の取得は一枚に限定されない。例えば、画像処理装置1のユーザは、光源3と外部撮像装置2または撮像部11とを用いて、背景画像31と斜光画像32とを交互に撮像し、画像処理装置1は、取得した複数の背景画像31および複数の斜光画像32に基づいて、例えば斜光画像32と当該斜光画像32の直前に撮像された背景画像31とのペアに基づいて、輝度変化画像33を生成してもよい。輝度変化画像33を生成する際に用いる背景画像31と斜光画像32とのペアも、時間的に隣接したペアに限定されない。 In the above embodiment, the background image 31 of the object 9 acquires the first captured image, and the luminance change image 33 is generated using the first captured background image 31, but the background image 31 Acquisition is not limited to one. For example, the user of the image processing device 1 alternately images the background image 31 and the oblique light image 32 by using the light source 3 and the external image pickup device 2 or the image pickup unit 11, and the image processing device 1 obtains a plurality of acquired images. A brightness change image 33 may be generated based on the background image 31 and the plurality of oblique light images 32, for example, based on a pair of the oblique light image 32 and the background image 31 captured immediately before the oblique light image 32. The pair of the background image 31 and the oblique light image 32 used when generating the luminance change image 33 is also not limited to the pair that are adjacent in time.

上記実施形態では、照射領域を変更して複数の強調画像35を次々に生成した後に、生成した複数の強調画像35を一括して合成しているが、強調画像35は、ステップS6において生成される度に、これまでの繰り返し処理において既に合成されている強調画像35に順次合成されてもよい。 In the above embodiment, after changing the irradiation area to generate a plurality of emphasized images 35 one after another, the generated plurality of emphasized images 35 are collectively combined, but the enhanced image 35 is generated in step S6. Each time, it may be sequentially combined with the emphasized image 35 that has already been combined in the iterative processing so far.

上記実施形態では、平滑化画像34の輝度値から輝度変化画像33の輝度値を減算することにより、凹凸8の影に対応する部分の輝度値が抽出された強調画像35(以下、低輝度強調画像と呼ぶ)を生成し、生成した複数の強調画像35同士を合成して拓本画像を生成しているが、合成する強調画像35は低輝度強調画像の一種類に限定されない。例えば、輝度変化画像33の輝度値から平滑化画像34の輝度値を減算することにより、もう一種類の強調画像として、凹凸8の明るい部分に対応する部分の輝度値が抽出された強調画像(以下、高輝度強調画像と呼ぶ)を生成し、低輝度強調画像と高輝度強調画像とを合成してもよい。低輝度強調画像と高輝度強調画像との合成により得られた複数の強調画像同士を合成して、拓本画像を生成してもよい。 In the above embodiment, the enhanced image 35 (hereinafter, low-luminance enhancement) in which the luminance value of the portion corresponding to the shadow of the unevenness 8 is extracted by subtracting the luminance value of the luminance change image 33 from the luminance value of the smoothed image 34. A Takumoto image is generated by generating (referred to as an image) and synthesizing the generated plurality of emphasized images 35, but the enhanced image 35 to be combined is not limited to one type of low-luminance emphasized image. For example, by subtracting the brightness value of the smoothed image 34 from the brightness value of the brightness change image 33, the brightness value of the portion corresponding to the bright portion of the unevenness 8 is extracted as another type of enhanced image (enhanced image ( Hereinafter referred to as a high-luminance enhanced image) may be generated, and the low-luminance enhanced image and the high-luminance enhanced image may be combined. A takumoto image may be generated by synthesizing a plurality of emphasized images obtained by synthesizing a low-luminance-enhanced image and a high-luminance-enhanced image.

図13は、凹凸の表面に光源から斜めの光が照射されている状態を示す模式図である。凹凸8に斜めの光が照射されると、凹凸8の符号Sで示す部分は、光源からの光が十分に照射されず影となり、凹凸8の符号Lで示す部分は、光源からの光が照射されて明るくなる。 FIG. 13 is a schematic view showing a state in which oblique light is irradiated from a light source to the surface of the uneven surface. When the unevenness 8 is irradiated with oblique light, the portion indicated by the symbol S of the unevenness 8 is not sufficiently irradiated with the light from the light source and becomes a shadow, and the portion indicated by the symbol L of the unevenness 8 is the light from the light source. It is irradiated and becomes bright.

他の実施形態に係る画像処理方法では、符号Sで示す部分が強調された低輝度強調画像と、符号Lで示す部分が強調された高輝度強調画像とを生成し、これら低輝度強調画像および高輝度強調画像を合成して、強調画像35を生成する。他の実施形態に係る画像処理装置では、強調画像生成部25は、低輝度強調画像および高輝度強調画像の二種類の強調画像を生成する。強調画像生成部25は、平滑化画像34と、輝度変化画像33の平滑化画像34よりも輝度が低い部分との差分により低輝度強調画像を生成し、輝度変化画像33の平滑化画像34よりも輝度が高い部分と、平滑化画像34との差分により高輝度強調画像を生成する。強調画像生成部25は、低輝度強調画像および高輝度強調画像を合成して、強調画像35を生成する。 In the image processing method according to another embodiment, a low-luminance-enhanced image in which the portion indicated by the reference numeral S is emphasized and a high-luminance-enhanced image in which the portion indicated by the reference numeral L is emphasized are generated, and these low-luminance-enhanced images and the image are generated. The high-luminance enhanced image is combined to generate the enhanced image 35. In the image processing apparatus according to the other embodiment, the enhanced image generation unit 25 generates two types of enhanced images, a low-luminance enhanced image and a high-luminance enhanced image. The enhanced image generation unit 25 generates a low-brightness enhanced image by the difference between the smoothed image 34 and the portion of the brightness change image 33 whose brightness is lower than that of the smoothed image 34, and from the smoothed image 34 of the brightness change image 33. A high-luminance enhanced image is generated by the difference between the high-luminance portion and the smoothed image 34. The enhanced image generation unit 25 synthesizes the low-luminance enhanced image and the high-luminance enhanced image to generate the enhanced image 35.

図14を参照して、二種類の強調画像について説明する。図14は、他の実施形態に係る画像処理方法において生成する低輝度強調画像および高輝度強調画像の二種類の強調画像を説明するための図である。 Two types of emphasized images will be described with reference to FIG. FIG. 14 is a diagram for explaining two types of enhanced images, a low-luminance-enhanced image and a high-luminance-enhanced image, which are generated in the image processing method according to another embodiment.

(A)〜(C)は、画像の或る横方向の位置に沿った輝度値の分布を示すグラフである。(A)には、凹凸8の影に対応する部分Sの輝度値が抽出された、低輝度強調画像の輝度値の分布を示すグラフ35g(灰色)が示されている。(B)には、凹凸8の明るい部分Lに対応する部分の輝度値が抽出された、高輝度強調画像の輝度値の分布を示すグラフ35g(黒色)が示されている。(C)は、(A)に示す低輝度強調画像のグラフ35g(灰色)と、(B)に示す高輝度強調画像のグラフ35g(黒色)とを合成したグラフである。(D)は、低輝度強調画像および高輝度強調画像を合成することにより生成された強調画像の一部を拡大した図である。なお、(A)に示すグラフ35gは、図10(B)に示すグラフ35gと同じである。(D)に示すように、低輝度強調画像および高輝度強調画像を合成すると、凹凸8に対する斜めの光の一回の照射により、凹凸8により構成されている文字の字形の縦方向の線を抽出することができる。 (A) to (C) are graphs showing the distribution of luminance values along a certain lateral position of an image. In (A), a graph 35 g (gray) showing the distribution of the luminance values of the low-luminance-enhanced image from which the luminance values of the portion S corresponding to the shadow of the unevenness 8 are extracted is shown. In (B), a graph 35 g (black) showing the distribution of the luminance values of the high-luminance-enhanced image is shown, in which the luminance values of the portions corresponding to the bright portions L of the unevenness 8 are extracted. (C) is a graph obtained by synthesizing the graph 35g (gray) of the low-luminance-enhanced image shown in (A) and the graph 35g (black) of the high-luminance-enhanced image shown in (B). FIG. (D) is an enlarged view of a part of the enhanced image generated by synthesizing the low-luminance-enhanced image and the high-luminance-enhanced image. The graph 35g shown in (A) is the same as the graph 35g shown in FIG. 10 (B). As shown in (D), when the low-luminance-enhanced image and the high-luminance-enhanced image are combined, a single irradiation of diagonal light to the unevenness 8 produces a vertical line of a character character formed by the unevenness 8. Can be extracted.

このように、他の実施形態に係る画像処理方法では、背景画像および斜光画像の同じ1つのペアから低輝度強調画像および高輝度強調画像の二種類の強調画像を生成してこれらを合成することにより、凹凸8により構成されている文字の字形の補完割合が高い強調画像35を生成することが可能となる。これにより、より少ない撮像枚数にて拓本画像を生成することが可能となる。また、この二種類の強調画像を生成してこれらを合成する態様は、例えば対象物の表面のノイズが少なく、凹凸により構成されている文字が複雑な場合に有用である。対象物の表面のノイズが少ないとは、例えば文字を構成する凹凸以外の凹凸が対象物の表面に形成されている割合が少ないことを意味する。 As described above, in the image processing method according to the other embodiment, two types of enhanced images, a low-luminance-enhanced image and a high-luminance-enhanced image, are generated from the same pair of the background image and the oblique light image, and these are combined. This makes it possible to generate an emphasized image 35 having a high complement ratio of the character shape of the character composed of the unevenness 8. This makes it possible to generate a rubbing image with a smaller number of images. Further, the mode of generating these two types of emphasized images and synthesizing them is useful, for example, when there is little noise on the surface of the object and the characters composed of irregularities are complicated. The fact that the noise on the surface of the object is small means that, for example, the proportion of irregularities other than the irregularities constituting the characters is small on the surface of the object.

上記実施形態では、画像処理装置1および外部撮像装置2はそれぞれが独立した構成であるが、画像処理装置1および外部撮像装置2は一体化されてもよい。この一体化された構成にさらに光源3を一体化させてもよい。 In the above embodiment, the image processing device 1 and the external imaging device 2 have independent configurations, but the image processing device 1 and the external imaging device 2 may be integrated. The light source 3 may be further integrated with this integrated configuration.

上記実施形態では、対象物9の表面への斜めの光の部分的な照射は、光源3を用いてユーザにより行われているが、光源3を例えばドローン等に搭載してもよい。さらに、画像処理装置1からドローンを制御することにより照射作業を自動化してもよい。ドローンにはさらに外部撮像装置2を搭載してもよい。すなわち、光源3および外部撮像装置2のいずれか一方または両方をドローンに搭載して、画像処理装置1から照射位置および撮像位置のいずれか一方または両方を制御してもよい。 In the above embodiment, the surface of the object 9 is partially irradiated with oblique light by the user using the light source 3, but the light source 3 may be mounted on, for example, a drone. Further, the irradiation work may be automated by controlling the drone from the image processing device 1. The drone may be further equipped with an external imaging device 2. That is, one or both of the light source 3 and the external imaging device 2 may be mounted on the drone to control either or both of the irradiation position and the imaging position from the image processing device 1.

データ処理部12の機能および補助記憶装置13内のデータ項目は、一部または全部が、通信I/F部16を介して接続されるサーバ装置(図示せず)においてクラウド化されていてもよい。例えば、輝度変化画像生成部23、平滑化画像生成部24、強調画像生成部25および強調画像合成部26がサーバ装置に設けられていてもよい。この場合、画像処理装置1は、I/F部16を介して背景画像31および斜光画像32をサーバ装置に送信する。サーバ装置の輝度変化画像生成部23、平滑化画像生成部24、強調画像生成部25および強調画像合成部26は、受信した背景画像31および斜光画像32に基づいて、輝度変化画像33、平滑化画像34および強調画像35を生成し、複数の強調画像35を合成する。サーバ装置は、合成した強調画像をI/F部16を介して画像処理装置1に送信し、画像処理装置1は、受信した合成された強調画像を表示部15に表示してもよい。 Some or all of the functions of the data processing unit 12 and the data items in the auxiliary storage device 13 may be cloud-based in a server device (not shown) connected via the communication I / F unit 16. .. For example, the brightness change image generation unit 23, the smoothing image generation unit 24, the emphasis image generation unit 25, and the enhancement image composition unit 26 may be provided in the server device. In this case, the image processing device 1 transmits the background image 31 and the oblique light image 32 to the server device via the I / F unit 16. The brightness change image generation unit 23, the smoothing image generation unit 24, the emphasis image generation unit 25, and the enhancement image composition unit 26 of the server device are based on the received background image 31 and oblique light image 32, and the brightness change image 33 and smoothing are performed. The image 34 and the emphasized image 35 are generated, and the plurality of emphasized images 35 are combined. The server device may transmit the combined enhanced image to the image processing device 1 via the I / F unit 16, and the image processing device 1 may display the received combined enhanced image on the display unit 15.

上記実施形態では、データ処理部12を構成する各機能ブロック21〜26はソフトウェアにより実現されているが、これら各機能ブロック21〜26は、一部または全部がハードウェアとして実現されてもよい。データ処理部12を構成する各機能ブロック21〜26の処理は単一のプロセッサで処理される必要はなく、複数のプロセッサで分散して処理されてもよい。 In the above embodiment, the functional blocks 21 to 26 constituting the data processing unit 12 are realized by software, but some or all of the functional blocks 21 to 26 may be realized as hardware. The processing of the functional blocks 21 to 26 constituting the data processing unit 12 does not have to be processed by a single processor, and may be distributed and processed by a plurality of processors.

以下に本発明の実施例を示し、本発明の特徴をより明確にする。 Examples of the present invention are shown below to further clarify the features of the present invention.

以下の実施例では、画像処理装置1にはMacBook Pro(登録商標)2013を用い、外部撮像装置2にはNikon(登録商標)D810を用いた。外部撮像装置2にはワイヤレストランスミッターを接続し、Wi-Fi(登録商標)により撮像画像を画像処理装置1に転送した。光源3にはペンライト型のLED照明を使用した。対象物9の表面への斜めの光の部分的な照射は、光源3を用いてユーザにより行われた。 In the following examples, MacBook Pro (registered trademark) 2013 was used for the image processing device 1, and Nikon (registered trademark) D810 was used for the external imaging device 2. A wireless transmitter was connected to the external image pickup device 2, and the captured image was transferred to the image processing device 1 by Wi-Fi (registered trademark). A penlight type LED lighting was used as the light source 3. Partial irradiation of the surface of the object 9 with oblique light was performed by the user using the light source 3.

第1の実施例では、本発明の画像処理装置を用いた方法と従来の他の手法との間で、得られる拓本画像の精度および処理に要する時間を比較した。 In the first embodiment, the accuracy of the obtained rubbed image and the time required for processing were compared between the method using the image processing apparatus of the present invention and another conventional method.

図15は、本発明の方法と従来の他の手法とを比較するための図である。(A)は従来の墨および紙を用いた紙本拓本の画像である。(B)はSfM技術により記録された三次元形状のデータから切り出した二次元画像である。(C)は本発明の画像処理装置による拓本画像である。(D)は対象物である石碑に記載されている文字の翻刻である。翻刻の出典は、海部郡誌刊行会により編纂され昭和2年に海部郡誌刊行会により発行された「海部郡誌」である。 FIG. 15 is a diagram for comparing the method of the present invention with other conventional methods. (A) is an image of a paper book rubbing book using conventional ink and paper. (B) is a two-dimensional image cut out from the three-dimensional shape data recorded by the SfM technique. (C) is a rubbing image by the image processing apparatus of the present invention. (D) is a reprint of the characters written on the stone monument, which is the object. The source of the reprint is "Ama-gun Magazine" compiled by the Ama-gun Magazine Publishing Association and published by the Ama-gun Magazine Publishing Association in 1945.

(A)に示す紙本拓本の作製には約30分を要した。(B)に示す二次元画像の作成に要した総作業時間は約6時間57分20秒であった。作業時間の内訳は、撮影に要した時間が約5分40秒であり、解析に要した時間が約6時間51分50秒であった。(C)に示す拓本画像は、後述する第3の実施例において作成した拓本画像であり、拓本画像の生成に要した総作業時間は4分47秒であった。 It took about 30 minutes to prepare the paper book rubbed shown in (A). The total working time required to create the two-dimensional image shown in (B) was about 6 hours 57 minutes 20 seconds. The breakdown of the working time was that the time required for shooting was about 5 minutes and 40 seconds, and the time required for analysis was about 6 hours 51 minutes and 50 seconds. The rubbing image shown in (C) is a rubbing image created in the third embodiment described later, and the total working time required to generate the rubbing image was 4 minutes and 47 seconds.

(D)に示す文字の翻刻を基準として、(A)〜(C)に示されている拓本画像の精度について確認した。(C)に示す本発明の画像処理装置による拓本画像が最も鮮明かつ高精度に、(D)に示す翻刻文字を再現していることが確認された。また、(C)に示す本発明の画像処理装置による拓本画像が、最も迅速に生成されていることが確認された。 Based on the transcription of the characters shown in (D), the accuracy of the rubbing image shown in (A) to (C) was confirmed. It was confirmed that the rubbing image by the image processing apparatus of the present invention shown in (C) reproduces the transcribed characters shown in (D) with the clearest and most accurate accuracy. Further, it was confirmed that the rubbing image by the image processing apparatus of the present invention shown in (C) was generated most rapidly.

第2の実施例〜第4の実施例では、種々の対象物について、拓本画像の処理に要する時間を検証した。 In the second to fourth embodiments, the time required for processing the rubbing image was verified for various objects.

図16は、第2の実施例に係る画像である。(A)は対象物の画像であり、(B)は本発明の画像処理装置による拓本画像である。 FIG. 16 is an image according to the second embodiment. (A) is an image of an object, and (B) is a rubbing image by the image processing apparatus of the present invention.

(A)に示す対象物について、背景画像および斜光画像を交互に撮像して、背景画像および斜光画像のペアを35セット、合計70枚を撮像し、35枚の強調画像を比較明合成することにより(B)に示す拓本画像を生成した。対象物の表面への斜めの光の部分的な照射作業を含む、背景画像の撮像を開始してから拓本画像を得るまで要した総作業時間は6分19秒であった。対象物の合計70枚の画像を撮像した後に撮像画像を画像処理装置に転送して、画像処理装置による画像処理を行い、(B)に示す拓本画像を生成した。画像処理に要した時間は28秒であった。 For the object shown in (A), background images and oblique light images are alternately imaged, 35 sets of background image and oblique light image pairs are imaged, a total of 70 images are imaged, and 35 emphasized images are comparatively brightly combined. The Takumoto image shown in (B) was generated. The total work time required from the start of imaging the background image to the acquisition of the rubbing image, including the partial irradiation of the surface of the object with oblique light, was 6 minutes and 19 seconds. After a total of 70 images of the object were captured, the captured images were transferred to an image processing device, and image processing was performed by the image processing device to generate the Takumoto image shown in (B). The time required for image processing was 28 seconds.

図17は、第3の実施例に係る画像である。(A)は対象物の画像であり、(B)は本発明の画像処理装置による拓本画像である。(C)は(B)の拓本画像を白黒反転して拡大した画像である。 FIG. 17 is an image according to the third embodiment. (A) is an image of an object, and (B) is a rubbing image by the image processing apparatus of the present invention. (C) is a black-and-white inverted and enlarged image of the rubbing image of (B).

(A)に示す対象物について、1枚の背景画像および8枚の斜光画像の合計9枚を撮像し、8枚の強調画像を比較明合成することにより(B)に示す拓本画像を生成した。総作業時間は1分であった。対象物の合計9枚の画像を撮像した後に撮像画像を画像処理装置に転送して、画像処理装置による画像処理を行い、(B)に示す拓本画像を生成した。画像処理に要した時間は7秒であった。(C)に示す白黒反転した拓本画像について、OCR機能を有する市販のソフトウェアにより文字認識を行ったところ、文字の認識率は約88%であった。 For the object shown in (A), a total of nine images, one background image and eight oblique light images, were imaged, and the eight emphasized images were comparatively brightly combined to generate the rubbing image shown in (B). .. The total working time was 1 minute. After a total of nine images of the object were captured, the captured images were transferred to an image processing device, and image processing was performed by the image processing device to generate the Takumoto image shown in (B). The time required for image processing was 7 seconds. When character recognition was performed on the black-and-white inverted takumoto image shown in (C) using commercially available software having an OCR function, the character recognition rate was about 88%.

図18は、第4の実施例に係る画像である。(A)は対象物の画像であり、(B)は本発明の画像処理装置による拓本画像である。(A)に対象物として示す石碑は、徳島県美波町に存在する日本最古の津波碑といわれている。この石碑は、正平16年6月24日(西暦1361年8月3日)に発生した南海地震の津波災害による供養碑とされ、津波災害から20年後の康暦2年(1380)に建立されたため、康暦の碑と呼ばれている。 FIG. 18 is an image according to the fourth embodiment. (A) is an image of an object, and (B) is a rubbing image by the image processing apparatus of the present invention. The stone monument shown in (A) as an object is said to be the oldest tsunami monument in Japan that exists in Minami Town, Tokushima Prefecture. This stone monument is said to be a memorial monument due to the tsunami disaster of the Nankai earthquake that occurred on June 24, 1661 (August 3, 1361 AD), and was erected in 1380, 20 years after the tsunami disaster. Because it was made, it is called the monument of the Kang calendar.

(A)に示す対象物について、背景画像および斜光画像を交互に撮像して、背景画像および斜光画像のペアを224セット、合計448枚を撮像し、224枚の強調画像を比較明合成することにより(B)に示す拓本画像を生成した。総作業時間は4分47秒であった。第4の実施例では、平滑化処理にガウシアンフィルタを用いた。これにより、リアルタイムでの画像転送および画像処理装置でのリアルタイムでの画像処理が可能となった。 For the object shown in (A), background images and oblique light images are alternately imaged, 224 sets of background image and oblique light image pairs are imaged, a total of 448 images are imaged, and 224 emphasized images are comparatively brightly combined. The Takumoto image shown in (B) was generated. The total working time was 4 minutes and 47 seconds. In the fourth embodiment, a Gaussian filter was used for the smoothing treatment. This enables real-time image transfer and real-time image processing with an image processing device.

図19は、第5の実施例に係る画像である。(A)は複数の低輝度強調画像を比較明合成することにより生成した拓本画像であり、(B)は低輝度強調画像および高輝度強調画像の合成画像を複数生成し比較明合成することにより生成した拓本画像である。 FIG. 19 is an image according to the fifth embodiment. (A) is a rubbing image generated by comparatively brightly synthesizing a plurality of low-luminance-enhanced images, and (B) is a composite image of a plurality of low-luminance-enhanced images and high-luminance-enhanced images generated by comparatively brightly synthesizing. This is the generated Takumoto image.

(A)および(B)に示す拓本画像の生成には、全く同じソースデータの背景画像および斜光画像が用いられた。(A)および(B)の拓本画像を比較すると、石碑に彫刻されている文字(梵字)の字形は、(B)に示す拓本画像の方が(A)に示す拓本画像よりもより鮮明であることが確認された。 A background image and an oblique light image of exactly the same source data were used to generate the rubbing images shown in (A) and (B). Comparing the rubbing images of (A) and (B), the character shape of the character (rubbing character) engraved on the stone monument is clearer in the rubbing image shown in (B) than in the rubbing image shown in (A). It was confirmed that there was.

以上、第1の実施例〜第5の実施例を通じて、本発明の画像処理装置は、迅速かつ簡便に対象物の拓本画像を生成することが可能であることが確認された。 As described above, through the first to fifth examples, it was confirmed that the image processing apparatus of the present invention can quickly and easily generate a rubbing image of an object.

1 画像処理装置
2 外部撮像装置
3 光源
4 光学レンズ
5 三脚
8 凹凸
9 対象物(石碑)
11 撮像部
12 データ処理部
13 補助記憶装置
14 入力部
15 表示部
16 通信インタフェース部
21 背景画像取得部
22 斜光画像取得部
23 輝度変化画像生成部
24 平滑化画像生成部
25 強調画像生成部
26 強調画像合成部
31 背景画像
32 斜光画像
33 輝度変化画像
34 平滑化画像
35 強調画像
P 画像処理プログラム
1 Image processing device 2 External imaging device 3 Light source 4 Optical lens 5 Tripod 8 Concavo-convex 9 Object (stone monument)
11 Imaging unit 12 Data processing unit 13 Auxiliary storage device 14 Input unit 15 Display unit 16 Communication interface unit 21 Background image acquisition unit 22 Oblique image acquisition unit 23 Brightness change image generation unit 24 Smoothing image generation unit 25 Emphasis image generation unit 26 Emphasis Image synthesizer 31 Background image 32 Oblique image 33 Brightness change image 34 Smoothed image 35 Emphasis image P Image processing program

Claims (6)

対象物の表面に形成された凹凸を含む背景画像を取得する背景画像取得部と、
前記表面の少なくとも一部に斜めの光が照射された斜光画像を取得する斜光画像取得部と、
前記斜光画像および前記背景画像に基づいて、前記光が照射されたことによる輝度変化を表す輝度変化画像を生成する輝度変化画像生成部と、
前記輝度変化画像に平滑化処理を適用して、平滑化画像を生成する平滑化画像生成部と、
前記平滑化画像および前記輝度変化画像に基づいて、前記凹凸が強調された強調画像を生成する強調画像生成部と、
を備え
前記輝度変化画像生成部は、前記斜光画像と前記背景画像との差分により、前記輝度変化画像を生成し、
前記強調画像生成部は、前記平滑化画像と前記輝度変化画像との差分により、前記強調画像を生成し、
前記強調画像生成部は、
前記平滑化画像と、前記輝度変化画像の前記平滑化画像よりも輝度が低い部分との差分により低輝度強調画像を生成し、
前記輝度変化画像の前記平滑化画像よりも輝度が高い部分と、前記平滑化画像との差分により高輝度強調画像を生成し、
前記低輝度強調画像および前記高輝度強調画像を合成して、前記強調画像を生成する、画像処理装置。
A background image acquisition unit that acquires a background image including irregularities formed on the surface of an object,
An oblique light image acquisition unit that acquires an oblique light image in which at least a part of the surface is irradiated with oblique light,
A luminance change image generation unit that generates a luminance change image representing a luminance change due to irradiation of the light based on the oblique light image and the background image.
A smoothed image generation unit that generates a smoothed image by applying a smoothing process to the luminance change image,
An enhanced image generation unit that generates an enhanced image in which the unevenness is emphasized based on the smoothed image and the brightness change image.
Equipped with a,
The brightness change image generation unit generates the brightness change image by the difference between the oblique light image and the background image.
The enhanced image generation unit generates the enhanced image based on the difference between the smoothed image and the brightness change image.
The emphasized image generation unit
A low-brightness enhanced image is generated by the difference between the smoothed image and a portion of the brightness-changing image whose brightness is lower than that of the smoothed image.
A high-luminance enhanced image is generated by the difference between the portion of the brightness-changing image having a higher brightness than the smoothed image and the smoothed image.
Wherein by combining the low brightness enhanced image and the high brightness enhanced image, that generates the enhanced image, the image processing apparatus.
前記平滑化画像生成部は、前記平滑化処理として、平滑化フィルタ、メディアンフィルタ、およびガウシアンフィルタのいずれか一つまたはこれらの組み合わせを、前記輝度変化画像に適用して前記平滑化画像を生成する、請求項1に記載の画像処理装置。 As the smoothing process, the smoothed image generation unit applies any one or a combination of a smoothing filter, a median filter, and a Gaussian filter to the brightness change image to generate the smoothed image. , The image processing apparatus according to claim 1. 前記斜光画像取得部は、前記光の照射領域が異なる複数の前記斜光画像を取得し、
前記照射領域が異なる前記斜光画像のそれぞれについて作成された複数の前記強調画像を合成する強調画像合成部をさらに備える、請求項1または2に記載の画像処理装置。
The oblique light image acquisition unit acquires a plurality of the oblique light images having different light irradiation regions, and obtains the oblique light images.
The image processing apparatus according to claim 1 or 2 , further comprising a emphasized image synthesizing unit for synthesizing a plurality of the enhanced images created for each of the oblique light images having different irradiation regions.
前記強調画像合成部は、前記強調画像内の前記凹凸の輝度に基づいて、複数の前記強調画像を比較明合成する、請求項に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein the enhanced image synthesizing unit comparatively brightly synthesizes a plurality of the enhanced images based on the brightness of the unevenness in the enhanced image. 対象物の表面に形成された凹凸を含む背景画像を取得する背景画像取得ステップと、
前記表面の少なくとも一部に斜めの光が照射された斜光画像を取得する斜光画像取得ステップと、
前記斜光画像および前記背景画像に基づいて、前記光が照射されたことによる輝度変化を表す輝度変化画像を生成する輝度変化画像生成ステップと、
前記輝度変化画像に平滑化処理を適用して、平滑化画像を生成する平滑化画像生成ステップと、
前記平滑化画像および前記輝度変化画像に基づいて、前記凹凸が強調された強調画像を生成する強調画像生成ステップと、
を含み、
前記輝度変化画像生成ステップは、前記斜光画像と前記背景画像との差分により、前記輝度変化画像を生成し、
前記強調画像生成ステップは、前記平滑化画像と前記輝度変化画像との差分により、前記強調画像を生成し、
前記強調画像生成ステップは、
前記平滑化画像と、前記輝度変化画像の前記平滑化画像よりも輝度が低い部分との差分により低輝度強調画像を生成し、
前記輝度変化画像の前記平滑化画像よりも輝度が高い部分と、前記平滑化画像との差分により高輝度強調画像を生成し、
前記低輝度強調画像および前記高輝度強調画像を合成して、前記強調画像を生成する、画像処理方法。
A background image acquisition step for acquiring a background image including irregularities formed on the surface of an object, and
An oblique light image acquisition step of acquiring an oblique light image in which at least a part of the surface is irradiated with oblique light, and
A brightness change image generation step of generating a brightness change image representing a brightness change due to irradiation of the light based on the oblique light image and the background image.
A smoothing image generation step of applying a smoothing process to the brightness change image to generate a smoothed image,
A highlight image generation step of generating a emphasized image in which the unevenness is emphasized based on the smoothed image and the brightness change image, and
Only including,
The brightness change image generation step generates the brightness change image by the difference between the oblique light image and the background image.
In the enhanced image generation step, the enhanced image is generated by the difference between the smoothed image and the brightness change image.
The enhanced image generation step
A low-luminance enhanced image is generated by the difference between the smoothed image and a portion of the brightness-changing image whose brightness is lower than that of the smoothed image.
A high-luminance enhanced image is generated by the difference between the portion of the brightness-changing image having a higher brightness than the smoothed image and the smoothed image.
An image processing method for generating the enhanced image by synthesizing the low-luminance-enhanced image and the high-luminance-enhanced image.
請求項1からに記載の画像処理装置の各部として、コンピュータを機能させるためのプログラム。 A program for operating a computer as each part of the image processing apparatus according to claims 1 to 4.
JP2019127698A 2019-07-09 2019-07-09 Image processing equipment, image processing methods and programs Active JP6903348B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019127698A JP6903348B2 (en) 2019-07-09 2019-07-09 Image processing equipment, image processing methods and programs
JP2021073609A JP6957068B2 (en) 2019-07-09 2021-04-23 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019127698A JP6903348B2 (en) 2019-07-09 2019-07-09 Image processing equipment, image processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021073609A Division JP6957068B2 (en) 2019-07-09 2021-04-23 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2021012641A JP2021012641A (en) 2021-02-04
JP6903348B2 true JP6903348B2 (en) 2021-07-14

Family

ID=74226663

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019127698A Active JP6903348B2 (en) 2019-07-09 2019-07-09 Image processing equipment, image processing methods and programs
JP2021073609A Active JP6957068B2 (en) 2019-07-09 2021-04-23 Image processing equipment, image processing methods and programs

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021073609A Active JP6957068B2 (en) 2019-07-09 2021-04-23 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (2) JP6903348B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3204234B2 (en) * 1998-12-15 2001-09-04 日本電気株式会社 Apparatus for enhancing unevenness information and method for enhancing unevenness information
JP5784435B2 (en) * 2011-09-20 2015-09-24 オリンパス株式会社 Image processing apparatus, fluorescence microscope apparatus, and image processing program
JP6045429B2 (en) * 2013-04-10 2016-12-14 オリンパス株式会社 Imaging apparatus, image processing apparatus, and image processing method
JP6598660B2 (en) * 2015-12-01 2019-10-30 キヤノン株式会社 Image processing apparatus and image processing method
JP7043787B2 (en) * 2017-10-25 2022-03-30 株式会社Ihi Object detection system

Also Published As

Publication number Publication date
JP2021106057A (en) 2021-07-26
JP6957068B2 (en) 2021-11-02
JP2021012641A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
Lin et al. Three-dimensional shape measurement technique for shiny surfaces by adaptive pixel-wise projection intensity adjustment
Earl et al. Reflectance Transformation Imaging (RTI) System for Ancient Documentary Artefacts
Lerma et al. Evaluating the 3D documentation of an early Christian upright stone with carvings from Scotland with multiples images
Mudg et al. Principles and practices of robust, photography-based digital imaging techniques for museums
JP2018006981A5 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2016173477A5 (en)
Gouezo et al. Underwater macrophotogrammetry to monitor in situ benthic communities at submillimetre scale
JP6957068B2 (en) Image processing equipment, image processing methods and programs
Gonzalez-Aguilera et al. New tools for rock art modelling: automated sensor integration in Pindal Cave
Zendagui et al. Quality assessment of dynamic virtual relighting from rti data: application to the inspection of engineering surfaces
Zhou et al. Automatic, point-wise rock image enhancement by novel unsupervised deep learning: Dataset establishment and model development
CN115428430A (en) Image processing method, program and image processing device
Mittica et al. 26. Low-cost Structure from Motion Technology
García-Bustos et al. 3D Recording of Palaeolithic Rock Art through Different Techniques: a Critical Comparison and Evaluation
Monti et al. Image processing and a virtual restoration hypothesis for mosaics and their cartoons
van der Merwe Comparing structured light and structure-from-motion modelling techniques at Malapa to determine their utility within the African archaeological context
JP6897431B2 (en) Image processing device, setting support method, and setting support program
Li et al. Realistic simulation of underwater scene for image enhancement
Makris et al. Digitization of Athens School of Fine Arts artworks based on optical 3-D Scanning and Photogrammetry
Jain Feature Fusion Attention Network with CycleGAN for Image Dehazing, De-Snowing and De-Raining
JP2015005018A (en) Image processing apparatus, image processing method, and program
Rummel Pottery from Motion–A Refined Approach to the Large-Scale Documentation of Pottery Using Structure from Motion
Memon et al. A NEW REAL-WORLD HAZY IMAGE DATASET FOR IMAGE ENHANCEMENT AND RECOGNITION
Chatar et al. Software-Based Three-Dimensional Scan of a Drill Bit; Advances in Technology and Applications
Uueni et al. The combination of 3d and multispectral imaging for scientific visualization–tool for conservation and heritage specialists

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190730

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210616

R150 Certificate of patent or registration of utility model

Ref document number: 6903348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250