[go: up one dir, main page]

JP7613644B1 - PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS - Google Patents

PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS Download PDF

Info

Publication number
JP7613644B1
JP7613644B1 JP2024544533A JP2024544533A JP7613644B1 JP 7613644 B1 JP7613644 B1 JP 7613644B1 JP 2024544533 A JP2024544533 A JP 2024544533A JP 2024544533 A JP2024544533 A JP 2024544533A JP 7613644 B1 JP7613644 B1 JP 7613644B1
Authority
JP
Japan
Prior art keywords
image
order diffracted
diffracted light
zeroth
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024544533A
Other languages
Japanese (ja)
Other versions
JPWO2024190816A1 (en
Inventor
孝次 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Publication of JPWO2024190816A1 publication Critical patent/JPWO2024190816A1/ja
Application granted granted Critical
Publication of JP7613644B1 publication Critical patent/JP7613644B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/30Identification or security features, e.g. for preventing forgery
    • B42D25/328Diffraction gratings; Holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/02Details of features involved during the holographic process; Replication of holograms without interference recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/01Details
    • G06K7/015Aligning or centering of the sensing device with respect to the record carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Analysis (AREA)

Abstract

プログラムは、照明を照射した対象物を撮像した画像を取得し、前記画像から前記対象物の位置を検出し、前記画像から0次回折光の照射位置を検出し、検出された前記対象物の位置及び前記0次回折光の照射位置に応じて、前記0次回折光の照射位置を前記対象物上の所定位置に誘導するためのオブジェクトを前記画像に重畳して表示する処理をコンピュータに実行させる。The program causes a computer to execute a process of acquiring an image of an object illuminated with light, detecting the position of the object from the image, detecting the irradiation position of the zeroth-order diffracted light from the image, and superimposing on the image an object for guiding the irradiation position of the zeroth-order diffracted light to a predetermined position on the object according to the detected position of the object and the irradiation position of the zeroth-order diffracted light.

Description

本発明は、プログラム、情報処理方法及び情報処理装置に関する。 The present invention relates to a program, an information processing method, and an information processing device.

ブランドプロテクションなど、偽造防止の目的でホログラムが使用されている。しかしながら、ホログラム製品に精通している専門家はともかく、ホログラムについて知識を有しないエンドユーザはホログラムがどのような状態になれば真のものであるか区別がつかず、真贋判定が難しいという問題がある。 Holograms are used for brand protection and other anti-counterfeiting purposes. However, apart from experts who are familiar with hologram products, end users who have no knowledge of holograms cannot distinguish what state a hologram must be in to be genuine, making it difficult to determine its authenticity.

例えば特許文献1では、真贋判定対象物に設けられた偽造防止媒体(ホログラム等)の真贋判定を支援するための真贋判定支援装置であって、対象物を撮像した撮像画像と、真の偽造防止媒体が出射する光のパターンを示す正解画像とを並べた画像データを生成して出力する真贋判定支援装置等が開示されている。For example, Patent Document 1 discloses an authenticity determination support device for supporting the determination of authenticity of an anti-counterfeiting medium (such as a hologram) attached to an object to be subjected to authenticity determination, which generates and outputs image data that juxtaposes an image of the object and a correct answer image showing the light pattern emitted by the genuine anti-counterfeiting medium.

国際公開第2016/190107号International Publication No. 2016/190107

一つの側面では、真贋判定を好適に支援することができるプログラム等を提供することを目的とする。 On one aspect, the objective is to provide a program or the like that can effectively assist in determining authenticity.

一つの側面では、プログラムは、照明を照射した対象物を撮像した画像を取得し、前記画像から前記対象物の位置を検出し、前記画像から0次回折光の照射位置を検出し、検出された前記対象物の位置及び前記0次回折光の照射位置に応じて、前記0次回折光の照射位置を前記対象物上の所定位置に誘導するためのオブジェクトを前記画像に重畳して表示する処理をコンピュータに実行させる。In one aspect, the program causes a computer to execute a process of acquiring an image of an object illuminated with light, detecting the position of the object from the image, detecting the irradiation position of the zeroth-order diffracted light from the image, and superimposing an object on the image to guide the irradiation position of the zeroth-order diffracted light to a predetermined position on the object according to the detected position of the object and the irradiation position of the zeroth-order diffracted light.

一つの側面では、真贋判定を好適に支援することができる。 In one aspect, it can effectively assist in determining authenticity.

真贋判定システムの構成例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of the configuration of an authenticity determination system. ホログラム部に関する説明図である。FIG. 2 is an explanatory diagram of a hologram portion. サーバの構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a server. 端末の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a terminal. 輝点誘導処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a bright point induction process. 輝点誘導処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a bright point induction process. 第1矩形領域の描画処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a drawing process of a first rectangular area. 第1矩形領域の描画処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a drawing process of a first rectangular area. 第2矩形領域の描画処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a drawing process of a second rectangular area. 第2矩形領域の描画処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a drawing process of a second rectangular area. ホログラム部の切り出し処理に関する説明図である。FIG. 11 is an explanatory diagram regarding a cut-out process of a hologram portion. ホログラム部の切り出し処理に関する説明図である。FIG. 11 is an explanatory diagram regarding a cut-out process of a hologram portion. ホログラム部の切り出し処理に関する説明図である。FIG. 11 is an explanatory diagram regarding a cut-out process of a hologram portion. ホログラム部の切り出し処理に関する説明図である。FIG. 11 is an explanatory diagram regarding a cut-out process of a hologram portion. 真贋判定処理に関する説明図である。FIG. 11 is an explanatory diagram regarding an authenticity determination process. 真贋判定処理に関する説明図である。FIG. 11 is an explanatory diagram regarding an authenticity determination process. 真贋判定処理に関する説明図である。FIG. 11 is an explanatory diagram regarding an authenticity determination process. 真贋判定システムが実行する処理手順の一例を示すフローチャートである。11 is a flowchart illustrating an example of a processing procedure executed by the authenticity determination system. 実施の形態2の概要を示す説明図である。FIG. 11 is an explanatory diagram showing an overview of a second embodiment. 実施の形態2に係る真贋判定システムが実行する処理手順を示すフローチャートである。13 is a flowchart showing a processing procedure executed by the authenticity determining system according to the second embodiment;

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、真贋判定システムの構成例を示す説明図である。本実施の形態では、ホログラム上に輝点(0次回折光)の位置が合うようにユーザを誘導し、ホログラム上に輝点が重なった撮像画像から真贋判定を行う真贋判定システムについて説明する。真贋判定システムは、サーバ1、端末2を含む。各装置は、インターネット等のネットワークNを介して通信接続されている。
The present invention will now be described in detail with reference to the drawings showing embodiments thereof.
(Embodiment 1)
1 is an explanatory diagram showing an example of the configuration of an authenticity determination system. In this embodiment, an authenticity determination system is described that guides a user to align the position of a bright spot (zeroth-order diffracted light) on a hologram and performs authenticity determination from a captured image in which the bright spot is superimposed on the hologram. The authenticity determination system includes a server 1 and a terminal 2. Each device is communicatively connected via a network N such as the Internet.

サーバ1は、種々の情報処理、情報の送受信を行うサーバコンピュータである。後述するように、サーバ1は、真贋判定対象物3を撮像した画像に基づき、真贋判定対象物3の真贋を判定する処理を行う。The server 1 is a server computer that performs various information processing and information transmission and reception. As described below, the server 1 performs processing to determine the authenticity of the authenticity determination target object 3 based on an image of the authenticity determination target object 3.

端末2は、本システムのユーザが使用する情報処理端末であり、例えばスマートフォン、タブレット端末等である。端末2は、照明光を照射する光源(例えばLED(Light-Emitting Diode)ライト)と、被写体を撮像するカメラとを備え、照明光を照射した真贋判定対象物3を撮像する。端末2は、撮像した画像をサーバ1に送信し、真贋判定を行わせる。 Terminal 2 is an information processing terminal used by a user of the system, such as a smartphone or tablet terminal. Terminal 2 is equipped with a light source (e.g., an LED (Light-Emitting Diode) light) that irradiates illumination light, and a camera that captures an image of a subject, and captures an image of an object 3 to be subjected to authenticity determination illuminated with illumination light. Terminal 2 transmits the captured image to server 1, which performs an authenticity determination.

本実施の形態において真贋判定対象物3には、ホログラム部30が付与されている。図2は、ホログラム部30に関する説明図である。図2に示すように、ホログラム部30には円環状にホログラム部分が設けられており、照明の照射を受けると反射光が所定色に回折して見える。具体的には、照明光の輝点(0次回折光(正反射光))がホログラム部30の中央に位置する場合、輝点より上側の領域ではオレンジの波長が回折して見え、下側の領域ではグリーンの波長が回折して見える。このようなホログラムとして、特許第4338124号公報に記載のホログラム記録体を採用することができる。In this embodiment, the object 3 to be determined for authenticity is provided with a hologram section 30. FIG. 2 is an explanatory diagram of the hologram section 30. As shown in FIG. 2, the hologram section 30 has a hologram portion in a circular ring shape, and when illuminated, the reflected light appears to diffract in a predetermined color. Specifically, when the bright spot (zeroth-order diffracted light (specularly reflected light)) of the illumination light is located at the center of the hologram section 30, orange wavelengths appear to be diffracted in the area above the bright spot, and green wavelengths appear to be diffracted in the area below the bright spot. As such a hologram, the hologram recording medium described in Japanese Patent Publication No. 4338124 can be used.

なお、後述の変形例のように、ホログラムはオレンジ及びグリーンの波長が回折して見えるホログラム(複数色に回折して見えるリップマンホログラム)に限定されず、例えば単色の波長が回折して見えるホログラム、2色以上(複数色)に回折して見えるホログラム等であってもよい。また、真贋判定対象は真贋判定が可能な光学的構造体であればよく、例えばホログラム以外に回折格子等であってもよい。 As in the modified example described below, the hologram is not limited to a hologram in which orange and green wavelengths are diffracted (a Lippmann hologram in which the wavelength is diffracted into multiple colors), but may be, for example, a hologram in which a single color wavelength is diffracted, or a hologram in which the wavelength is diffracted into two or more colors (multiple colors). Furthermore, the subject of authenticity determination may be any optical structure that allows for authenticity determination, and may be, for example, a diffraction grating or the like in addition to a hologram.

また、本実施の形態ではホログラムが円環状に設けられているものとして説明するが、ホログラムの形状、模様等は特に問わない。これに伴い、後述する輝点の目標位置もホログラム部30の中央から異なる位置に変わり得る。In addition, in this embodiment, the hologram is described as being arranged in a circular ring shape, but the shape and pattern of the hologram are not particularly important. Accordingly, the target position of the bright spot, which will be described later, may be changed to a position different from the center of the hologram section 30.

ところで、ホログラム部30について知識を有する専門家であれば、真贋判定を行うために0次回折光の照射位置(輝点の位置)をホログラム部30の中央に合わせるべきことはわかるが、知識を有しないエンドユーザの場合、0次回折光の照射位置をどこに合わせていいかわからないことが予想される。そこで本実施の形態では、撮像時において輝点と目標位置とを結ぶ誘導線35を表示画面に描画、重畳することで、エンドユーザが容易に撮像操作を行うことができるように支援する(図5A、B参照)。 Meanwhile, an expert with knowledge of the hologram section 30 knows that the irradiation position of the zeroth-order diffracted light (position of the bright spot) should be aligned with the center of the hologram section 30 in order to determine authenticity, but an end user without such knowledge is expected to not know where to align the irradiation position of the zeroth-order diffracted light. Therefore, in this embodiment, a guide line 35 that connects the bright spot and the target position during imaging is drawn and superimposed on the display screen to assist the end user in easily performing imaging operations (see Figures 5A and B).

図3は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムP1を読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。補助記憶部14は、大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP1(プログラム製品)、その他のデータを記憶している。
3 is a block diagram showing an example of the configuration of the server 1. The server 1 includes a control unit 11, a main memory unit 12, a communication unit 13, and an auxiliary memory unit .
The control unit 11 has one or more arithmetic processing devices such as a central processing unit (CPU), a micro-processing unit (MPU), a graphics processing unit (GPU), etc., and performs various information processing, control processing, etc. by reading and executing a program P1 stored in the auxiliary storage unit 14. The main storage unit 12 is a temporary storage area such as a static random access memory (SRAM) or a dynamic random access memory (DRAM), and temporarily stores data required for the control unit 11 to execute arithmetic processing. The communication unit 13 is a communication module for performing processing related to communication, and transmits and receives information to and from the outside. The auxiliary storage unit 14 is a non-volatile storage area such as a large-capacity memory or a hard disk, and stores the program P1 (program product) and other data required for the control unit 11 to execute processing.

なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。The auxiliary storage unit 14 may be an external storage device connected to the server 1. The server 1 may be a multi-computer consisting of multiple computers, or may be a virtual machine virtually constructed by software.

また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、CD(Compact Disk)-ROM、DVD(Digital Versatile Disc)-ROM等の可搬型記憶媒体1aを読み取る読取部を備え、可搬型記憶媒体1aからプログラムP1を読み取って実行するようにしても良い。 In the present embodiment, the server 1 is not limited to the above configuration, and may include, for example, an input unit for accepting operational input, a display unit for displaying images, etc. The server 1 may also include a reading unit for reading portable storage medium 1a such as a CD (Compact Disk)-ROM or a DVD (Digital Versatile Disc)-ROM, and may read and execute the program P1 from the portable storage medium 1a.

図4は、端末2の構成例を示すブロック図である。端末2は、制御部21、主記憶部22、通信部23、表示部24、入力部25、撮像部26、光源27、及び補助記憶部28を備える。
制御部21は、一又は複数のCPU等のプロセッサを有し、補助記憶部28に記憶されたプログラムP2を読み出して実行することにより、種々の情報処理を行う。主記憶部22は、RAM等の一時記憶領域であり、制御部21が演算処理を実行するために必要なデータを一時的に記憶する。通信部23は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。表示部24は、液晶ディスプレイ等の表示画面であり、画像を表示する。入力部25は、タッチパネル等の操作インターフェイスであり、ユーザから操作入力を受け付ける。撮像部26は、CMOS(Complementary Metal-Oxide-Semiconductor)センサ等の撮像素子を備えるカメラであり、画像を撮像する。光源27は照明光を照射する光源であり、例えばLEDライトである。補助記憶部28は、ハードディスク等の不揮発性記憶領域であり、制御部21が処理を実行するために必要なプログラムP2(プログラム製品)、その他のデータを記憶している。
4 is a block diagram showing an example of the configuration of the terminal 2. The terminal 2 includes a control unit 21, a main memory unit 22, a communication unit 23, a display unit 24, an input unit 25, an imaging unit 26, a light source 27, and an auxiliary memory unit 28.
The control unit 21 has one or more processors such as a CPU, and performs various information processing by reading and executing the program P2 stored in the auxiliary storage unit 28. The main storage unit 22 is a temporary storage area such as a RAM, and temporarily stores data necessary for the control unit 21 to execute arithmetic processing. The communication unit 23 is a communication module for performing processing related to communication, and transmits and receives information to and from the outside. The display unit 24 is a display screen such as a liquid crystal display, and displays images. The input unit 25 is an operation interface such as a touch panel, and accepts operation input from a user. The imaging unit 26 is a camera equipped with an imaging element such as a CMOS (Complementary Metal-Oxide-Semiconductor) sensor, and captures images. The light source 27 is a light source that irradiates illumination light, and is, for example, an LED light. The auxiliary storage unit 28 is a non-volatile storage area such as a hard disk, and stores the program P2 (program product) and other data necessary for the control unit 21 to execute processing.

なお、端末2は、CD-ROM等の可搬型記憶媒体2aを読み取る読取部を備え、可搬型記憶媒体2aからプログラムP2を読み取って実行するようにしても良い。 The terminal 2 may also be provided with a reading unit that reads a portable storage medium 2a such as a CD-ROM, and may read and execute the program P2 from the portable storage medium 2a.

図5A、Bは、輝点誘導処理に関する説明図である。図5A、Bでは、撮像時における端末2の表示画面であって、輝点位置をホログラム部30上の目標位置(中央)に誘導するための誘導線35を重畳表示し(図5A)、輝点が目標位置に重なった場合にホログラム部30を切り出す様子(図5B)を図示している。以下では本実施の形態の概要を説明する。 Figures 5A and 5B are explanatory diagrams relating to the bright spot guidance process. Figures 5A and 5B show the display screen of the terminal 2 during imaging, in which a guidance line 35 for guiding the bright spot position to a target position (center) on the hologram section 30 is superimposed (Figure 5A), and the hologram section 30 is cut out when the bright spot overlaps the target position (Figure 5B). An overview of this embodiment is provided below.

端末2は、ユーザによる操作に従って真贋判定対象物3のホログラム部30を撮像する。端末2はまず、撮像されたフレーム画像から、ホログラム部30に予め付与されたマーカ31を検出する。マーカ31は、ホログラム部30の位置を検出可能とすべく付与されたマーカであり、例えばARUcoマーカである。マーカ31は、矩形状のホログラム部30の対角に付与されている。端末2は、マーカ31の位置を検出することでホログラム部30(対象物)の位置を検出する。The terminal 2 captures an image of the hologram section 30 of the object 3 to be authenticated in accordance with a user's operation. The terminal 2 first detects a marker 31 that has been pre-attached to the hologram section 30 from the captured frame image. The marker 31 is a marker that has been added to enable detection of the position of the hologram section 30, and is, for example, an ARUco marker. The marker 31 is added to the diagonal of the rectangular hologram section 30. The terminal 2 detects the position of the hologram section 30 (object) by detecting the position of the marker 31.

なお、本実施の形態ではマーカ31がARUcoマーカであるものとして説明するが、本実施の形態はこれに限定されるものではない。例えばマーカ31をQRコード(登録商標)としてもよい。例えば端末2は、QRコードとホログラム部30との相対位置を予め保持しておき、フレーム画像からQRコードの位置を検出して、検出したQRコードの位置と、予め規定されている相対位置とからホログラム部30の位置を検出する。このように、マーカ31としてQRコードを採用してもよい。 Note that, in this embodiment, the marker 31 is described as an ARUco marker, but this embodiment is not limited to this. For example, the marker 31 may be a QR code (registered trademark). For example, the terminal 2 stores in advance the relative position between the QR code and the hologram section 30, detects the position of the QR code from the frame image, and detects the position of the hologram section 30 from the position of the detected QR code and a predefined relative position. In this way, a QR code may be adopted as the marker 31.

なお、例えばQRコード自体にQRコードとホログラム部30との相対位置情報を埋め込んでおき、端末2が相対位置情報を読み出すことでホログラム部30の位置を検出可能としてもよい。 For example, relative position information between the QR code and the hologram section 30 may be embedded in the QR code itself, and the terminal 2 may be able to detect the position of the hologram section 30 by reading the relative position information.

端末2は、検出したマーカ31の位置に基づき、ホログラム部30を囲うように描画される第1矩形領域32と、ホログラム部30の中央、すなわち輝点の目標位置に描画される第2矩形領域33とを重畳表示する。Based on the position of the detected marker 31, the terminal 2 superimposes and displays a first rectangular area 32 that is drawn to surround the hologram section 30 and a second rectangular area 33 that is drawn in the center of the hologram section 30, i.e., at the target position of the bright point.

図6A、Bは、第1矩形領域32の描画処理に関する説明図である。端末2はホログラム部30の対角に配置されたマーカ31の頂点A、Bの位置に基づき、中点Cの座標を算出する。また、頂点A、BのX方向の距離ABと、Y方向の距離ABとを算出する。そして端末2は、中点Cを中心とし、AB、ABのうち長い方を一辺とする正方形の対角座標DA0、DB0を算出する。端末2は、DA0、DB0を対角とする正方形を第1矩形領域32として描画する。 6A and 6B are explanatory diagrams relating to the drawing process of the first rectangular area 32. The terminal 2 calculates the coordinates of the midpoint C based on the positions of vertices A and B of the marker 31 arranged at diagonal corners of the hologram unit 30. The terminal 2 also calculates the distance ABX in the X direction and the distance ABY in the Y direction between the vertices A and B. The terminal 2 then calculates the diagonal coordinates DA0 and DB0 of a square with the midpoint C at its center and the longer of ABX and ABY as one side. The terminal 2 draws the square with DA0 and DB0 as its diagonal corners as the first rectangular area 32.

図7A、Bは、第2矩形領域33の描画処理に関する説明図である。端末2は、第1矩形領域32を描画したときと同様に、中点Cの座標、及び距離AB、ABを算出する。そして端末2は、AB、ABのうち長い方に所定倍率(例えば0.2倍)を乗算することで短くした長辺を算出し、中点Cを中心として、算出した長辺を一辺とする正方形の対角座標DA1、DB1を算出する。端末2は、DA1、DB1を対角とする正方形を第2矩形領域33として描画する。 7A and 7B are explanatory diagrams relating to the drawing process of the second rectangular area 33. Terminal 2 calculates the coordinates of midpoint C and distances ABX and ABY in the same way as when drawing the first rectangular area 32. Terminal 2 then calculates the shorter long side by multiplying the longer of ABX and ABY by a predetermined magnification (e.g., 0.2 times), and calculates the diagonal coordinates DA1 and DB1 of a square with the calculated long side as one side and centered on midpoint C. Terminal 2 draws the square with DA1 and DB1 as diagonals as the second rectangular area 33.

図5A、Bに戻って説明を続ける。端末2は更に、フレーム画像から輝点の位置(0次回折光の照射位置)を検出し、輝点の範囲(0次回折光の照射範囲)に相当する円形の輝点領域34をフレーム画像に重畳表示する。5A and 5B for further explanation. Terminal 2 further detects the position of the bright spot (the irradiation position of the zeroth-order diffracted light) from the frame image, and displays a circular bright spot area 34 corresponding to the range of the bright spot (the irradiation range of the zeroth-order diffracted light) superimposed on the frame image.

なお、ここで言う輝点とは、撮像画像において一般的に白飛び部と言われる部分を指す。例えば輝点とは、孤立点でない、概ね円形の連続領域であって、撮像画像においてハイライト部の階調性が失われた部分を含んだ一定領域のことをいう。The bright spot referred to here is what is generally called a blown-out highlight in a captured image. For example, a bright spot is not an isolated point, but a roughly circular continuous area that includes a certain area in the captured image where the gradation of the highlights has been lost.

例えば端末2は、画像の明度及び彩度に基づいて明度のヒストグラムを作成し、輝点検出のための明度の閾値を算出する。端末2は、明度が当該閾値以上であり、かつ、彩度が所定の閾値以下である画素を輝点ドットとして検出し、輝点ドットが連続する連続領域を検出する。なお、上記検出方法以外では、例えばRGB値が各8ビットの画像の場合、3色全てが250以上など、所定値以上のドットを輝点ドットとして検出してもよい。For example, terminal 2 creates a brightness histogram based on the brightness and saturation of the image, and calculates a brightness threshold value for bright spot detection. Terminal 2 detects pixels whose brightness is equal to or greater than the threshold value and whose saturation is equal to or less than a predetermined threshold value as bright spot dots, and detects continuous areas where bright spot dots are continuous. In addition to the above detection method, for example, in the case of an image with 8-bit RGB values, dots whose all three colors are equal to or greater than a predetermined value, such as 250, may be detected as bright spot dots.

端末2は、検出した一又は複数の連続領域のうち、平均輝度が最大の領域を0次回折光の領域として抽出する。端末2は、抽出した領域の重心を輝点の中心とする。端末2は、最終的な輝点領域34が円形であるものと仮定し、0次回折光の領域の面積(ドット数)から半径を算出する。端末2は、算出した半径と、上記で特定した輝点の中心とに基づいて輝点領域34を描画する。The terminal 2 extracts the area with the maximum average brightness from the detected continuous area or areas as the area of the zeroth-order diffracted light. The terminal 2 sets the center of gravity of the extracted area as the center of the bright spot. The terminal 2 assumes that the final bright spot area 34 is circular, and calculates the radius from the area (number of dots) of the area of the zeroth-order diffracted light. The terminal 2 draws the bright spot area 34 based on the calculated radius and the center of the bright spot identified above.

そして端末2は、上記で検出した輝点の位置と、ホログラム部30の位置とに基づき、輝点の位置(0次回折光の照射位置)をホログラム部30(対象物)上の所定位置に誘導するための誘導線35を重畳表示する。具体的には、端末2は、輝点領域34の中心から第2矩形領域33の中心に延びる矢印状のオブジェクトを描画する。Then, based on the position of the bright spot detected above and the position of the hologram section 30, the terminal 2 superimposes and displays a guiding line 35 for guiding the position of the bright spot (the irradiation position of the zeroth-order diffracted light) to a predetermined position on the hologram section 30 (object). Specifically, the terminal 2 draws an arrow-shaped object extending from the center of the bright spot region 34 to the center of the second rectangular region 33.

なお、矢印は誘導線35(オブジェクト)の一例であって、誘導線35に相当するオブジェクトの形状は矢印に限定されるものではない。例えば端末2は、単なる直線を描画するようにしてもよい。Note that an arrow is an example of a guiding line 35 (object), and the shape of the object corresponding to the guiding line 35 is not limited to an arrow. For example, the terminal 2 may simply draw a straight line.

ユーザは誘導線35を参照して、輝点領域34の中心が第2矩形領域33に重なるように端末2を操作する。端末2は、輝点の位置がホログラム上の目標位置に重なった場合、ホログラム部30に対応する画像領域をフレーム画像から切り出す。具体的には、端末2は、輝点領域34の中心が第2矩形領域33の座標範囲内に位置する場合、切り出し処理を実行する。 The user refers to the guiding line 35 and operates the terminal 2 so that the center of the bright spot area 34 overlaps with the second rectangular area 33. When the position of the bright spot overlaps with the target position on the hologram, the terminal 2 cuts out the image area corresponding to the hologram section 30 from the frame image. Specifically, when the center of the bright spot area 34 is located within the coordinate range of the second rectangular area 33, the terminal 2 executes the cut-out process.

図8~図10は、ホログラム部30の切り出し処理に関する説明図である。図8~図10では、ホログラム部30の切り出し処理の詳細を図示している。 Figures 8 to 10 are explanatory diagrams regarding the cut-out process of the hologram section 30. Figures 8 to 10 show the details of the cut-out process of the hologram section 30.

まず端末2は、図8に示すように、マーカ31の頂点A、B間の対角線に所定倍率(例えば0.1倍)を乗算したベクトルsABを算出する。端末2は、頂点A、BにベクトルsABを減算又は加算することで、頂点A、Bを拡張した頂点sA、sBを算出する。First, terminal 2 calculates vector sAB by multiplying the diagonal line between vertices A and B of marker 31 by a predetermined magnification (e.g., 0.1 times) as shown in Figure 8. Terminal 2 calculates vertices sA and sB by extending vertices A and B by subtracting or adding vector sAB to vertices A and B.

なお、領域(頂点A、B)の拡張は任意の処理であり、サーバ1がホログラム部30を適切に認識可能な大きさの画像領域を切り出し可能であればよい。 Note that expanding the area (vertices A and B) is an optional process as long as the server 1 can cut out an image area large enough to properly recognize the hologram section 30.

次に端末2は、図9Aに示すように、頂点sA、sBを結ぶベクトルsAsBを算出し、算出したベクトルsAsBの1/2のベクトルVを算出する。端末2は、図9Bに示すように、中点Cの座標と、算出したベクトルVとに基づいて、4つの頂点S0~S3を算出する。 Next, terminal 2 calculates vector sAsB connecting vertices sA and sB, and calculates vector V which is half of the calculated vector sAsB, as shown in Figure 9A. Terminal 2 calculates four vertices S0 to S3 based on the coordinates of midpoint C and the calculated vector V, as shown in Figure 9B.

そして端末2は、図10に示すように、頂点S0の座標から画像の回転角度θを算出し、画像に対して回転処理を加える。端末2は、S0~S3を頂点とし、回転処理を加えた画像領域をホログラム部30の画像として切り出す。 As shown in Figure 10, terminal 2 calculates the rotation angle θ of the image from the coordinates of vertex S0 and applies a rotation process to the image. Terminal 2 uses S0 to S3 as vertices and cuts out the image area that has been rotated as the image of hologram section 30.

図11及び図12A、Bは、真贋判定処理に関する説明図である。端末2は、切り出した画像をサーバ1に送信し、真贋判定を行わせる。図11では、真贋判定処理の概要を図示している。図12A、Bでは、真贋判定を行う上で輝点領域34を検出する様子(図12A)と、輝点領域34の重心位置を基点とした領域を複数の領域に分割する様子(図12B)とを図示している。 Figures 11 and 12A and B are explanatory diagrams relating to the authenticity determination process. The terminal 2 transmits the cut-out image to the server 1, which performs an authenticity determination. Figure 11 illustrates an overview of the authenticity determination process. Figures 12A and B illustrate how a bright spot region 34 is detected when performing an authenticity determination (Figure 12A), and how an area based on the center of gravity of the bright spot region 34 is divided into multiple regions (Figure 12B).

まずサーバ1は、端末2から取得した画像(RGB画像)を、色相、彩度及び明度で表したHSV画像に変換する。そしてサーバ1は、端末2が輝点領域34を特定した場合とほぼ同様にして、輝点の範囲(0次回折光の照射範囲)に相当する円形の画像領域を検出する。すなわち、サーバ1は、明度が閾値以上であり、かつ、彩度が閾値以下の輝点ドットを検出し、輝点ドットが連続する連続領域を検出する。サーバ1は、検出した連続領域の重心を輝点の中心とし、連続領域の面積に応じて円形領域の半径を算出することで、輝点領域34を検出する。これにより、図12Aに示すように、円形の輝点領域34が検出される。First, server 1 converts the image (RGB image) acquired from terminal 2 into an HSV image represented by hue, saturation, and brightness. Server 1 then detects a circular image area corresponding to the range of the bright spot (the irradiation range of the zeroth-order diffracted light) in a manner substantially similar to that in which terminal 2 identifies bright spot area 34. That is, server 1 detects bright spot dots whose brightness is equal to or greater than a threshold value and whose saturation is equal to or less than a threshold value, and detects continuous areas in which bright spot dots are continuous. Server 1 detects bright spot area 34 by setting the center of gravity of the detected continuous area as the center of the bright spot and calculating the radius of the circular area according to the area of the continuous area. As a result, a circular bright spot area 34 is detected, as shown in FIG. 12A.

次にサーバ1は、検出した輝点領域34の重心位置を基点とした領域を複数の領域に分割する。具体的には図12Bに示すように、サーバ1は、輝点の上側の領域をオレンジ検出領域36とし、輝点の下側の領域をグリーン検出領域37として、2つの領域に分割する。サーバ1は、輝点領域34の半径に所定倍率(例えば1.5倍)を乗算した距離Lを算出し、輝点領域34の中心から距離LだけY方向に拡張した距離範囲を除外する。サーバ1は、残りの領域を上下に分割し、上部をオレンジ検出領域36、下部をグリーン検出領域37とする。Next, server 1 divides the area based on the center of gravity of detected bright spot area 34 into multiple areas. Specifically, as shown in FIG. 12B, server 1 divides the area into two areas, with the area above the bright spot designated as orange detection area 36 and the area below the bright spot designated as green detection area 37. Server 1 calculates distance L by multiplying the radius of bright spot area 34 by a predetermined factor (e.g., 1.5 times), and excludes the distance range extended in the Y direction by distance L from the center of bright spot area 34. Server 1 divides the remaining area into upper and lower areas, with the upper area designated as orange detection area 36 and the lower area designated as green detection area 37.

サーバ1は、分割した各領域に所定の色成分が所定値以上の割合で存在するか否かを判定するか否かを判定することで、真贋判定を行う。 Server 1 performs authenticity determination by determining whether or not a specified color component is present in each divided area at a ratio equal to or greater than a specified value.

具体的には、サーバ1は、HSV画像の色相、彩度及び明度をそれぞれ閾値と比較することでオレンジ、グリーンの色成分の画素を検出し、検出した画素数が所定値以上であるか否かを判定する。サーバ1は、オレンジ検出領域36から、色相が所定の数値範囲内であり、かつ、彩度及び明度が所定の閾値以上の画素をオレンジドットとしてカウントする。また、同様にサーバ1は、グリーン検出領域37から、色相が所定の数値範囲内であり、かつ、彩度及び明度が所定の閾値以上の画素をグリーンドットとしてカウントする。サーバ1は、各領域においてカウントしたドット数が所定値以上であるか否かを判定する。双方の領域においてドット数が所定値以上であると判定した場合、サーバ1は、真贋判定対象物3が真のものであると判定する。Specifically, the server 1 detects pixels of orange and green color components by comparing the hue, saturation, and brightness of the HSV image with respective thresholds, and determines whether the number of detected pixels is equal to or greater than a predetermined value. The server 1 counts pixels from the orange detection area 36 whose hue is within a predetermined numerical range and whose saturation and brightness are equal to or greater than a predetermined threshold as orange dots. Similarly, the server 1 counts pixels from the green detection area 37 whose hue is within a predetermined numerical range and whose saturation and brightness are equal to or greater than a predetermined threshold as green dots. The server 1 determines whether the number of dots counted in each area is equal to or greater than a predetermined value. If it is determined that the number of dots in both areas is equal to or greater than the predetermined value, the server 1 determines that the authenticity determination target object 3 is genuine.

なお、上記では単純に対象の色成分のドット数が所定値以上であるか否かを判定したが、本実施の形態はこれに限定されるものではない。例えばサーバ1は、各検出領域の面積とドット数(画素数)との比率(面積比)に基づいて判定を行ってもよい。In the above, it is simply determined whether the number of dots of the target color component is equal to or greater than a predetermined value, but the present embodiment is not limited to this. For example, the server 1 may make a determination based on the ratio (area ratio) between the area of each detection region and the number of dots (number of pixels).

具体的には、サーバ1は、上記と同様にしてオレンジ検出領域36からオレンジのドット数を検出すると共に、オレンジ検出領域36の面積を算出する。そしてサーバ1は、オレンジのドット数をオレンジ検出領域36の面積で除算した値(面積比)が所定値以上であるか否かを判定する。サーバ1は、同様にしてグリーン検出領域37についても面積比を算出し、当該面積比が所定値以上であるか否かを判定する。サーバ1は、オレンジ検出領域36及びグリーン検出領域37の双方で面積比が所定値以上であると判定した場合、真贋判定対象物3が真のものであると判定する。 Specifically, the server 1 detects the number of orange dots from the orange detection area 36 in the same manner as described above, and calculates the area of the orange detection area 36. The server 1 then determines whether the value (area ratio) obtained by dividing the number of orange dots by the area of the orange detection area 36 is equal to or greater than a predetermined value. The server 1 similarly calculates the area ratio for the green detection area 37, and determines whether the area ratio is equal to or greater than a predetermined value. If the server 1 determines that the area ratio is equal to or greater than the predetermined value in both the orange detection area 36 and the green detection area 37, it determines that the authenticity determination target object 3 is genuine.

このように、面積比を基準に判定を行うことで、検出領域が極端に狭くなった場合や画像サイズが変化しても、適切な判定が可能となる。 In this way, by making a judgment based on the area ratio, appropriate judgment is possible even if the detection area becomes extremely narrow or the image size changes.

上述の如く、サーバ1はオレンジ検出領域36及びグリーン検出領域37にオレンジ、グリーンの色成分が所定値以上の割合で存在するか否かを判定することにより、真贋判定を行う。サーバ1は判定結果を端末2に出力し、端末2は当該判定結果を表示する。As described above, the server 1 performs an authenticity determination by determining whether or not orange and green color components are present in a ratio equal to or greater than a predetermined value in the orange detection area 36 and the green detection area 37. The server 1 outputs the determination result to the terminal 2, and the terminal 2 displays the determination result.

なお、上記ではオレンジ検出領域36及びグリーン検出領域37の波長が回折して見える色をHSV変換することにより真贋判定を行ったが、HSV色空間の色成分による判定ではなく、RGB各色の輝度値の割合により真贋判定を行ってもよい。In the above, authenticity was determined by converting the colors that appear as a result of diffraction of the wavelengths in the orange detection area 36 and the green detection area 37 into HSV, but authenticity may also be determined based on the ratio of the luminance values of each RGB color rather than the color components in the HSV color space.

具体的には、サーバ1は、各検出領域(オレンジ検出領域36及びグリーン検出領域37)において各ドット(画素)のRGB各色の輝度値の割合が所定の割合であるか否かを判定することで、真贋判定を行ってもよい。より詳しくは、サーバ1は、各検出領域においてRGB各色の輝度値が所定の割合になっているドット数(画素数)が所定値以上であるか否かを判定することで、真贋判定を行ってもよい。あるいは、サーバ1は、各検出領域においてRGB各色の輝度値が所定の割合になっているドット数を、検出領域の面積で除算した面積比が所定値以上であるか否かを判定することで、真贋判定を行ってもよい。サーバ1は、検出領域における各ドットのRGB各色の輝度により、例えば、オレンジ検出領域36であれば、R:G:Bの輝度値の割合が、概ね 1:0.5±0.1:0±0.1になっているドット数を検出することで、真贋判定を行う。Specifically, the server 1 may perform the authenticity determination by determining whether the ratio of the luminance values of the RGB colors of each dot (pixel) in each detection area (orange detection area 36 and green detection area 37) is a predetermined ratio. More specifically, the server 1 may perform the authenticity determination by determining whether the number of dots (number of pixels) in which the luminance values of the RGB colors are a predetermined ratio in each detection area is equal to or greater than a predetermined value. Alternatively, the server 1 may perform the authenticity determination by determining whether the area ratio obtained by dividing the number of dots in which the luminance values of the RGB colors are a predetermined ratio in each detection area by the area of the detection area is equal to or greater than a predetermined value. The server 1 performs the authenticity determination by detecting the number of dots in which the luminance values of the RGB colors of each dot in the detection area are equal to or greater than a predetermined value, for example, in the orange detection area 36, the ratio of the luminance values of R:G:B is approximately 1:0.5±0.1:0±0.1.

以上より、本実施の形態によれば、ホログラム部30の撮像時に誘導線35を表示することで、正しい位置に輝点(0次回折光)を誘導することができ、真贋判定を好適に支援することができる。 As described above, according to this embodiment, by displaying the guiding line 35 when imaging the hologram section 30, it is possible to guide the bright spot (zeroth order diffracted light) to the correct position, thereby providing ideal assistance in determining authenticity.

また、本実施の形態によれば、サーバ1がホログラム部30の画像を複数の領域に分割し、各領域に所定の色成分が所定値以上の割合で存在するか否か(あるいは各領域において各ドットのRGB各色の輝度値の割合が所定の割合であるか否か)を判定することで、自動的に真贋判定を行うことができる。 In addition, according to this embodiment, the server 1 divides the image of the hologram section 30 into multiple regions and determines whether a predetermined color component is present in each region at a ratio equal to or greater than a predetermined value (or whether the ratio of the luminance values of each RGB color of each dot in each region is a predetermined ratio), thereby enabling automatic authenticity determination.

図13は、真贋判定システムが実行する処理手順の一例を示すフローチャートである。図13に基づき、本システムが実行する処理内容について説明する。
端末2の制御部21は、ユーザによる操作に従ってホログラム部30(対象物)の撮像を開始する(ステップS11)。制御部21は、ホログラム部30を撮像したフレーム画像を取得する(ステップS12)。
13 is a flowchart showing an example of a process performed by the authenticity determination system, and the process performed by this system will be described with reference to FIG.
The control unit 21 of the terminal 2 starts capturing an image of the hologram unit 30 (object) in accordance with an operation by the user (step S11). The control unit 21 acquires a frame image capturing the image of the hologram unit 30 (step S12).

制御部21は、ホログラム部30に予め付与されたマーカ31をフレーム画像から検出する(ステップS13)。また、制御部21は、輝点の位置(0次回折光の照射位置)をフレーム画像から検出する(ステップS14)。The control unit 21 detects the marker 31 that has been previously assigned to the hologram unit 30 from the frame image (step S13). The control unit 21 also detects the position of the bright spot (the irradiation position of the zeroth-order diffracted light) from the frame image (step S14).

制御部21は、検出したマーカ31の位置と、輝点の位置とに基づき、輝点の位置をホログラム部30上の所定位置に誘導するための誘導線35(オブジェクト)をフレーム画像に重畳表示する(ステップS15)。具体的には、制御部21は、マーカ31の位置に基づき、ホログラム部30を囲う第1矩形領域32と、0次回折光を照射すべき第2矩形領域33とを特定し、重畳表示する。更に制御部21は、フレーム画像の彩度及び明度に基づき、0次回折光の照射範囲に相当する輝点領域34を特定して重畳表示する。そして制御部21は、輝点領域34の中心から第2矩形領域33の中心に延びる誘導線35を重畳表示する。Based on the detected positions of the marker 31 and the bright spot, the control unit 21 superimposes on the frame image a guiding line 35 (object) for guiding the bright spot to a predetermined position on the hologram unit 30 (step S15). Specifically, based on the position of the marker 31, the control unit 21 identifies and superimposes a first rectangular area 32 surrounding the hologram unit 30 and a second rectangular area 33 to which the zeroth-order diffracted light should be irradiated. Furthermore, based on the saturation and brightness of the frame image, the control unit 21 identifies and superimposes a bright spot area 34 corresponding to the irradiation range of the zeroth-order diffracted light. The control unit 21 then superimposes a guiding line 35 extending from the center of the bright spot area 34 to the center of the second rectangular area 33.

制御部21は、輝点の位置(輝点領域34の中心)がホログラム部30上の所定位置(第2矩形領域33)に重なったか否かを判定する(ステップS16)。重なっていないと判定した場合(S16:NO)、制御部21は処理をステップS12に戻す。The control unit 21 determines whether the position of the bright spot (the center of the bright spot area 34) overlaps with a predetermined position (the second rectangular area 33) on the hologram unit 30 (step S16). If it is determined that they do not overlap (S16: NO), the control unit 21 returns the process to step S12.

重なったと判定した場合(S16:YES)、制御部21は、ホログラム部30に対応する画像領域をフレーム画像から切り出す(ステップS17)。制御部21は、切り出した画像をサーバ1に送信する(ステップS18)。If it is determined that there is overlap (S16: YES), the control unit 21 cuts out an image area corresponding to the hologram unit 30 from the frame image (step S17). The control unit 21 transmits the cut-out image to the server 1 (step S18).

サーバ1の制御部11は、端末2から取得したホログラム部30の画像をHSV画像に変換する(ステップS19)。制御部11は、変換した画像の彩度及び明度に基づき、円形の輝点領域34を検出する(ステップS20)。The control unit 11 of the server 1 converts the image of the hologram unit 30 acquired from the terminal 2 into an HSV image (step S19). The control unit 11 detects a circular bright spot region 34 based on the saturation and brightness of the converted image (step S20).

制御部11は、輝点領域34の半径に所定倍率を乗算した距離範囲を除く領域を、複数の領域に分割する(ステップS21)。具体的には上述の如く、制御部11は、輝点より上側の領域をオレンジ検出領域36、下側の領域をグリーン検出領域37として分割する。制御部11は、分割した各領域に所定の色成分が所定値以上の割合で存在するか否かを判定する(ステップS22)。具体的には、制御部11は、オレンジ検出領域36にオレンジドットが、グリーン検出領域37にグリーンドットがそれぞれ所定値以上含まれるか否かを判定する。The control unit 11 divides the area excluding the distance range obtained by multiplying the radius of the bright spot area 34 by a predetermined magnification into multiple areas (step S21). Specifically, as described above, the control unit 11 divides the area above the bright spot into an orange detection area 36 and the area below the bright spot into a green detection area 37. The control unit 11 determines whether a predetermined color component is present in each divided area at a ratio equal to or greater than a predetermined value (step S22). Specifically, the control unit 11 determines whether the orange detection area 36 contains orange dots and the green detection area 37 contains green dots at a ratio equal to or greater than a predetermined value.

制御部11は、判定結果を端末2に出力する(ステップS23)。端末2の制御部21は、サーバ1から出力された判定結果を表示し(ステップS24)、一連の処理を終了する。The control unit 11 outputs the judgment result to the terminal 2 (step S23). The control unit 21 of the terminal 2 displays the judgment result output from the server 1 (step S24), and the series of processes ends.

なお、上記では端末2がホログラム部30の切り出しまでを行い、サーバ1が真贋判定を行うものとして説明したが、本実施の形態はこれに限定されるものではない。例えば端末2はフレーム画像全体をサーバ1に送信し、サーバ1が画像の切り出しを行うようにしてもよい。あるいは、端末2単体で真贋判定までを行ってもよい。このように、サーバ1及び端末2が実行する処理内容は適宜に分担変更可能であり、一のコンピュータで全部の処理を実行する場合も本実施の形態に含み得る。 Note that, although the above description has been given of terminal 2 cutting out hologram section 30 and server 1 determining authenticity, this embodiment is not limited to this. For example, terminal 2 may transmit the entire frame image to server 1, which may then cut out the image. Alternatively, terminal 2 may perform the authenticity determination on its own. In this way, the processing content executed by server 1 and terminal 2 can be appropriately divided and changed, and the present embodiment may also include a case where all processing is executed by a single computer.

また、上記では一枚の切り出し画像から判定を行ったが、本実施の形態はこれに限定されるものではない。具体的には、サーバ1は端末2から複数枚(例えば5枚)の切り出し画像を取得し、過半数の画像においてオレンジ、グリーンの色成分が所定値以上の割合で存在すると判定した場合(あるいは過半数の画像においてRGB各色の輝度値の割合が所定の割合であると判定した場合)、真贋判定対象物3が真のものであると判定する。このように、複数枚の画像を用いて判定を行うことで、誤判定を抑止することが期待できる。 In addition, while the above describes a judgment based on a single cut-out image, the present embodiment is not limited to this. Specifically, the server 1 acquires multiple cut-out images (e.g., five) from the terminal 2, and if it determines that orange and green color components are present in a ratio equal to or greater than a predetermined value in the majority of the images (or if it determines that the ratio of luminance values of each of the RGB colors is a predetermined ratio in the majority of the images), it determines that the object 3 to be judged for authenticity is genuine. In this way, by making a judgment using multiple images, it is expected that erroneous judgments can be prevented.

以上より、本実施の形態1によれば、真贋判定を好適に支援することができる。 As described above, according to this embodiment 1, it is possible to effectively assist in authenticity determination.

(実施の形態2)
本実施の形態では、ホログラム部30に0次回折光を照射した状態で行う判定と、ホログラム部30に0次回折光が照射されていない状態で行う判定との2段階で判定を行う形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
(Embodiment 2)
In this embodiment, a two-stage determination will be described, that is, a determination made in a state where the zeroth-order diffracted light is irradiated onto the hologram section 30, and a determination made in a state where the zeroth-order diffracted light is not irradiated onto the hologram section 30. Note that the same reference numerals are used to denote contents that overlap with those in the first embodiment, and description thereof will be omitted.

図14は、実施の形態2の概要を示す説明図である。図14に基づき、本実施の形態の概要を説明する。 Figure 14 is an explanatory diagram showing an overview of embodiment 2. The overview of this embodiment will be explained based on Figure 14.

まず端末2は、実施の形態1と同様にして第1矩形領域32及び第2矩形領域33をフレーム画像に重畳表示し、輝点領域34を誘導線35により第2矩形領域33に誘導して、ホログラム部30の所定位置(中央)に0次回折光が照射された画像を切り抜く。そしてサーバ1は、当該画像をオレンジ検出領域36、グリーン検出領域37に分割し、各領域にオレンジ、グリーンの色成分が所定値以上の割合で存在するか否かを判定する。First, the terminal 2 displays the first rectangular region 32 and the second rectangular region 33 superimposed on the frame image in the same manner as in the first embodiment, guides the bright spot region 34 to the second rectangular region 33 by the guide line 35, and cuts out an image in which the zeroth order diffracted light is irradiated at a predetermined position (center) of the hologram section 30. The server 1 then divides the image into an orange detection region 36 and a green detection region 37, and determines whether or not the orange and green color components are present in each region at a ratio equal to or greater than a predetermined value.

本実施の形態では更に、図14右側に示すように、輝点の位置をホログラム部30の外側(図14では上側)の位置に誘導し、0次回折光が照射されていないフレーム画像(第2画像)を取得する。そして、当該画像において所定の色成分(本実施の形態ではオレンジ)が存在しない(所定値以下である)ことを確認することで、単に上部がオレンジ、下部がグリーンの偽物を検知可能とする。In this embodiment, the position of the bright spot is further guided to a position outside the hologram section 30 (upper side in FIG. 14) as shown on the right side of FIG. 14, and a frame image (second image) that is not irradiated with zero-order diffracted light is obtained. Then, by confirming that a predetermined color component (orange in this embodiment) is not present in the image (it is below a predetermined value), it becomes possible to detect a fake that is simply orange on the top and green on the bottom.

具体的には、端末2はまず、輝点の位置(0次回折光の照射位置)をホログラム部30の外側の所定位置に誘導するための誘導線35を重畳表示する。例えば端末2は、図14右側に示すように、実施の形態1と同様にして第1矩形領域32を描画すると共に、ホログラム部30の外側の所定位置に、第3矩形領域38を描画する。そして端末2は、輝点領域34の中心から第3矩形領域38に延びる誘導線35を描画する。これにより、輝点の位置をホログラム部30の外側に誘導し、0次回折光が照射されていない画像を取得する。 Specifically, terminal 2 first displays a superimposed guiding line 35 for guiding the position of the bright spot (the irradiation position of the zeroth-order diffracted light) to a predetermined position outside hologram section 30. For example, as shown on the right side of Fig. 14, terminal 2 draws a first rectangular area 32 in the same manner as in embodiment 1, and draws a third rectangular area 38 at a predetermined position outside hologram section 30. Terminal 2 then draws a guiding line 35 extending from the center of bright spot area 34 to third rectangular area 38. This guides the position of the bright spot to the outside of hologram section 30, and an image not irradiated with zeroth-order diffracted light is obtained.

サーバ1は、当該画像をHSV画像に変換する。そしてサーバ1は、変換した画像の色相、彩度及び明度に基づき、所定の色成分の割合が所定値以下であるか否かを判定する。具体的には、サーバ1は、HSV画像の色相、彩度及び明度をそれぞれ閾値と比較することでオレンジの色成分の画素を検出し、検出した画素数が所定値以下であるか否かを判定する。すなわち、サーバ1は、色相が所定の数値範囲内であり、かつ、彩度及び明度が所定の閾値以上の画素をオレンジドットとしてカウントし、カウントしたオレンジのドット数が所定値以下であるか否かを判定する。このようにして、サーバ1は、0次回折光が照射されていない場合に、ホログラム部30がオレンジに再生していないことを確認する。The server 1 converts the image into an HSV image. The server 1 then determines whether the proportion of a predetermined color component is equal to or less than a predetermined value based on the hue, saturation, and brightness of the converted image. Specifically, the server 1 detects pixels of the orange color component by comparing the hue, saturation, and brightness of the HSV image with respective thresholds, and determines whether the number of detected pixels is equal to or less than a predetermined value. That is, the server 1 counts pixels whose hue is within a predetermined numerical range and whose saturation and brightness are equal to or greater than a predetermined threshold as orange dots, and determines whether the number of counted orange dots is equal to or less than a predetermined value. In this way, the server 1 confirms that the hologram section 30 is not reproduced in orange when the zero-order diffracted light is not irradiated.

サーバ1は、ホログラム部30上の所定位置(中央)に0次回折光が照射されている場合の判定結果と、ホログラム部30に0次回折光が照射されていない場合の判定結果とに基づき、真贋判定対象物3の真贋を判定する。すなわち、サーバ1は、前者においてオレンジ検出領域36、グリーン検出領域37にそれぞれオレンジ、グリーンの色成分が所定値以上の割合で存在すると判定し、かつ、後者においてオレンジの色成分の割合が所定値以下であると判定した場合に、真贋判定対象物3が真のものであると判定する。The server 1 judges the authenticity of the object 3 to be subjected to authenticity judgment based on the judgment result when the zeroth-order diffracted light is irradiated to a predetermined position (center) on the hologram section 30 and the judgment result when the zeroth-order diffracted light is not irradiated to the hologram section 30. That is, the server 1 judges that the object 3 to be subjected to authenticity judgment is genuine when it judges that the orange and green color components are present in the orange detection area 36 and the green detection area 37, respectively, at a ratio equal to or greater than a predetermined value in the former and judges that the ratio of the orange color component is equal to or less than a predetermined value in the latter.

なお、実施の形態1と同様に、サーバ1は、HSV色空間の色ではなく、RGB各色の輝度を基準に判定を行ってもよい。具体的には、サーバ1は、輝点領域34が第2矩形領域33に重なった場合に、オレンジ検出領域36及びグリーン検出領域37において各ドット(画素)のRGB各色の輝度値の割合が所定の割合であるか否かを判定すると共に、輝点領域34が第3矩形領域38に重なった場合に、各ドットのRGB各色の輝度値の割合が所定の割合であるか否かを判定する。そしてサーバ1は、2つの判定結果に応じて真贋を判定してもよい。As in the first embodiment, the server 1 may make a judgment based on the luminance of each RGB color, rather than the color in the HSV color space. Specifically, when the bright spot area 34 overlaps the second rectangular area 33, the server 1 judges whether the ratio of the luminance values of each RGB color of each dot (pixel) in the orange detection area 36 and the green detection area 37 is a predetermined ratio, and when the bright spot area 34 overlaps the third rectangular area 38, the server 1 judges whether the ratio of the luminance values of each RGB color of each dot is a predetermined ratio. The server 1 may then judge authenticity based on the two judgment results.

図15は、実施の形態2に係る真贋判定システムが実行する処理手順を示すフローチャートである。ステップS18の処理を実行後、端末2は以下の処理を実行する。
端末2の制御部21は、ホログラム部30(対象物)を撮像したフレーム画像を取得する(ステップS201)。制御部21は、マーカ31の位置をフレーム画像から検出する(ステップS202)。また、制御部21は、輝点の位置(0次回折光の照射位置)をフレーム画像から検出する(ステップS203)。
15 is a flowchart showing the process steps executed by the authenticity determining system according to embodiment 2. After executing the process of step S18, the terminal 2 executes the following process.
The control unit 21 of the terminal 2 acquires a frame image of the hologram unit 30 (object) (step S201). The control unit 21 detects the position of the marker 31 from the frame image (step S202). The control unit 21 also detects the position of the bright spot (the irradiation position of the zero-order diffracted light) from the frame image (step S203).

制御部21は、ステップS202で検出したマーカ31の位置と、ステップS203で検出した輝点の位置とに基づき、輝点の位置をホログラム部30の外側の所定位置に誘導するための誘導線35をフレーム画像に重畳表示する(ステップS204)。すなわち、制御部21は、マーカ31の位置に応じて、ホログラム部30の外側に位置する第3矩形領域38を重畳表示し、第3矩形領域38の中心と輝点領域34の中心とを結ぶ誘導線35を重畳表示する。輝点領域34をホログラム部30の外側の第3矩形領域38に誘導することで、制御部21は、0次回折光がホログラム部30に照射されていないフレーム画像(第2画像)を取得する。Based on the position of the marker 31 detected in step S202 and the position of the bright spot detected in step S203, the control unit 21 superimposes and displays a guiding line 35 for guiding the position of the bright spot to a predetermined position outside the hologram unit 30 on the frame image (step S204). That is, the control unit 21 superimposes and displays a third rectangular area 38 located outside the hologram unit 30 according to the position of the marker 31, and superimposes and displays a guiding line 35 connecting the center of the third rectangular area 38 and the center of the bright spot area 34. By guiding the bright spot area 34 to the third rectangular area 38 outside the hologram unit 30, the control unit 21 acquires a frame image (second image) in which the 0th order diffracted light is not irradiated to the hologram unit 30.

制御部21は、輝点の位置(輝点領域34の中心)がホログラム部30の外側の所定位置(第3矩形領域38)に重なったか否かを判定する(ステップS205)。重なっていないと判定した場合(S205:NO)、制御部21は処理をステップS201に戻す。The control unit 21 determines whether the position of the bright spot (the center of the bright spot area 34) overlaps with a predetermined position (third rectangular area 38) outside the hologram unit 30 (step S205). If it is determined that they do not overlap (S205: NO), the control unit 21 returns the process to step S201.

重なったと判定した場合(S205:YES)、制御部21は、ホログラム部30に対応する画像領域をフレーム画像から切り出す(ステップS206)。制御部21は、切り出した画像をサーバ1に送信する(ステップS207)。If it is determined that there is overlap (S205: YES), the control unit 21 cuts out an image area corresponding to the hologram unit 30 from the frame image (step S206). The control unit 21 transmits the cut-out image to the server 1 (step S207).

サーバ1の制御部11は、端末2から取得した画像をHSV画像に変換する(ステップS208)。制御部11は、変換した画像の色相、彩度及び明度に基づき、所定の色成分の割合が所定値以下であるか否かを判定する(ステップS209)。具体的には、制御部11は、オレンジのドット数(画素数)が一定数以下であるか否かを判定する。The control unit 11 of the server 1 converts the image acquired from the terminal 2 into an HSV image (step S208). The control unit 11 determines whether the proportion of a predetermined color component is equal to or less than a predetermined value based on the hue, saturation, and brightness of the converted image (step S209). Specifically, the control unit 11 determines whether the number of orange dots (number of pixels) is equal to or less than a certain number.

制御部11は、ステップS22における判定結果と、ステップS209における判定結果とに基づき、真贋判定対象物3の真贋を判定する(ステップS210)。すなわち、制御部11は、ホログラム部30上の所定位置(中央)に0次回折光が照射されている画像から所定の色成分が所定値以上の割合で存在するか否かを判定した判定結果と、ホログラム部30に0次回折光が照射されていない画像から所定の色成分の割合が所定値以下であるか否かを判定した判定結果とに基づき、真贋を判定する。制御部11は、前者において所定の色成分が所定値以上の割合で存在すると判定し、かつ、後者において所定の色成分の割合が所定値以下であると判定した場合、真贋判定対象物3が真のものであると判定する。The control unit 11 judges the authenticity of the authenticity judgment target 3 based on the judgment result in step S22 and the judgment result in step S209 (step S210). That is, the control unit 11 judges the authenticity based on the judgment result of whether or not a predetermined color component exists at a rate equal to or greater than a predetermined value from an image in which the zeroth-order diffracted light is irradiated to a predetermined position (center) on the hologram unit 30, and the judgment result of whether or not the rate of the predetermined color component is equal to or less than a predetermined value from an image in which the zeroth-order diffracted light is not irradiated to the hologram unit 30. If the control unit 11 judges that the predetermined color component exists at a rate equal to or greater than a predetermined value in the former and that the rate of the predetermined color component is equal to or less than a predetermined value in the latter, it judges that the authenticity judgment target 3 is genuine.

制御部11は、判定結果を端末2に出力する(ステップS211)。端末2の制御部21は判定結果を表示し(ステップS212)、一連の処理を終了する。The control unit 11 outputs the judgment result to the terminal 2 (step S211). The control unit 21 of the terminal 2 displays the judgment result (step S212), and the series of processes ends.

以上より、本実施の形態2によれば、ホログラム部30に0次回折光が照射されている状態と、0次回折光が照射されていない状態との2段階で判定を行うことで、真贋判定の精度を高めることが期待できる。 From the above, according to this embodiment 2, it is expected that the accuracy of authenticity determination can be improved by performing a two-stage determination: a state in which the zeroth order diffracted light is irradiated onto the hologram section 30, and a state in which the zeroth order diffracted light is not irradiated onto the hologram section 30.

(変形例1)
実施の形態1では真贋判定対象のホログラムとしてオレンジ及びグリーンの波長が回折して見えるホログラム(複数色に回折して見えるリップマンホログラム)を例に挙げたが、本実施の形態はこれに限定されるものではない。例えばホログラムとして、単色に回折して見えるホログラムを採用してもよい。
(Variation 1)
In the first embodiment, a hologram in which orange and green wavelengths are diffracted (a Lippmann hologram in which multiple colors are diffracted) is taken as an example of the hologram to be authenticated, but the present embodiment is not limited to this. For example, a hologram in which a single color is diffracted may be used.

単色のホログラムを採用する場合、輝点の位置をホログラム部30の中心に合わせてもホログラムを確認することはできず、輝点の位置をホログラム部30の中心から外側に外すと回折して見えるホログラムを確認することができる。そのため、端末2は、輝点の目標位置としてホログラム部30の外側の所定位置に矩形領域を表示し、当該矩形領域と輝点領域34とを結ぶ誘導線35(オブジェクト)を重畳表示することで、輝点の位置をホログラム部30の外側に誘導する。When a monochromatic hologram is used, the hologram cannot be seen even if the bright spot is aligned with the center of the hologram section 30, but a diffracted hologram can be seen if the bright spot is moved away from the center of the hologram section 30. Therefore, the terminal 2 displays a rectangular area at a specified position outside the hologram section 30 as the target position of the bright spot, and superimposes a guiding line 35 (object) connecting the rectangular area and the bright spot area 34, thereby guiding the position of the bright spot to the outside of the hologram section 30.

輝点の位置がホログラム部30の外側の所定位置に重なった場合、端末2はホログラム部30に対応する画像領域を切り出し、サーバ1に送信する。サーバ1は、端末2から取得した画像領域に所定の色成分が所定値以上の割合で存在するか否かを判定することで、真贋を判定する。あるいはサーバ1は、取得した画像領域において各ドット(画素)のRGB各色の輝度値の割合が所定の割合であるか否かを判定することで、真贋を判定する。 When the position of the bright spot overlaps with a predetermined position outside the hologram section 30, the terminal 2 cuts out the image area corresponding to the hologram section 30 and transmits it to the server 1. The server 1 determines whether or not a predetermined color component is present in the image area acquired from the terminal 2 at a ratio equal to or greater than a predetermined value, thereby determining the authenticity. Alternatively, the server 1 determines whether or not the ratio of the brightness values of each of the RGB colors of each dot (pixel) in the acquired image area is a predetermined ratio, thereby determining the authenticity.

このように、ホログラムとして単色のホログラムを採用してもよい。 In this way, a monochrome hologram may be used as the hologram.

(変形例2)
単色のホログラムだけではなく、2色以上(複数色)に回折して見えるホログラムを採用してもよい。この場合も上記と同様に、端末2は輝度の位置を所定位置に誘導するための誘導線35を撮像画像に重畳表示する。輝点の位置が所定位置に重なった場合、サーバ1は、ホログラム部30に対応する画像領域に各色成分が所定値以上の割合で存在するか否かを判定する(あるいは、RGB各色の輝度値の割合が所定の割合であるか否かを判定する)ことで、真贋を判定する。
(Variation 2)
Not only a single-color hologram, but also a hologram that appears to diffract into two or more colors (multiple colors) may be used. In this case, as in the above, the terminal 2 displays a guiding line 35 for guiding the position of the luminance to a predetermined position superimposed on the captured image. When the position of the bright point overlaps with the predetermined position, the server 1 judges whether each color component is present in the image area corresponding to the hologram section 30 at a ratio equal to or greater than a predetermined value (or judges whether the ratio of the luminance values of each color of RGB is a predetermined ratio) to judge authenticity.

(変形例3)
輝点を誘導して、真贋判定を行える光学的構造体として、回折格子もある。この場合も実施の形態1と同様に、端末2は、輝点(正反射光)の位置を回折格子上の所定位置に誘導するための誘導線35を撮像画像に重畳表示し、輝点を回折格子上の位置に誘導する。サーバ1は、0次回折光を中心に、回折格子の方向と、ピッチに応じた周期的範囲に所定の回折光が存在するか否か(所定の色成分が所定の割合で存在するか否か、又は輝度値が所定値以上のドット(画素)が周期的に存在するか否か)を判定することで、正規の回折格子であるか否かを判定することが可能である。
(Variation 3)
A diffraction grating is also an optical structure capable of guiding a bright spot to determine authenticity. In this case, as in the first embodiment, the terminal 2 superimposes a guiding line 35 on the captured image for guiding the position of the bright spot (specularly reflected light) to a predetermined position on the diffraction grating, and guides the bright spot to a position on the diffraction grating. The server 1 can determine whether a predetermined diffracted light exists in a periodic range according to the direction and pitch of the diffraction grating, with the zeroth-order diffracted light as the center (whether a predetermined color component exists at a predetermined ratio, or whether dots (pixels) with a luminance value equal to or greater than a predetermined value exist periodically), thereby determining whether the diffraction grating is genuine or not.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。The embodiments disclosed herein are illustrative in all respects and should not be considered limiting. The scope of the present invention is indicated by the claims, not by the above meaning, and is intended to include all modifications within the meaning and scope of the claims.

各実施の形態に記載した事項は相互に組み合わせることが可能である。また、特許請求の範囲に記載した独立請求項及び従属請求項は、引用形式に関わらず全てのあらゆる組み合わせにおいて、相互に組み合わせることが可能である。さらに、特許請求の範囲には他の2以上のクレームを引用するクレームを記載する形式(マルチクレーム形式)を用いているが、これに限るものではない。マルチクレームを少なくとも一つ引用するマルチクレーム(マルチマルチクレーム)を記載する形式を用いて記載しても良い。 The matters described in each embodiment can be combined with each other. In addition, the independent claims and dependent claims described in the claims can be combined with each other in any and all combinations regardless of the citation format. Furthermore, the claims use a format in which a claim cites two or more other claims (multi-claim format), but this is not limited to this. They may also be written using a format in which a multiple claim cites at least one other multiple claim (multi-multi-claim).

1 サーバ
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P1 プログラム
2 端末
21 制御部
22 主記憶部
23 通信部
24 表示部
25 入力部
26 撮像部
27 光源
28 補助記憶部
P2 プログラム
3 真贋判定対象物
30 ホログラム部
31 マーカ
32 第1矩形領域
33 第2矩形領域
34 輝点領域
35 誘導線
36 オレンジ検出領域
37 グリーン検出領域
38 第3矩形領域
REFERENCE SIGNS LIST 1 Server 11 Control unit 12 Main memory unit 13 Communication unit 14 Auxiliary memory unit P1 Program 2 Terminal 21 Control unit 22 Main memory unit 23 Communication unit 24 Display unit 25 Input unit 26 Imaging unit 27 Light source 28 Auxiliary memory unit P2 Program 3 Object to be authenticated 30 Hologram unit 31 Marker 32 First rectangular area 33 Second rectangular area 34 Bright spot area 35 Guiding line 36 Orange detection area 37 Green detection area 38 Third rectangular area

Claims (15)

照明を照射した対象物を撮像した画像を取得し、
前記画像から前記対象物の位置を検出し、
前記画像から0次回折光の照射位置を検出し、
検出された前記対象物の位置及び前記0次回折光の照射位置に応じて、前記0次回折光の照射位置を前記対象物上の所定位置に誘導するためのオブジェクトを前記画像に重畳して表示する
処理をコンピュータに実行させるプログラム。
Acquire an image of the object illuminated with light;
Detecting the position of the object from the image;
Detecting an irradiation position of the zeroth order diffracted light from the image;
A program that causes a computer to execute a process of superimposing an object for guiding the irradiation position of the zeroth-order diffracted light to a predetermined position on the object, on the image, in accordance with the detected position of the object and the irradiation position of the zeroth-order diffracted light.
前記0次回折光の照射位置が前記所定位置に重なった場合、前記対象物に対応する画像領域を前記画像から切り出す
請求項1に記載のプログラム。
The program according to claim 1 , further comprising: cutting out an image area corresponding to the object from the image when the irradiation position of the zeroth-order diffracted light overlaps with the predetermined position.
切り出した前記画像領域を、前記0次回折光の照射範囲の重心位置を基点とした複数の領域に分割し、
分割した各領域に所定の色成分が所定値以上の割合で存在するか否かを判定する
請求項2に記載のプログラム。
Dividing the cut-out image area into a plurality of areas based on the center of gravity of the irradiation range of the zeroth-order diffracted light;
The program according to claim 2 , further comprising: determining whether or not a predetermined color component is present in each divided area at a rate equal to or greater than a predetermined value.
分割した領域から、所定の色成分の画素を検出し、
検出した画素数が所定値以上であるか否かを判定する
請求項3に記載のプログラム。
Detecting pixels of a predetermined color component from the divided regions;
The program according to claim 3 , further comprising: determining whether or not the detected number of pixels is equal to or greater than a predetermined value.
分割した領域から、所定の色成分の画素を検出し、
検出した画素数を前記分割した領域の面積で除算した値が所定値以上であるか否かを判定する
請求項3に記載のプログラム。
Detecting pixels of a predetermined color component from the divided regions;
The program according to claim 3 , further comprising: determining whether or not a value obtained by dividing the number of detected pixels by an area of the divided region is equal to or greater than a predetermined value.
切り出した前記画像領域を、前記0次回折光の照射範囲の重心位置を基点とした複数の領域に分割し、
分割した各領域において各画素のRGB各色の輝度値の割合が所定の割合であるか否かを判定する
請求項2に記載のプログラム。
Dividing the cut-out image area into a plurality of areas based on the center of gravity of the irradiation range of the zeroth-order diffracted light;
The program according to claim 2 , further comprising: determining whether or not a ratio of luminance values of each of RGB colors of each pixel in each divided region is a predetermined ratio.
前記対象物に付与されたマーカを前記画像から検出することで、前記対象物の位置を検出する
請求項1に記載のプログラム。
The program according to claim 1 , further comprising: detecting a marker attached to the object from the image, thereby detecting the position of the object.
検出した前記マーカの位置に基づき、前記対象物を囲う第1矩形領域と、前記0次回折光を照射すべき第2矩形領域とを特定し、
前記第1矩形領域及び第2矩形領域をそれぞれ表すオブジェクトを前記画像に重畳して表示する
請求項7に記載のプログラム。
Based on the detected position of the marker, a first rectangular area surrounding the object and a second rectangular area to be irradiated with the zero-order diffracted light are specified;
The program according to claim 7 , further comprising: displaying objects respectively representing the first rectangular area and the second rectangular area superimposed on the image.
前記0次回折光の照射範囲に対応する画像領域を前記画像から特定し、
特定した画像領域を表すオブジェクトを前記画像に重畳して表示する
請求項1に記載のプログラム。
Identifying an image area from the image that corresponds to an irradiation range of the zeroth order diffracted light;
The program according to claim 1 , further comprising: displaying an object representing the identified image region superimposed on the image.
前記0次回折光の照射位置が前記所定位置に重なった場合、前記0次回折光の照射位置を前記対象物の外側の位置に誘導するためのオブジェクトを前記画像に重畳して表示する
請求項1に記載のプログラム。
The program according to claim 1 , further comprising: displaying, when the irradiation position of the zeroth-order diffracted light overlaps with the predetermined position, an object for guiding the irradiation position of the zeroth-order diffracted light to a position outside the object, superimposed on the image.
前記0次回折光の照射位置が前記外側の位置に重なった場合、前記対象物に対応する画像領域を前記画像から切り出し、
切り出した前記画像領域において所定の色成分の割合が所定値以下又は所定値以上になるかを判定する
請求項10に記載のプログラム。
When the irradiation position of the zeroth-order diffracted light overlaps with the outer position, an image area corresponding to the object is cut out from the image;
The program according to claim 10 , further comprising: determining whether a ratio of a predetermined color component in the cut-out image region is equal to or less than a predetermined value or equal to or more than a predetermined value.
前記0次回折光の照射位置が前記外側の位置に重なった場合、前記対象物に対応する画像領域を前記画像から切り出し、
切り出した前記画像領域において各画素のRGB各色の輝度値の割合が所定の割合であるか否かを判定する
請求項10に記載のプログラム。
When the irradiation position of the zeroth order diffracted light overlaps with the outer position, an image area corresponding to the object is cut out from the image;
The program according to claim 10, further comprising: determining whether or not a ratio of luminance values of each of RGB colors of each pixel in the cut-out image region is a predetermined ratio.
照明を照射した対象物を撮像した画像を取得し、
前記画像から前記対象物の位置を検出し、
前記画像から0次回折光の照射位置を検出し、
検出された前記対象物の位置及び前記0次回折光の照射位置に応じて、前記0次回折光の照射位置を前記対象物上の所定位置に誘導するためのオブジェクトを前記画像に重畳して表示する
処理をコンピュータが実行する情報処理方法。
Acquire an image of the object illuminated with light;
Detecting the position of the object from the image;
Detecting an irradiation position of the zeroth order diffracted light from the image;
an object for guiding the irradiation position of the zeroth order diffracted light to a predetermined position on the object, superimposed on the image, in accordance with the detected position of the object and the irradiation position of the zeroth order diffracted light.
制御部を備える情報処理装置であって、
前記制御部が、
照明を照射した対象物を撮像した画像を取得し、
前記画像から前記対象物の位置を検出し、
前記画像から0次回折光の照射位置を検出し、
検出された前記対象物の位置及び前記0次回折光の照射位置に応じて、前記0次回折光の照射位置を前記対象物上の所定位置に誘導するためのオブジェクトを前記画像に重畳して表示する
情報処理装置。
An information processing device including a control unit,
The control unit:
Acquire an image of the object illuminated with light;
Detecting the position of the object from the image;
Detecting an irradiation position of the zeroth order diffracted light from the image;
an object for guiding an irradiation position of the zeroth-order diffracted light to a predetermined position on the object in accordance with the detected position of the object and the irradiation position of the zeroth-order diffracted light, superimposed on the image and displayed.
照明を照射した対象物を撮像した画像を取得し、
前記画像から前記対象物の位置を検出し、
前記画像から0次回折光の照射位置を検出し、
検出された前記対象物の位置及び前記0次回折光の照射位置に応じて、前記0次回折光の照射位置を所定位置に誘導するためのオブジェクトであって、前記0次回折光の照射位置と前記所定位置とを結ぶオブジェクトを前記画像に重畳して表示する
処理をコンピュータに実行させるプログラム。
Acquire an image of the object illuminated with light;
Detecting the position of the object from the image;
Detecting an irradiation position of the zeroth order diffracted light from the image;
A program that causes a computer to execute a process of superimposing and displaying an object that connects the irradiation position of the zeroth order diffracted light and the predetermined position, the object being used to guide the irradiation position of the zeroth order diffracted light to a predetermined position according to the detected position of the object and the irradiation position of the zeroth order diffracted light, on the image.
JP2024544533A 2023-03-13 2024-03-13 PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS Active JP7613644B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2023038913 2023-03-13
JP2023038914 2023-03-13
JP2023038914 2023-03-13
JP2023038913 2023-03-13
PCT/JP2024/009718 WO2024190816A1 (en) 2023-03-13 2024-03-13 Program, information processing method, and information processing device

Publications (2)

Publication Number Publication Date
JPWO2024190816A1 JPWO2024190816A1 (en) 2024-09-19
JP7613644B1 true JP7613644B1 (en) 2025-01-15

Family

ID=92755254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024544533A Active JP7613644B1 (en) 2023-03-13 2024-03-13 PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS

Country Status (2)

Country Link
JP (1) JP7613644B1 (en)
WO (1) WO2024190816A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022098151A (en) 2020-12-21 2022-07-01 大日本印刷株式会社 Computer program, authenticity assessment method and authenticity assessment device
JP2023061880A (en) 2021-10-20 2023-05-02 富士フイルムビジネスイノベーション株式会社 Collation device and program
JP7485236B2 (en) 2022-05-02 2024-05-16 大日本印刷株式会社 Computer program, authenticity determination device, and authenticity determination method
WO2024172161A1 (en) 2023-02-17 2024-08-22 大日本印刷株式会社 Authenticity determination device, computer program, and authenticity determination method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2688264B2 (en) * 1989-11-08 1997-12-08 富士通株式会社 Optical reader
JP6999080B2 (en) * 2015-04-11 2022-02-04 株式会社アーティエンス・ラボ Image recognition system, image recognition method, hologram recording medium, hologram reproduction device and image capture device
JP6497272B2 (en) * 2015-08-25 2019-04-10 株式会社デンソーウェーブ Information code reading system and information code reading device
US10993697B2 (en) * 2016-06-20 2021-05-04 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
JP6851873B2 (en) * 2017-03-22 2021-03-31 株式会社東芝 recoding media
US20230353388A1 (en) * 2020-10-02 2023-11-02 Nec Corporation Information processing device, information processingmethod, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022098151A (en) 2020-12-21 2022-07-01 大日本印刷株式会社 Computer program, authenticity assessment method and authenticity assessment device
JP2023061880A (en) 2021-10-20 2023-05-02 富士フイルムビジネスイノベーション株式会社 Collation device and program
JP7485236B2 (en) 2022-05-02 2024-05-16 大日本印刷株式会社 Computer program, authenticity determination device, and authenticity determination method
WO2024172161A1 (en) 2023-02-17 2024-08-22 大日本印刷株式会社 Authenticity determination device, computer program, and authenticity determination method

Also Published As

Publication number Publication date
JPWO2024190816A1 (en) 2024-09-19
WO2024190816A1 (en) 2024-09-19

Similar Documents

Publication Publication Date Title
JP4515999B2 (en) Mixed code decoding method and apparatus, and recording medium
JP4374331B2 (en) Image generating apparatus, program, and recording medium
JP4857173B2 (en) Image processing apparatus, image processing method, and image processing program
CN105303156B (en) Character detection device, method, and program
JP5337563B2 (en) Form recognition method and apparatus
KR20070021085A (en) Detect document security marks using run profiles
US10936837B1 (en) 2D barcode overlays
JP5182182B2 (en) Color correction method and imaging system
JP7481956B2 (en) Inference device, method, program and learning device
JP7613644B1 (en) PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING APPARATUS
JP5878451B2 (en) Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program
JP5201184B2 (en) Image processing apparatus and program
JP2011065604A (en) Image processing method and image processor
JP2020030730A (en) House transfer interpretation system, house transfer interpretation method, house transfer interpretation program and loss interpretation model
WO2024172161A1 (en) Authenticity determination device, computer program, and authenticity determination method
JP2019012546A (en) Information processing device, image processing method and program, and pos terminal device
JP6454925B2 (en) Projection apparatus and image processing program
JP2012185810A (en) Image processing system and image processing program
JP2009200794A (en) Document alteration detection program and alteration detection apparatus
JP6006675B2 (en) Marker detection apparatus, marker detection method, and program
CN115374517A (en) Testing method and device for wiring software, electronic equipment and storage medium
JP2005309717A (en) Marker processing method, marker processor, program and recording medium
JP6006676B2 (en) Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program
JP5056063B2 (en) Image processing apparatus and image processing program
JP2014206836A (en) Bar code position detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240725

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241209

R150 Certificate of patent or registration of utility model

Ref document number: 7613644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150